वेबसर्वर [20Gbps तक पहुँचना] 10/20 / 40Gbps की बड़ी फाइलें


10

मैं इस प्रश्न में एकल सर्वर से 40Gbps देने के लिए सर्वोत्तम संभव कॉन्फ़िगरेशन / हार्डवेयर का पता लगाना चाहता हूं।

परिस्थिति

हमारे पास एक वीडियो शेयर प्रॉक्सी सर्वर है जो इसके पीछे धीमे स्टोरेज सर्वर से चोटियों को हटाता है। सभी ट्रैफ़िक केवल HTTP है। सर्वर एक रिवर्स प्रॉक्सी (सर्वर पर कैश नहीं की गई फ़ाइलें) और एक वेबसर्वर (स्थानीय ड्राइव पर संग्रहीत फ़ाइलें) के रूप में कार्य करता है।

वर्तमान में कुछ 100TB फाइलें और बैकएंड स्टोरेज सर्वर पर बढ़ रहे हैं।

कैशिंग तंत्र को स्वतंत्र रूप से कार्यान्वित किया जाता है और यह प्रश्न अपने आप में कैशिंग के बारे में नहीं है क्योंकि यह बहुत अच्छी तरह से काम करता है - वर्तमान में 14Gbps बचाता है, बैकएंड सर्वरों को केवल 2Gbps में पास करता है। इसलिए कैश का उपयोग अच्छा है।

लक्ष्य

एक मशीन से 40Gbps या उससे भी अधिक थ्रूपुट प्राप्त करें।

हार्डवेयर 1

HW: सुपरमाइक्रो SC825, X11SSL-F, Xeon E3-1230v5 (4C/8T@3.4GHz), 16GB DDR4 RAM, 2x सुपरमाइक्रो 10G STGN-i1S (LACP L3 + 4)

SSD: 1x 512GB Samsung, 2x 500GB Samsung, 2x480GB Intel 535, 1x 240GB Intel S3500

सिस्टम:

  • irqbalancer बंद हो गया
  • प्रत्येक इंटरफ़ेस के लिए set_irq_affinity (ixgbe ड्राइवर टैरबॉल में स्क्रिप्ट के माध्यम से)
  • ixgbe-4.3.15
  • मैं / हे अनुसूचक समय सीमा
  • iptables खाली (अनलोड किए गए मॉड्यूल)
  • फ़ाइल सिस्टम: XFS

nginx:

  • भेज देना
  • aio धागे
  • Directio 1M
  • tcp_nopush पर
  • tcp_nodelay पर

यहाँ छवि विवरण दर्ज करें यहाँ छवि विवरण दर्ज करें यहाँ छवि विवरण दर्ज करें

जैसा कि रेखांकन पर देखा जाता है, हम 12.5Gbps पुश करने में सक्षम थे। दुर्भाग्य से सर्वर अप्रतिसादी था।

2 चीजें हैं जिन्होंने मेरा ध्यान खींचा। पहले एक IRQ की उच्च राशि है। इस मामले में मैं दुर्भाग्य से / खरीद / व्यवधान से रेखांकन नहीं है। दूसरी बात थी हाई सिस्टम लोड, जो मुझे लगता है कि kswapd0 के कारण 16G RAM के साथ काम करने में समस्याएँ आ रही थीं।

हार्डवेयर 2

HW: सुपरमाइक्रो SC119TQ, X10DRW-i, 2x Xeon E5-2609v4 (8C/8T@1.70GHz), 128GB DDR4 रैम, 2x सुपरमाइक्रो 10G STGN-i1S

SSD, सिस्टम कॉन्फ़िगरेशन हार्डवेयर के समान है। Nginx पर Sendfile है (aio / sendfile आगे की तुलना में)।

यहाँ छवि विवरण दर्ज करें यहाँ छवि विवरण दर्ज करें यहाँ छवि विवरण दर्ज करें

यह बेहतर लगता है, इसलिए अब हमारे पास एक सर्वर है, जो चोटियों में काम करता है, हम कुछ अनुकूलन कर सकते हैं।

Sendfile बनाम aio थ्रेड्स

मैंने Sendfile को अक्षम करने और इसके बजाय aio थ्रेड्स का उपयोग करने का प्रयास किया।

  • भेज देना
  • aio धागे
  • Directio 1M (जो हमारे पास मौजूद सभी फाइलों से मेल खाता है)

बनाम

  • पर भेज देना

फिर 15:00 बजे मैंने वापस सेंडफाइल और फिर से लोड किए गए नग्नेक्स पर स्विच किया (इसलिए मौजूदा कनेक्शन को खत्म करने में थोड़ा समय लगा)। यह अच्छा है कि ड्राइव उपयोग (iostat द्वारा मापा गया) नीचे चला गया। यातायात पर कुछ भी नहीं बदला है (दुर्भाग्य से zabbix ने बंधन 0 से डेटा एकत्र नहीं करने का फैसला किया है)।

यहाँ छवि विवरण दर्ज करें यहाँ छवि विवरण दर्ज करें यहाँ छवि विवरण दर्ज करें

Sendfile चालू / बंद

बस भेजने को चालू / बंद करने की कोशिश की। पुनर्निर्धारित व्यवधान के अलावा कुछ भी नहीं बदला है।

यहाँ छवि विवरण दर्ज करें यहाँ छवि विवरण दर्ज करें

irqbalancer एक सर्वर / cron / अक्षम के रूप में

जैसा कि @lsd ने उल्लेख किया है कि मैंने irqbalancer को cron के माध्यम से निष्पादित करने के लिए सेटअप करने की कोशिश की:

*/5 * * * *   root    /usr/sbin/irqbalance --oneshot --debug 3 > /dev/null

दुर्भाग्य से यह मेरे मामले में मदद नहीं की। नेटवर्क कार्डों में से एक ने अजीब व्यवहार करना शुरू कर दिया:

यहाँ छवि विवरण दर्ज करें

मुझे यह नहीं मिला कि ग्राफ़ में क्या गलत था और जैसा कि अगले दिन फिर से हुआ, मैंने सर्वर में लॉग इन किया और देखा कि एक कोर 100% (सिस्टम उपयोग) पर था।

मैंने एक सेवा के रूप में असमानता शुरू करने की कोशिश की, परिणाम अभी भी वही था।

तब मैंने set_irq_affinity स्क्रिप्ट का उपयोग करने का निर्णय लिया और इसने समस्या को तुरंत ठीक कर दिया और सर्वर ने 17Gbps को फिर से धकेल दिया।

हार्डवेयर 3

हमने नए हार्डवेयर में अपग्रेड किया: 2U 24 (+2) ड्राइव चेसिस (6xSFF), 2x Xeon E5-2620v4, 64GB DDR4 रैम (4x16GB मॉड्यूल्स), 13x SSD, 2x वर्मिस्रो (इंटेल चिप के साथ) नेटवर्क कार्ड। नए सीपीयू ने प्रदर्शन में बहुत सुधार किया।

वर्तमान सेटअप बना हुआ है - सेंडफाइल, आदि। केवल अंतर यह है कि हम केवल एक ही सीपीयू को दोनों नेटवर्क कार्ड (set_irq_affinity स्क्रिप्ट के माध्यम से) को संभालने देते हैं।

20Gbps की सीमा पूरी हो चुकी है।

यहाँ छवि विवरण दर्ज करें यहाँ छवि विवरण दर्ज करें

अगला लक्ष्य? 30Gbps।


प्रदर्शन में सुधार करने के लिए मुझे विचारों पर शूट करने के लिए स्वतंत्र महसूस करें। मुझे इसका लाइव परीक्षण करने और यहां कुछ भारी रेखांकन साझा करने में खुशी होगी।

कोई विचार कैसे सीपीयू पर सॉफ्टरक्यू की बड़ी मात्रा से निपटने के लिए?

यह क्षमता योजना के बारे में सवाल नहीं है - मेरे पास पहले से ही हार्डवेयर और यातायात है। मैं हमेशा ट्रैफ़िक को कई सर्वरों में विभाजित कर सकता हूं (जो मुझे भविष्य में वैसे भी करना होगा) और पैसे के साथ समस्या को ठीक करना। हालांकि यह एक वास्तविक लाइव परिदृश्य में सिस्टम अनुकूलन और प्रदर्शन ट्यूनिंग के बारे में एक सवाल है।



4
आप कहते हैं कि यह क्षमता नियोजन के बारे में नहीं है, लेकिन ऐसा लगता है कि मैं एक सर्वर के माध्यम से 40 Gbps को चमकाने की कोशिश कर रहा हूं जो क्षमता के मुद्दों का संकेत है।
ceejayoz

5
बस एक दिलचस्प बात यह है कि एक पुरानी नौकरी में, उन्होंने असंतुलन सेवा को बंद कर दिया था, लेकिन फिर भी एक क्रॉन जॉब चलाया जो हर 15 मिनट या तो अनियमितता को चलाता था। इसलिए हमें अभी भी असंबद्धता का लाभ मिला है, न कि सेवा की आवृत्ति पर।
lsd

अपडेट: जोड़ा गया पर / बंद परीक्षण। @lsd: मैं अगले सप्ताह क्रोन के माध्यम से स्टैंडअलोन के रूप में असमानता का उपयोग करने की कोशिश करूंगा। आइए देखें कि क्या प्रभाव पड़ेगा।
यारिक डॉट

1
ग्राफ बनाने के लिए आपने क्या इस्तेमाल किया?
जॉनी वी

जवाबों:


9

अस्वीकरण : 10Gbps से अधिक धकेलने वाली सभी सेवाओं पर एक ही सलाह लागू होती है। शामिल हैं, लेकिन लोड किए गए बैलेन्सर, कैशिंग सर्वर, वेबसेवर्स (HAProxy, Varnish, nginx, tomcat, ...) तक सीमित नहीं

आप जो करना चाहते हैं वह गलत है, यह मत करो

इसके बजाय CDN का उपयोग करें

सीडीएन का मतलब होता है कैचबल स्टैटिक कंटेंट डिलीवर करना। नौकरी के लिए सही उपकरण का उपयोग करें (अकामाई, मैक्ससीडीएन, क्लाउडफ्लेयर, क्लाउडफ्रंट, ...)

कोई भी सीडीएन, यहां तक ​​कि एक मुफ्त, जो कुछ भी आप अपने दम पर हासिल कर सकते हैं, उससे बेहतर करेंगे।

इसके बजाय क्षैतिज रूप से स्केल करें

मैं एक ही सर्वर से 1-5Gbps आउट-ऑफ-द-बॉक्स को बहुत अधिक ट्वीकिंग के बिना संभालने की उम्मीद करता हूं (ध्यान दें: केवल स्थिर फ़ाइलों की सेवा)। 8-10Gbps आमतौर पर उन्नत ट्यूनिंग के साथ पहुंच के भीतर है।

फिर भी , एक एकल बॉक्स क्या ले सकता है इसके लिए कई कठिन सीमाएं हैं। आपको क्षैतिज रूप से स्केल करना पसंद करना चाहिए।

एक एकल बॉक्स को चलाएं, चीजों को मापें, बेंचमार्क करें, ऑप्टिमाइज़ करें ... जब तक कि वह बॉक्स विश्वसनीय और भरोसेमंद न हो और उसकी क्षमताओं को अच्छी तरह से निर्धारित किया गया हो, तब उसके सामने एक ग्लोबल लोड बैलेंसर के साथ अधिक बॉक्स रखें।

कुछ वैश्विक लोड संतुलन विकल्प हैं: अधिकांश CDN ऐसा कर सकते हैं, DNS राउंड्रोबिन, ELB / Google लोड बैलेंसर्स ...

चलो अच्छी प्रथाओं को अनदेखा करें और इसे वैसे भी करें

ट्रैफिक पैटर्न को समझना

            WITHOUT REVERSE PROXY

[request ]  user ===(rx)==> backend application
[response]  user <==(tx)===     [processing...]

विचार करने के लिए दो चीजें हैं: बैंडविड्थ और दिशा (उत्सर्जन या रिसेप्शन)।

छोटी फाइलें 50/50 tx / rx हैं क्योंकि HTTP हेडर और टीसीपी ओवरहेड फ़ाइल सामग्री से बड़े हैं।

बड़ी फाइलें 90/10 tx / rx हैं क्योंकि रिस्पांस साइज की तुलना में रिक्वेस्ट साइज नगण्य है।

            WITH REVERSE PROXY

[request ]  user ===(rx)==> nginx ===(tx)==> backend application
[response]  user <==(tx)=== nginx <==(rx)===     [processing...]

रिवर्स प्रॉक्सी दोनों दिशाओं में सभी संदेशों को रिले कर रहा है। लोड हमेशा 50/50 होता है और कुल ट्रैफिक दोगुना हो जाता है।

यह सक्षम कैशिंग के साथ अधिक जटिल हो जाता है। अनुरोध हार्ड ड्राइव पर डायवर्ट किए जा सकते हैं, जिनके डेटा को मेमोरी में कैश किया जा सकता है।

नोट : मैं इस पोस्ट में कैशिंग पहलू को अनदेखा करूँगा। हम नेटवर्क पर 10-40 Gbps प्राप्त करने पर ध्यान केंद्रित करेंगे। यह जानते हुए कि क्या डेटा कैश से आता है और उस कैश का अनुकूलन एक और विषय है, इसे किसी भी तरह से तार पर धकेल दिया जाता है।

मोनोकॉर सीमाएँ

लोड संतुलन मोनोक्योर (विशेष रूप से टीसीपी संतुलन) है। कोर जोड़ने से यह तेजी से नहीं बनता है, लेकिन यह इसे धीमा कर सकता है।

HTTP को सरल मोड के साथ संतुलित करने के लिए (जैसे IP, URL, कुकी आधारित। रिवर्स प्रॉक्सी हेडर को फ्लाई पर पढ़ता है, यह न तो पार्स करता है और न ही कठोर अनुरोध में HTTP अनुरोधों को संसाधित करता है)।

HTTPS मोड में, SSL डिक्रिप्शन / एन्क्रिप्शन प्रॉक्सी के लिए आवश्यक बाकी सभी चीजों की तुलना में अधिक गहन है। एसएसएल ट्रैफिक को कई कोर पर विभाजित किया जा सकता है।

एसएसएल

यह देखते हुए कि आप SSL पर सब कुछ करते हैं। आप उस हिस्से को ऑप्टिमाइज़ करना चाहेंगे।

मक्खी पर 40 Gbps को एन्क्रिप्ट और डिक्रिप्ट करना काफी उपलब्धि है।

एईएस-एनआई निर्देशों (एसएसएल संचालन के लिए उपयोग) के साथ एक नवीनतम पीढ़ी का प्रोसेसर लें।

प्रमाणपत्रों द्वारा उपयोग किए जाने वाले एल्गोरिथ्म को ट्यून करें। कई एल्गोरिदम हैं। आप वह चाहते हैं जो आपके CPU पर सबसे प्रभावी हो (बेंचमार्किंग करें) जिसे क्लाइंट्स द्वारा सपोर्ट किया जा रहा है और सिर्फ पर्याप्त रूप से सुरक्षित (कोई आवश्यक ओवर-एन्क्रिप्शन) नहीं है।

IRQ और कोर पिनिंग

नेटवर्क कार्ड इंटरप्ट (आईआरक्यू) पैदा कर रहा है जब पढ़ने के लिए नया डेटा है और सीपीयू तुरंत कतार को संभालने के लिए पूर्व-खाली है। यह कर्नेल और / या डिवाइस ड्राइवरों में चल रहा एक ऑपरेशन है और यह कड़ाई से मोनोकोर है।

यह हर दिशा में जाने वाले अरबों पैकेटों वाला सबसे बड़ा सीपीयू उपभोक्ता हो सकता है।

नेटवर्क कार्ड को एक अद्वितीय IRQ नंबर असाइन करें और इसे एक विशिष्ट कोर तक पिन करें (देखें लिनक्स या BIOS सेटिंग्स)।

रिवर्स प्रॉक्सी को अन्य कोर पर पिन करें। हम नहीं चाहते कि ये दोनों चीजें हस्तक्षेप करें।

ईथरनेट एडेप्टर

नेटवर्क कार्ड भारी उठाने का काम कर रहा है। जब प्रदर्शन की बात आती है तो सभी उपकरण और निर्माता समान नहीं होते हैं।

मदरबोर्ड पर एकीकृत एडेप्टर के बारे में भूल जाओ (इससे कोई फर्क नहीं पड़ता कि सर्वर या उपभोक्ता मदरबोर्ड है), वे सिर्फ चूसते हैं।

टीसीपी ऑफलोडिंग

प्रसंस्करण के मामले में टीसीपी एक बहुत ही गहन प्रोटोकॉल है (चेकसम, एसीके, रिट्रांसमिशन, रीसेम्बलिंग पैकेट, ...) कर्नेल अधिकांश काम संभाल रहा है, लेकिन अगर यह समर्थन करता है तो कुछ ऑपरेशन नेटवर्क कार्ड पर लोड किया जा सकता है।

हम केवल एक अपेक्षाकृत तेज़ कार्ड नहीं चाहते हैं , हम सभी घंटियाँ और सीटियाँ चाहते हैं।

इंटेल, मेलानॉक्स, डेल, एचपी, जो भी हो, के बारे में भूल जाओ। वे उस सब का समर्थन नहीं करते हैं।

मेज पर केवल एक ही विकल्प है: SolarFlare - HFT फर्मों और CDN का गुप्त हथियार।

दुनिया दो तरह के लोगों में विभाजित है: " वे जो सोलरफ्लारे को जानते हैं " और " जो नहीं करते हैं "। (पहला सेट सख्ती से " 10 Gbps नेटवर्किंग करने वाले और हर बिट की देखभाल करने वाले लोगों " के बराबर है )। लेकिन मैं पचाता हूं, ध्यान केंद्रित करते हैं: डी

कर्नेल टीसीपी ट्यूनिंग

sysctl.confकर्नेल नेटवर्क बफ़र्स के लिए विकल्प हैं । ये सेटिंग्स क्या करती हैं या नहीं करती हैं। मैं वास्तव में नहीं जानता।

net.core.wmem_max
net.core.rmem_max
net.core.wmem_default
net.core.rmem_default

net.ipv4.tcp_mem
net.ipv4.tcp_wmem
net.ipv4.tcp_rmem

इन सेटिंग्स के साथ खेलना ओवर ऑप्टिमाइज़ेशन (यानी आमतौर पर बेकार या काउंटर उत्पादक) का निश्चित संकेत है।

असाधारण रूप से, यह समझ सकता है कि चरम आवश्यकताओं को देखते हुए।

(नोट: एक बॉक्स पर 40Gbps अति-अनुकूलन है। उचित मार्ग क्षैतिज रूप से स्केल करना है।)

कुछ शारीरिक सीमाएँ

मेमोरी बैंडविड्थ

मेमोरी बैंडविड्थ के बारे में कुछ नंबर (ज्यादातर जीबी / एस में): http://www.tweaktown.com/articles/6619/crucial-ddr4-memory-performance-overview-early-look-vs-ddr2/ddr3/index.html

मान लीजिए कि मेमोरी बैंडविड्थ (आदर्श स्थितियों में अधिकतम सीमा) के लिए सीमा 150-300 Gbps है।

सभी पैकेटों को किसी समय मेमोरी में होना चाहिए। बस 40 जीबीपीएस लाइन दर पर डेटा अंतर्ग्रहण करना सिस्टम पर भारी भार है।

क्या डेटा को संसाधित करने के लिए कोई शक्ति शेष होगी? ठीक है, चलो उस पर हमारी अपेक्षाएं बहुत अधिक नहीं हैं। बस ^ ^ कह रहे हैं

पीसीआई-एक्सप्रेस बस

PCIe 2.0 4 Gb / s प्रति लेन है। PCIe 3.0 8 Gbps प्रति लेन है (यह सभी PCI कार्ड के लिए उपलब्ध नहीं है)।

एक एकल ईथरनेट पोर्ट के साथ 40 जीबीपीएस एनआईसी पीसीआई बस से अधिक आशाजनक है यदि कनेक्टर v3.0 विनिर्देशों पर 16x से कम लंबाई का है।

अन्य

हम अन्य सीमाओं पर जा सकते हैं। मुद्दा यह है कि हार्डवेयर में भौतिक विज्ञान के नियम की कठिन सीमाएँ हैं।

सॉफ्टवेयर उस हार्डवेयर से बेहतर नहीं कर सकता है जिस पर वह चल रहा है।

नेटवर्क बैकबोन

इन सभी पैकेटों को आखिरकार, स्विच और राउटर को छोड़कर कहीं जाना पड़ता है। 10 Gbps स्विच और राउटर [लगभग] एक कमोडिटी है। 40 Gbps निश्चित रूप से नहीं हैं।

इसके अलावा, बैंडविड्थ को एंड-टू-एंड होना चाहिए ताकि उपयोगकर्ता के पास किस प्रकार के लिंक हों?

पिछली बार जब मैंने अपने डेटासेंटर लड़के के साथ थोड़ी सी 10 मी यूज़र्स साइड प्रोजेक्ट के लिए जाँच की थी, तो वह बहुत स्पष्ट था कि इंटरनेट पर केवल 2x 10 Gbits लिंक होंगे।

हार्ड ड्राइव्ज़

iostat -xtc 3

मेट्रिक्स को पढ़ने और लिखने से विभाजित किया जाता है। कतार के लिए जाँच करें (<1 अच्छा है), विलंबता (<1 एमएस अच्छा है) और स्थानांतरण गति (उच्चतर बेहतर)।

यदि डिस्क धीमा है, तो समाधान छापे 10. में अधिक और बड़ा एसएसडी डालना है (ध्यान दें कि एसएसडी बैंडविड्थ एसएसडी आकार के साथ रैखिक रूप से बढ़ता है)।

सीपीयू विकल्प

आईआरक्यू और अन्य अड़चनें केवल एक ही कोर पर चलती हैं इसलिए सीपीयू के लिए उच्चतम एकल कोर प्रदर्शन (यानी उच्चतम आवृत्ति) के साथ लक्ष्य रखें।

SSL एन्क्रिप्शन / डिक्रिप्शन को AES-NI निर्देशों की आवश्यकता है ताकि केवल CPU के नवीनतम संशोधन के लिए लक्ष्य बनाया जा सके।

एसएसएल कई कोर से लाभ तो कई कोर के लिए लक्ष्य।

लंबी कहानी छोटी: आदर्श सीपीयू सबसे अधिक उपलब्ध आवृत्ति और कई कोर के साथ सबसे नया है। बस सबसे महंगा उठाओ और शायद यही है: डी

फाइल भेज()

सेंडफाइल ऑन

बस उच्च प्रदर्शन webservers के लिए आधुनिक गुठली की सबसे बड़ी प्रगति।

अंतिम नोट

1 SolarFlare NIC 40 Gbps (pin IRQ and core)
2 SolarFlare NIC 40 Gbps (pin IRQ and core)
3 nginx master process
4 nginx worker
5 nginx worker
6 nginx worker
7 nginx worker
8 nginx worker
...

एक चीज एक सीपीयू तक सिमट गई। यही रास्ता तय करना है।

एक एनआईसी बाहरी दुनिया के लिए अग्रणी। आंतरिक नेटवर्क के लिए अग्रणी एक एनआईसी। विभाजन जिम्मेदारियां हमेशा अच्छी होती हैं (हालांकि दोहरी 40 जीबीपीएस एनआईसी ओवरकिल हो सकती है)।

यह बहुत सारी चीजें हैं जिन्हें ठीक किया जा सकता है, जिनमें से कुछ छोटी किताब का विषय हो सकती हैं। मज़ेदार बेंचमार्किंग करें। परिणाम प्रकाशित करने के लिए वापस आएं।


परीक्षण के लिए कुछ सप्ताह पहले सोलरफ्लेयर नेटवर्क कार्ड का आदेश दिया गया है। मैं अब सौरफ्लारे समर्थन की सलाह देता हूं कि सिस्टम को अधिकतम करने के लिए कैसे ट्यून किया जाए। संभव प्रदर्शन। इस परीक्षण के बाद मैं विन्यास और परिणाम साझा करूंगा।
यारिक डॉट

1
स्टैंडिंग ओवेशन ....
जेम्स पुली

हार्ड ड्राइव पर बस एक त्वरित अद्यतन - इस परिदृश्य (एसएसडी ड्राइव) में किसी भी प्रकार के छापे का उपयोग ठीक से काम नहीं करता है। जैसा कि एसएसडी को अलग तरह से पहना जाता है, उनका प्रदर्शन अलग होता है और छापे में एक धीमी एसएसडी के साथ, पूरे छापे का प्रदर्शन खराब हो सकता है। सबसे अच्छा परिदृश्य, जो हमारे लिए सबसे अच्छा काम करता है, एकल ड्राइव का उपयोग कर रहा है, बिना किसी एचडब्ल्यू / एसडब्ल्यू छापे के।
यारिक डॉट

0

मैं प्रतिष्ठा के कारण अभी तक टिप्पणी नहीं कर सकता, इसलिए इसके बजाय एक उत्तर जोड़ना होगा ...

पहले उदाहरण में, आपने कहा:

2 चीजें हैं जिन्होंने मेरा ध्यान खींचा। पहले एक IRQ की उच्च राशि है। इस मामले में मैं दुर्भाग्य से / खरीद / व्यवधान से रेखांकन नहीं है। दूसरी बात थी हाई सिस्टम लोड, जो मुझे लगता है कि kswapd0 के कारण 16G RAM के साथ काम करने में समस्याएँ आ रही थीं।

पूरी तरह से सहमत हैं कि ये महत्वपूर्ण बिंदु हैं।

  1. कलेक्ट एजेंट का उपयोग करने की कोशिश करें, जो आईआरडी इकट्ठा कर सकते हैं और आरआरडी का उपयोग करके स्टोर कर सकते हैं।

  2. क्या आपके पास मेमोरी उपयोग का चार्ट है?

    सतह पर, यह एक सीपीयू मुद्दे की तरह दिखता है, उच्च सॉफ्टरैक% केवल मेमोरी पर उंगली को इंगित कर सकता है, अगर बहुत कठिन या नरम पृष्ठ दोष चल रहा हो। मुझे लगता है कि लगभग 19:00 पर सिस्टम सीपीयू की कीमत पर आईआरक्यू में अचानक वृद्धि को छोड़ दिया गया है।

चश्मे से जो मैं देख सकता हूं, उससे अलग सब कुछ एक जैसा दिखता है:

  • यादाश्त
  • सीपीयू मॉडल - जब तक मैं गलत नहीं होता, बेंचमार्क इंगित करता है कि उन्हें समान होना चाहिए, और इस तरह के मामलों में मैं कम तेज कोर वाले बॉक्स को पसंद करूंगा।
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.