नेटवर्क विलंबता: 100Mbit बनाम 1Gbit


11

मेरे पास 100Mbit के वर्तमान कनेक्शन के साथ एक वेबसर्वर है और मेरा प्रदाता 1Gbit में अपग्रेड प्रदान करता है। मैं समझता हूं कि यह थ्रूपुट को संदर्भित करता है लेकिन पैकेट जितना बड़ा होता है, उतनी ही तेजी से उन्हें प्रेषित किया जा सकता है, इसलिए मैं प्रतिक्रिया समय (जैसे पिंग) में थोड़ी कमी की उम्मीद करूंगा। क्या कभी किसी ने इसे बेंचमार्क किया?

30 बाइट लोड के साथ उदाहरण (100mbit से 100 mbit सर्वर):

> ping server -i0.05 -c200 -s30
[...]
200 packets transmitted, 200 received, 0% packet loss, time 9948ms
rtt min/avg/max/mdev = 0.093/0.164/0.960/0.093 ms

उदाहरण (100 मीटर से 100 मीबिट सर्वर) 300 बाइट लोड (जो एमटीयू से नीचे है) के साथ:

> ping server -i0.05 -c200 -s300
[...]
200 packets transmitted, 200 received, 0% packet loss, time 10037ms
rtt min/avg/max/mdev = 0.235/0.395/0.841/0.078 ms

तो 30 से 300 एवीजी तक। ०.१६४ से ०.३ ९ ५ तक विलंबता - मैं यह उम्मीद कर सकता हूं कि यह १gibt से १gbit कनेक्शन के लिए धीमी वृद्धि होगी। मैं यह भी उम्मीद करूंगा कि 100 मीबिट से 1gbit तक तेज हो, अगर कनेक्शन एक स्विच के माध्यम से हो जो पहले पूरे पैकेट प्राप्त होने तक इंतजार करता है।

अपडेट: कृपया टिप्पणियों को उत्तरों को ध्यान से पढ़ें! कनेक्शन संतृप्त नहीं है, और मुझे नहीं लगता कि यह गति वृद्धि एक अनुरोध के लिए मनुष्यों के लिए मायने रखती है, लेकिन यह कई अनुरोधों के बारे में है जो जोड़ते हैं (रेडिस, डेटाबेस, आदि)।

@LatinSuD से जवाब के बारे में :

> ping server -i0.05 -c200 -s1400
200 packets transmitted, 200 received, 0% packet loss, time 9958ms
rtt min/avg/max/mdev = 0.662/0.866/1.557/0.110 ms

इसके अलावा अलग-अलग एन्कोडिंग (10b / 12b?) नए gbit के ईथरनेट कार्ड्स और केबलों के साथ है, इसलिए यह 10x (जब संतृप्त हो) बनाम 100Mbit पर% 25 अधिक प्रदर्शन हो सकता है?
हुसैन तुगरूल बायुकिसिक

जवाबों:


15

यदि वर्तमान 100Mbit लिंक संतृप्त है, तो एकमात्र तरीका विलंबता प्रशंसनीय होगा। यदि इसे संतृप्त नहीं किया जाता है, तो आप संभवतः किसी भी बदलाव को नोटिस नहीं करेंगे।

इसके अतिरिक्त, आपकी धारणा कि 1Gbit लिंक बड़े पैकेटों का समर्थन करने में सक्षम होगा, गलत है। अधिकतम पैकेट का आकार विभिन्न उपकरणों के एमटीयू द्वारा निर्धारित किया जाता है कि पैकेट किस रास्ते पर है - आपके सर्वर पर एनआईसी से शुरू होकर, आपके ग्राहक के कंप्यूटर के एमटीयू के माध्यम से सभी तरह से। आंतरिक LAN अनुप्रयोगों में (जब आपके पास पथ के सभी उपकरणों पर नियंत्रण होता है), तो कभी-कभी MTU को बढ़ाना संभव होता है, लेकिन इस स्थिति में, आप 1500 के डिफ़ॉल्ट MTU के साथ बहुत अधिक फंस जाते हैं। यदि आप पैकेट को बड़े से भेजते हैं कि, वे समाप्त हो जाएगा, जिससे वास्तव में प्रदर्शन कम हो जाएगा।


2
"सराहनीय" यहाँ का प्रमुख शब्द है। मैंने सिर्फ समान हार्डवेयर और कम नेटवर्क लोड वाले दो सर्वरों की जाँच की, लेकिन विभिन्न ईथरनेट स्पीड के साथ। औसत पिंग समय (स्थानीय, एक ही सबनेट पर पिंग स्रोत के साथ) 0.21 मिलीसेकंड से 0.17 मिलीसेकंड तक गिरा। घर से एक ही सर्वर को पिंग करना, प्रत्येक में 53 मिलीसेकंड का समय था। आपके प्रदाता के नियंत्रण से परे बहुत सारे कारक हैं जो एक सार्थक उन्नयन करते हैं।
माइक रेनफ्रो

1
+1 तकनीकी रूप से एक अंतर है, हालांकि यह पूरी तरह से अनुचित है जब तक कि विशेष अनुप्रयोग विलंबता के लिए अविश्वसनीय रूप से संवेदनशील न हो।
क्रिस एस

परीक्षण के लिए धन्यवाद! 0.21 से 0.17 तक 20% का सुधार है, जो बहुत अच्छा है। मैं घर से पिंग (50ms) से संबंधित नहीं हूं, लेकिन समय प्रदाता से अनुरोध करता है। हमने अधिकतम करने के लिए सभी प्रोसेसिंग (सीपीयू) और नॉन ड्राइव-आईओ (रैम / कैश / आदि) को ट्विक किया, इसलिए अब मैं सवाल करता हूं कि सर्वरों के बीच नेटवर्क की गति कुल विलंबता में कुल कितनी हो जाती है। जैसे हम एक वेबसर्वर-रिक्वेस्ट के लिए ~ 20 रेडिस-रिक्वेस्ट बनाते हैं। @MikeRenfro: क्या आप उच्च लोड के साथ एक ही टेस्ट कर सकते हैं? सामान्य पिंग 30byte, avg है। 250 के आसपास रेडिस। मैं अंतर बढ़ने की उम्मीद करूंगा।
एंड्रियास रिक्टर

2
@Andreas; मुझे लगता है कि आप उन टिप्पणियों के बिंदु से पूरी तरह चूक गए हैं। यह 40 नैनोसेकंड का सुधार है। एक ऐसी राशि जो इंसान के लिए पूरी तरह से असंभव है । और यह एक संचयी संख्या नहीं है, ऐसा नहीं है कि प्रत्येक अनुरोध में 40 नैनोसेकंड लंबा समय लगता है; यह सिर्फ पहला है कि बहुत जल्दी हो जाएगा, इसलिए दूसरा इसे किसी भी तरह से पीछे छोड़ दिया जाएगा।
क्रिस एस

1
@ क्रिस: quesion विचारशीलता के बारे में नहीं था - यह एक सवाल था अगर किसी ने कभी इसका परीक्षण किया और माइक ने किया। यह भी 40 नैनो-सेकंड नहीं है, यह माइक्रो-सेकंड है , इसलिए आप कारक 1000 ... कुडोस द्वारा बिंदु को याद कर रहे हैं। मेरा विश्वास करो, कि मुझे पता है कि मैं क्या कर रहा हूं ... 20% अतिरिक्त लागतों का औचित्य साबित करने के लिए पर्याप्त होगा।
एंड्रियास रिक्टर

12

YES gbit की निम्न विलंबता है, क्योंकि:

  • बाइट्स की समान संख्या को तेज समय में स्थानांतरित किया जा सकता है

लेकिन सुधार केवल तभी सराहनीय है जब पैकेट (ओं) का एक निश्चित आकार हो:

  • 56 बाइट पैकेज => वस्तुतः कोई तेज़ स्थानांतरण नहीं है
  • 1000 बाइट पैकेज => 20% तेज स्थानांतरण
  • 20000 बाइट पैकेज (ओं) => 80% तेजी से हस्तांतरण

इसलिए यदि आपके पास एक ऐसा एप्लिकेशन है जो विलंबता के लिए बहुत संवेदनशील है (20ms के लिए 4ms बनाम 0.8ms, राउंड-ट्रिप) और स्थानांतरित करने के लिए बड़े पैकेजों की आवश्यकता होती है, तो 100 मीबिट से स्विच करने की तुलना में आप एक विलंबता कमी दे सकते हैं, भले ही आप उपयोग करें औसत से 100 मीटर / सेकंड से बहुत कम (= लिंक स्थायी रूप से संतृप्त नहीं है)।

सर्वर (100mbit) -> स्विच (gbit) -> सर्वर (100mbit):

size: 56 :: rtt min/avg/max/mdev = 0.124/0.176/0.627/0.052 ms
size: 100 :: rtt min/avg/max/mdev = 0.131/0.380/1.165/0.073 ms
size: 300 :: rtt min/avg/max/mdev = 0.311/0.463/2.387/0.115 ms
size: 800 :: rtt min/avg/max/mdev = 0.511/0.665/1.012/0.055 ms
size: 1000 :: rtt min/avg/max/mdev = 0.560/0.747/1.393/0.058 ms
size: 1200 :: rtt min/avg/max/mdev = 0.640/0.830/2.478/0.104 ms
size: 1492 :: rtt min/avg/max/mdev = 0.717/0.782/1.514/0.055 ms
size: 1800 :: rtt min/avg/max/mdev = 0.831/0.953/1.363/0.055 ms
size: 5000 :: rtt min/avg/max/mdev = 1.352/1.458/2.269/0.073 ms
size: 20000 :: rtt min/avg/max/mdev = 3.856/3.974/5.058/0.123 ms

सर्वर (gbit) -> स्विच (gbit) -> सर्वर (gbit):

size: 56 :: rtt min/avg/max/mdev = 0.073/0.144/0.267/0.038 ms
size: 100 :: rtt min/avg/max/mdev = 0.129/0.501/0.630/0.074 ms
size: 300 :: rtt min/avg/max/mdev = 0.185/0.514/0.650/0.072 ms
size: 800 :: rtt min/avg/max/mdev = 0.201/0.583/0.792/0.079 ms
size: 1000 :: rtt min/avg/max/mdev = 0.204/0.609/0.748/0.078 ms
size: 1200 :: rtt min/avg/max/mdev = 0.220/0.621/0.746/0.080 ms
size: 1492 :: rtt min/avg/max/mdev = 0.256/0.343/0.487/0.043 ms
size: 1800 :: rtt min/avg/max/mdev = 0.311/0.672/0.815/0.079 ms
size: 5000 :: rtt min/avg/max/mdev = 0.347/0.556/0.803/0.048 ms
size: 20000 :: rtt min/avg/max/mdev = 0.620/0.813/1.222/0.122 ms

= कई सर्वरों पर औसतन 20kb पिंग के लिए 80% विलंबता में कमी

(यदि लिंक में से केवल एक ही gbit है, तो भी आपके पास 20kb पिंग के लिए 5% विलंबता में कमी होगी।)


1
अधिकांश नेटवर्किंग गियर के स्टोर और फॉरवर्ड होने से पहले एक पैकेट / राउटर द्वारा एक पैकेट को पूरी तरह से प्राप्त किया जाना चाहिए। तेज़ कनेक्शन इस समय को कम करते हैं जो विलंबता को भी कम करता है (जब तक कि कनेक्शन को कई समानांतर लिंक से गति नहीं मिलती है)।
ब्रायन

1
स्पष्टीकरण के कारण, यह उत्तर पृष्ठ पर अब तक का सबसे अच्छा है। अन्य लोग एक विशेष मामले - लंबी दूरी / स्विच के बहुत सारे नेटवर्क प्रदर्शन के आधार पर इस तथ्य को स्पष्ट करना चाहते हैं। विशेष रूप से ओपी की चिंता (वेबसर्वर) पर विचार करना महत्वपूर्ण है, लेकिन यह उत्तर यह भी दर्शाता है कि एक सिंगल हॉप में कितना अंतर स्विच गति कर सकता है।
टायलर

3

मुझे लगता है कि आपके पास बैंडविड्थ विलंबता और "गति" के बारे में एक बुनियादी गलत धारणा है। गति बैंडविड्थ और विलंबता का एक कार्य है। उदाहरण के लिए, देश भर में भेजे जाने वाले डीवीडी पर डेटा के शिपमेंट पर विचार करने के लिए 3 दिन लगते हैं। तुलना करें कि इंटरनेट पर डेटा भेजने के लिए। इंटरनेट में बहुत कम विलंबता कनेक्शन होता है, लेकिन शिपमेंट के लिए कनेक्शन की "गति" से मेल खाने के लिए आपको 9.6MB एक सेकंड ( इस स्रोत से संदर्भ उदाहरण ) को प्राप्त करना होगा ।

आपके मामले में उच्च बैंडविड्थ में अपग्रेड करने से आप अधिक समवर्ती उपयोगकर्ताओं की सेवा कर सकते हैं लेकिन किसी भी व्यक्तिगत उपयोगकर्ता की विलंबता में सुधार नहीं करेंगे।


यह गलत है - बस अलग-अलग पेलोड के साथ पिंग की तुलना करें जो वर्तमान MTU के नीचे है: पिंग सर्वर -i0.05 -c200 -s30 बनाम पिंग सर्वर -i0.05 -c200 -s300 ... या आपके उदाहरण में बोल रहा है: 1mio डीवीडी के साथ ट्रक धीमी गति से चलेगा, क्योंकि यह 1 डीवीडी के साथ भारी है।
एंड्रियास रिक्टर

2
@andreas पिंग का समय पूरी कहानी नहीं है - इसलिए हम तर्क की खातिर ले सकते हैं कि एमटीयू की तुलना में कम पैकेट फुल एमटीयू के पैकेट की तुलना में तेजी से आते हैं। 2 के पैकेट के आने में लगने वाले सभी डेटा में आपके पास अलग-अलग ईज़ नहीं है, 1 पैकेट में पूरा एमटीयू है। विलंबता सभी डेटा के आने में लगने वाला समय है। ट्रक सादृश्य के लिए वापस जाने के लिए, भले ही यह 1 सीडी के साथ एक ट्रक को आधे समय में आने के लिए ले जाता है क्योंकि ट्रक को 500 सीडी ले जाता है फिर भी उस डेटा को वितरित करने के लिए 500 ट्रिप्स (750 दिन बनाम 3) लेता है।
जिम बी

@JBB: हाँ, जैसा कि उल्लेख किया गया है कि मेरा प्रश्न भार के बारे में नहीं था, लेकिन गति के बारे में: पूर्ण ट्रक को सीमा शुल्क द्वारा स्कैन करने के लिए 10 घंटे की आवश्यकता होती है, छोटा केवल 1 घंटे। 100mbit / s का अर्थ यह भी है, कि एक 100bit पैकेट को 0,000954ms के सैद्धांतिक न्यूनतम और 1000bit के पैकेट की न्यूनतम न्यूनतम 0,00954ms की आवश्यकता होती है। बेशक प्रसंस्करण समय / आदि नेटवर्क कार्ड / स्विच / आदि पर। पूरे विलंबता का एक उच्च हिस्सा बनाएं, लेकिन मैं यह भी उम्मीद करूंगा कि ये 1gbit स्विच आदि में तेज़ होंगे, कृपया @MikeRenfro द्वारा टिप्पणी देखें, उन्होंने वास्तव में इसका परीक्षण किया और 20% की वृद्धि हुई।
एंड्रियास रिक्टर

@andreas - उसी सबनेट पर 20% जो आपके प्रश्न के लिए अप्रासंगिक है
जिम बी

1
@ एक उप-मिलीसेकंड पिंग का 20% अभी भी एक उप-मिलीसेकंड पिंग है। यहां तक ​​कि आपके परीक्षण में उप-मिलीसेकंड पिंग का 150% भी वास्तविक दुनिया में मायने नहीं रखता है। क्या आपके पास वास्तव में एक एप्लिकेशन है जहां यह मायने रखता है कि क्या आपका डेटा 0.0002 सेकंड के बजाय 0.0003 सेकंड में मिला है ?
शेन मैडेन

2

आप एक पिनहोल के माध्यम से दुनिया को देख रहे हैं। विभिन्न गति पर विलंबता अंतर का एक वैध परीक्षण क्रॉस-कनेक्ट केबल के साथ जुड़े दो समान एनआईसी के बीच होगा। 10mb, 100mb और 1000mb की NICs मैथिंग स्पीड सेट करें। इससे पता चलेगा कि अलग-अलग गति में लगभग विलंबता में कोई अंतर नहीं है। अधिकतम बैंडविड्थ की परवाह किए बिना सभी पैकेट एक ही तार की गति से यात्रा करते हैं। एक बार जब आप स्टोर के साथ स्विच जोड़ते हैं और आगे कैशिंग सब कुछ बदल जाता है। स्विच के माध्यम से परीक्षण विलंबता स्विच के केवल दो कनेक्शन के साथ किया जाना चाहिए। कोई भी अन्य ट्रैफ़िक आपके परीक्षण की विलंबता को प्रभावित कर सकता है। फिर भी स्विच रोल-ओवर लॉग हो सकता है, पैकेट प्रकार काउंटर समायोजित कर सकता है, आंतरिक घड़ी अपडेट कर सकता है, आदि। सब कुछ विलंबता को प्रभावित कर सकता है।

हां, हार्डवेयर परिवर्तन, अलग-अलग एनआईसी, अलग-अलग स्विच, अलग-अलग ड्राइवर के कारण 100mb से 1gb पर स्विच करना तेज (कम विलंबता) हो सकता है। मैंने किसी अन्य परिवर्तन की तुलना में ड्राइवर मतभेदों से पिंग विलंबता में बड़े बदलाव देखे हैं; बैंडविड्थ, स्विचेस, ऑफलोडिंग एनआईसीएस, आदि।

स्विच कट-थ्रू के साथ अगला सबसे बड़ा बदलाव होगा जो स्टोर की तुलना में काफी तेज है और सिंगल ट्रांसमिट टेस्ट के लिए आगे है। हालांकि, एक अच्छी तरह से डिज़ाइन किया गया स्टोर और फॉरवर्ड स्विच उच्च भार के तहत समग्र प्रदर्शन में कट-थ्रू स्विच से आगे निकल सकता है। गीगाबिट के शुरुआती दिनों में Iv ने सस्ते गीगाबिट स्विच की तुलना में कम विलंबता के साथ 10mb उच्च प्रदर्शन बैकप्लेन स्विच देखा।

इंटरनेट का उपयोग करते समय प्रदर्शन विश्लेषण के लिए पिंग परीक्षण व्यावहारिक रूप से अप्रासंगिक हैं। परीक्षण के क्षण में परिवहन पर क्या हो रहा है इसका एक बॉलपार्क विचार प्राप्त करने के लिए वे त्वरित परीक्षण हैं। उत्पादन प्रदर्शन परीक्षण सिर्फ एक पिंग की तुलना में बहुत अधिक जटिल है। उच्च प्रदर्शन स्विच कंप्यूटर हैं और उच्च भार के तहत अलग-अलग व्यवहार करते हैं - विलंबता में परिवर्तन।

एक धीमी एनआईसी, या एक धीमी गति के लिए एक एनआईसी सेट होने, वास्तव में स्विच कैश का उपयोग कर सर्वर को इनपुट थ्रॉटलिंग द्वारा समवर्ती फटने के साथ एक सर्वर की मदद कर सकता है। एक एकल-पुन: प्रसारण विलंबता में किसी भी कमी को नकार सकता है। आमतौर पर मध्यम से उच्च-लोड ट्रैफ़िक स्तर महत्वपूर्ण हैं, एकल पिंग परीक्षण नहीं। उदा। 70% 100mb बैंडविड्थ भार के तहत पुराने धीमी गति से चलने वाले Sun Ultrasparc (सिंगल पिंग के लिए उच्च विलंबता) में नए सस्ते गीगाबिट डेस्कटॉप का उपयोग किया जाता है। डेस्कटॉप में तेज़ gb NIC, तेज़ कनेक्शन gb-gb, तेज़ मेमोरी, अधिक मेमोरी, तेज़ डिस्क और तेज़ प्रोसेसर है, लेकिन यह ट्यून किए गए सर्वर क्लास हार्डवेयर / सॉफ़्टवेयर को भी प्रदर्शित नहीं करता है। यह कहना नहीं है कि gb-gb पर चलने वाला एक मौजूदा ट्यून सर्वर पुराने हार्डवेयर की तुलना में तेज नहीं है, यहां तक ​​कि बड़े थ्रूपुट भार को संभालने में भी सक्षम है। के प्रश्न के लिए और अधिक जटिलता है "

पता करें कि क्या आपका प्रदाता 100mb बनाम 1gb कनेक्शन के लिए अलग-अलग स्विच का उपयोग कर रहा है। यदि वे समान स्विच बैकप्लेन का उपयोग करते हैं तो मैं केवल वृद्धि के लिए भुगतान करूंगा यदि यातायात का स्तर कम बैंडविड्थ से अधिक हो। अन्यथा आपको लग सकता है कि कुछ ही समय में कई अन्य उपयोगकर्ता गीगाबिट पर स्विच करेंगे और पुराने स्विच पर छोड़े गए कुछ उपयोगकर्ता अब उच्च प्रदर्शन करते हैं - कम विलंबता, स्विच पर उच्च भार के दौरान (समग्र स्विच लोड, न केवल आपके सर्वर पर। )।

सेब और संतरे का उदाहरण: स्थानीय आईएसपी बंडल सेवाओं, डीएसएल और फोन के लिए एक नया स्विच प्रदान करता है। प्रारंभ में उपयोगकर्ताओं के प्रदर्शन में वृद्धि देखी गई। सिस्टम ओवरसोल्ड था। अब जो उपयोगकर्ता पुराने स्विच पर रहते हैं, उनका प्रदर्शन लगातार उच्चतर होता है। देर रात के दौरान, नई प्रणाली के उपयोगकर्ता तेज होते हैं। उच्च लोड के तहत शाम को पुराने स्विच क्लाइंट स्पष्ट रूप से नए ओवरलोड सिस्टम को बेहतर ढंग से समझते हैं।

लोअर लेटेंसी हमेशा तेजी से वितरण से संबंधित नहीं होती है। आपने एकल पृष्ठ की सेवा के लिए 20 अनुरोधों में MySQl का उल्लेख किया है। पृष्ठ अनुरोधों के अनुसार ट्रैफ़िक उसी एनआईसी पर नहीं होना चाहिए। सभी आंतरिक ट्रैफ़िक को एक आंतरिक नेटवर्क में ले जाने से टकराव कम हो जाएगा और आउटगोइंग एनआईसी पर कुल पैकेट मायने रखता है और एकल पैकेट के .04 लेटेंसी लाभ से बड़ा लाभ प्रदान करता है। पृष्ठ लोड विलंबता को कम करने के लिए प्रति पृष्ठ अनुरोधों की संख्या कम करें। पृष्ठ लोड समय को कम करने के लिए पृष्ठों, एचटीएमएल, सीएसएस, जावास्क्रिप्ट, छवियों को संपीड़ित करें। इन तीन परिवर्तनों से बड़े समग्र लाभ प्राप्त होंगे जो कि बैंडविड्थ के लिए भुगतान करने की तुलना में चल रहे हैं जिसका उपयोग .04ms विलंबता में कमी के लिए नहीं किया जा रहा है। पिंग को 24 घंटे चलाने की आवश्यकता है और वास्तविक विलंबता को देखने के लिए औसत किया जाना चाहिए। स्मार्ट स्विच अब छोटे प्रारंभिक बैंडविड्थ बढ़ जाती है और बड़े स्थानान्तरण के साथ अनुकूली आरटीएसपी प्रकार थ्रॉटलिंग करते हैं। आपके पृष्ठ आकार (ग्राफिक्स, बड़े html / css / जावास्क्रिप्ट) के आधार पर आप प्रारंभिक कनेक्शन विलंबता / बैंडविड्थ को किसी बड़े पृष्ठ या पूर्ण पृष्ठ स्थानान्तरण से बहुत कम / उच्चतर देख सकते हैं। यदि आपके पृष्ठ का भाग स्ट्रीमिंग कर रहा है, तो आप पृष्ठ और स्ट्रीम के बीच अत्यधिक भिन्न प्रदर्शन देख सकते हैं।


सभी महान इनपुट के लिए धन्यवाद: 1.) यह एक ही स्विच है, 2.) आंतरिक / बाहरी ध्वनियों के लिए एक दूसरा एनआईसी गूंजने योग्य है और एक कोशिश के लायक है - भले ही MySQL / etc। सभी द्वि-दिशात्मक हैं, इसलिए टकराव "केवल" आधा हो जाएगा, 3.) एक realworld परीक्षण केवल निक-निक के लिए बेहतर है, माइक ने इसे एक सबनेट के साथ किया है, और वह प्राप्त किया है जिसकी आपको उम्मीद थी। हार्डवेयर: "56 बाइट = 19% सुधार, 200 बाइट = 27%, 1000 बाइट = 59%! इतना बड़ा पैकेट, जितना अधिक यह मायने रखता है। और गीगाबिट केवल 0.17ms (56 बाइट) से 0.23ms (1000 बाइट) तक बढ़ा। ) => 35%, जबकि 100 Mbit 0.21 से बढ़कर 0.56 => 166% हो गया।
एंड्रियास रिक्टर

1

चलो 300 बाइट पैकेट मान लेते हैं (यदि आप इसका उपयोग -s 300करते हैं तो वास्तव में हेडर के कारण बड़ा होगा)।

300 bytes = 2400 bits
2400 bits / 100Mbit/sec = 0.024ms

0.024ms फ्रेम भेजने के लिए आवश्यक वास्तविक समय है (मध्यम पहुंच समय और न ही हेडर की गिनती नहीं)।

पिंग-पोंग अनुक्रम में उस समय (0.048ms) से दोगुना समय लगेगा, साथ ही ओएस के लिए क्वेरी को संसाधित करने का समय।

मेरे लिए इसका मतलब है कि आपकी विलंबता कई ओवरहेड कारकों के 90% के कारण होती है। मुझे यकीन नहीं है कि आप Gb के साथ ज्यादा अंतर देखेंगे। 1ms से कम का अंतर शायद एक वेबसर्वर पर ध्यान देने योग्य नहीं होगा।

वैसे भी आप 1400 बाइट जैसे एक बहुत बड़े पैकेट के साथ कोशिश कर सकते हैं?


किसी ने पहले से ही एक विशेष सर्वर के लिए संख्याओं को चलाया और अंतर 40 नैनोसेकंड पर वापस आ गया। 25 गुना अधिक बड़े कारक के द्वारा आपकी सुरक्षा बंद है।
क्रिस एस

@LatinSuD: रचनात्मक दृष्टिकोण के लिए धन्यवाद और यह दोष न दें कि मुझे नहीं पता कि मैं क्या कर रहा हूं। मैं वास्तविक प्रश्न में परिणाम पोस्ट करूंगा क्योंकि मैं वहां फॉर्मिंग कर सकता हूं। लेकिन बी.टी.वी. मुझे उम्मीद है कि 90% ओवरहेड की गति में वृद्धि होगी , क्योंकि नेटवर्क कार्ड में प्रोसेसर आदि GBit aswell (उम्मीद) के लिए तेज़ हैं। @ क्रिस: माइक्रो-सेकंड और मुझे समझ में नहीं आता कि आप 25 के साथ क्या मतलब है।
एंड्रियास रिक्टर

मिक्स-अप माइक्रो और नैनो के लिए मेरी माफी; किसी भी मामले में यह अक्षम्य है। लैटिनसु डी ने 1 पूरे मिलीसेकंड के अंतर का अनुमान लगाया, जो कि माइक द्वारा पाए गए 40 माइक्रोसेकंड से 25 गुना अधिक है।
क्रिस एस

@ क्रिस: कोई चिंता नहीं। 0,04ms 38 बाइट पिंग के लिए था, यदि हमारा औसत सर्वर-सर्वर पैकेट 300 बाइट के आसपास है, तो अंतर 0,4ms हो सकता है। यदि हम अब एक वेबसर्वर-अपेक्षित (Redis, MySQL, आदि) के लिए 20 अनुरोध करते हैं, तो इससे 8ms की गति बढ़ेगी जो वर्तमान वेब-अनुरोधों के लिए 10% की गति वृद्धि होगी और अतिरिक्त लागतों को पूरी तरह से उचित ठहराएगी। मेरे पास परीक्षण को चलाने के लिए यहाँ न तो रेज़र हैं, बल्कि मुझे विश्वास है, कि भले ही यह मनुष्यों द्वारा समझ में नहीं आता हो, फिर भी यह प्रासंगिकता का हो सकता है। बिजली या भगवान की तरह।
एंड्रियास रिक्टर

1
@ और, मुझे बहुत संदेह है कि यह उस तरह से स्केल करेगा; दोनों एक 10x बड़े पैकेट 10x कम विलंबता और 20x के रूप में कई पैकेट 20x तेज है। यदि यह पैन करता है, तो नेटवर्क ओवरहेड में 10% की कमी है, आपको अभी भी आवेदन में बिताए समय के लिए जिम्मेदार होना चाहिए, जो कि नेटवर्क विलंबता घटक की तुलना में लंबे समय तक परिमाण के कई आदेशों में से एक होने की संभावना है। मुझे उम्मीद है कि यह किसी भी मामले में आपके लिए अच्छा काम करेगा।
क्रिस एस

1

यह उस स्विच के प्रकार पर निर्भर करता है जिसे आप कनेक्ट कर रहे हैं। कुछ विक्रेताओं पर (जैसे कि क्रिस्को ... मेरा मतलब सिस्को), ICMP पैकेट वापस सीपीयू ( गैग ) में चले जाएंगे ।

हो सकता है कि आपको 100Mbps और 1Gbps लिंक (यानी होस्ट-टू-स्विच या होस्ट-टू-राउटर टेस्ट) का उपयोग करके होस्ट-टू-होस्ट टेस्ट करने के लिए एक बेहतर परीक्षण करना होगा।

दिन के अंत में, स्विच पर अग्रेषण दर और स्विच की वास्तुकला के विवरण (जहां ASIC को बोर्ड पर रखा गया है, लाइन कार्ड आदि के बीच कैसे लॉक किया जाता है) के लिए विलंबता आने वाली है। अपने परीक्षण के साथ गुड लक।


धन्यवाद, मैं केवल होस्ट-स्विच-होस्ट परीक्षणों का उल्लेख करता हूं और मुझे सभी स्विच इंटर्न समझ में नहीं आते हैं। मैं बस देखना पसंद करूंगा, अगर किसी ने कभी बेंचमार्क किया: होस्ट- (100mbit) -Switch- (100mbit) -होस्ट, होस्ट- (100mbit) -Switch- (1gbit) -होस्ट और होस्ट (1gbit) -Switch- (1gbit) ) -भिन्न पैकेट आकार के लिए हाल ही में विलंब। अगर किसी ने नहीं किया, तो मैं इसे करूंगा और यहां उत्तर दूंगा।
एंड्रियास रिक्टर

1
मैं स्विच गियर को फिर से बेचना करता था। यह कहने के लिए पर्याप्त है, आपके निष्कर्ष मुझे सुझाव देते हैं कि आप एक सिस्को स्विच में प्लग किए गए हैं। अन्य विकल्प हैं जो कम विलंबता प्रदान करते हैं। जैसा कि आपने सही बताया, अधिक बैंडविड्थ कम विलंबता में अनुवाद नहीं करती है (इस संबंध में लोगों को गूंगा बनाने के लिए Comcast प्राथमिक अपराधी है)। यह देखते हुए कि आप एक होस्ट किए गए वातावरण में हैं, आप शायद उनके हार्डवेयर के साथ फंस गए हैं (और एक होस्ट किए गए वातावरण में, अतिरिक्त कुछ माइक्रोस्कोर बहुत महत्वपूर्ण नहीं हैं)। स्थिर अवस्था में मुझे लाखों pps दिखाएं और मैं अधिक विवरण प्रदान करने में दिलचस्पी लूंगा। :)
शॉन
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.