ESXi और VNXe के बीच 1 Gbit iSCSI सीमा को कैसे क्रैक करें


15

मैं अपने iSCSI नेटवर्क के साथ बड़ी परेशानियाँ झेल रहा हूँ और इसे उतनी तेजी से काम नहीं कर पाया जितना यह कर सकता था।

इसलिए मैंने अपने सैन से पूर्ण प्रदर्शन हासिल करने के लिए बहुत अधिक कोशिश की है, जिसमें VMware और EMC के विशेषज्ञ शामिल हैं।

मेरे गियर का संक्षिप्त विवरण: 3x HP DL360 G7 / vSphere 5.5 / ४ ऑनबोर्ड NIC / ४ PCIe Intel NICs के लिए iSCSI 2x HP २५१०-२४ जी १x EMC VNXe ३१०० / २% प्रोसेसर, प्रत्येक में 2 iSCSI समर्पित NICs / 24x 15k SAS RAID10 है / 6x 7.2k एसएएस RAID6

मैंने सर्वोत्तम अभ्यास किया और स्टोरेज पूल को समान रूप से दोनों iSCSI- सर्वर पर रखा। मैंने 2 iSCSI सर्वर बनाए, प्रत्येक स्टोरेज प्रोसेसर पर एक। कृपया मेरे iSCSI विन्यास के लिए चित्र देखें।

iSCSI विन्यास

iSCSI ट्रैफ़िक को VLAN (अन्य VLAN के लिए निषिद्ध सेट) के माध्यम से अलग किया जाता है, मैंने इसे 29xx श्रृंखला के एक और एचपी स्विच के साथ भी आज़माया। प्रवाह नियंत्रण सक्षम है (इसे भी अक्षम करने की कोशिश की गई), जंबो अक्षम है। कोई रूटिंग शामिल नहीं है।

ईएसएक्स मेजबानों पर सभी iSCSI NIC का उपयोग किया जा रहा है क्योंकि मैंने हर डेटास्टोर के लिए राउंड रॉबिन सेटिंग का उपयोग किया था। मैंने इसे 1 IO की पथ परिवर्तन नीति के साथ भी आज़माया क्योंकि कई अन्य लोगों ने इस तरह से प्रदर्शन प्राप्त किया है। मैंने आंतरिक एनआईसी (ब्रॉडकॉम) की भी कोशिश की, लेकिन कोई अंतर नहीं है। स्विच पर मैं देख सकता हूं कि बंदरगाहों का उपयोग समान रूप से किया जा रहा है, ईएसएक्स साइड और वीएनएक्स पक्ष। मेरे पास एक पूर्ण भार संतुलन है, HOWEVER: मुझे कुल मिलाकर 1 Gbit नहीं मिल सकता है। मैं समझता हूं कि VNXe कई कनेक्शनों के लिए अनुकूलित है और राउंड रॉबिन को भी इसकी आवश्यकता है, लेकिन जब भी मैं 2 होस्ट और 2 डेटास्टोर्स (विभिन्न iSCSI सर्वर का उपयोग करके) के बीच स्टोरेज vMotion करता हूं, तो मैं 84 MBit / से एक सीधी रेखा देख सकता हूं Unisphere webinterface के माध्यम से। मैं उस लाइन को इतनी बार उसी मूल्य पर देख सकता हूं कि मुझे विश्वास नहीं हो रहा है कि मेरे डिस्क ' टी अधिक वितरित करें या कार्य पर्याप्त नहीं है। यह और भी बेहतर हो रहा है: प्रत्येक मेजबान और प्रत्येक भंडारण प्रोसेसर पर केवल एक केबल के साथ मैं एसएएमई प्रदर्शन प्राप्त करता हूं। इसलिए मुझे बहुत अधिक अतिरेक मिला लेकिन कोई अतिरिक्त गति नहीं थी।

जैसा कि मैंने काफी कुछ लोगों को उनके iSCSI प्रदर्शन के बारे में बात करते हुए देखा है कि मैं यह पता लगाने के लिए बेताब हूँ कि मेरे कॉन्फ़िगरेशन में क्या गड़बड़ है (जिसे वीएमवेयर और ईएमसी के प्रशिक्षित व्यक्तियों द्वारा परीक्षण और सत्यापित किया गया है)। मैं हर राय के लिए आभारी हूँ!

संपादित करें:

हां, मैंने कई NIC का उपयोग करने के लिए vMotion को कॉन्फ़िगर किया है। इसके अलावा भंडारण vMotion हमेशा iSCSI एडेप्टर के माध्यम से जाता है, न कि vMotion एडेप्टर। मैंने अपने कॉन्फ़िगरेशन के स्क्रीनशॉट संलग्न किए हैं।

iSCSI पोर्ट बाइंडिंग

iSCSI गंतव्य

iSCSI पथ

मुझे पता है कि स्टोरेज vMotion कोई बेंचमार्क नहीं है, हालांकि मुझे पिछले कुछ दिनों में इसका बहुत कुछ करना था और ऊपरी सीमा हमेशा लगभग 80 एमबी / सेकंड रही है। 6x 15k 600 GB SAS डिस्क का RAID 10 में आसानी से पूरी तरह से एक बहुत अधिक डाल करने में सक्षम होना चाहिए, क्या आपको नहीं लगता? मैंने आपके लिए एक IO मीटर परीक्षण किया - उनमें से कुछ की कोशिश की, सबसे तेज़ 256 KiB 100% रीड था। मुझे 64.45 एमबी / एस मिला - मेरी यूनिसेफ उसी गति के बारे में भी बताती है। वह VM में 6x 15k 300 GB SAS डिस्क (RAID 10) के पूल पर संग्रहीत है, जो दिन के इस समय शायद ही कोई अन्य गतिविधि है।

IO मीटर

Unisphere

EDIT2:

डुप्लिकेट उपयोगकर्ता नाम के लिए क्षमा करें, लेकिन मैंने इस प्रश्न को काम पर लिखा है और इसने मेरे उपयोगकर्ता नाम का उपयोग नहीं किया है जो मुझे पहले से ही स्टॉक ओवरफ्लो में मिला है। हालाँकि यहाँ स्क्रीनशॉट मेरी राउंड रॉबिन सेटिंग्स दिखा रहा है। यह सभी मेजबानों और सभी दुकानों पर समान है।

राउंड रोबिन


मुझे नहीं लगता कि कुछ भी गलत है। आप वास्तव में क्या उम्मीद कर रहे हैं? क्या आपने मल्टी-एनआईसी vMotion
ewwhite

3
भंडारण vmotion करना भंडारण प्रणालियों के लिए एक बेंचमार्क नहीं है, क्योंकि vmkernel I / O और CPU उपयोग पर प्रतिबंधित है। क्या आपने iometer आदि का उपयोग करके बेंचमार्किंग की कोशिश की है? VNXe में किस तरह के डिस्क, और किस तरह के छापे / स्टोरेज पूल सेटअप?
पौस्का

इसके अलावा, क्या आप vSphere के अंदर LUN "प्रबंधित पथ" का स्क्रीनशॉट पोस्ट कर सकते हैं?
पोस्का

आपने प्रश्न पूछने के लिए उपयोग किए जाने वाले से भिन्न उपयोगकर्ता के साथ लॉग इन किया, इसलिए आपका संपादन एक कतार में अटक गया।
पौस्का

स्क्रीनशॉट के लिए धन्यवाद, लेकिन यह अभी भी वह नहीं है जिसके लिए मैंने पूछा था। अपने एक esxi होस्ट पर क्लिक करें, कॉन्फ़िगर टैब, डेटास्टोर, उस डेटास्टोर का चयन करें जिसे आप समस्या निवारण करना चाहते हैं और नीचे दाईं ओर "गुण" लिंक पर क्लिक करें। फिर "प्रबंधन पथ" पर क्लिक करें और हमें उस विंडो का स्क्रीनशॉट भेजें।
पौस्का

जवाबों:


1

यह संभव है कि आप वास्तव में किक-इन के लिए पर्याप्त IOPS उत्पन्न न करें।
एक नज़र यहाँ कैसे एक छोटे मूल्य के लिए 1'000 IOPS डिफ़ॉल्ट से सेटिंग को परिवर्तित करने पर। (यह सममिति विशिष्ट है, लेकिन आप VMWare राउंड रॉबिन प्रदाता के लिए भी ऐसा कर सकते हैं)

लेकिन मैं अभी तक आश्वस्त नहीं हूं कि क्या यह वास्तव में सिर्फ एक डेटास्टोर के साथ समानांतर में एक से अधिक लिंक का उपयोग करने में सक्षम है। मुझे लगता है कि आपको लाभ देखने के लिए IOMeter का परीक्षण समानांतर में एक से अधिक डेटास्टोर पर करना होगा। (हालांकि 100% निश्चित नहीं है)


जैसा कि मेरे प्रश्न में कहा गया है कि मैंने पहले से ही 1.000 के बजाय 1 में पथ परिवर्तन नीति निर्धारित की है - वास्तव में बहुत कुछ नहीं बदला है।
रेयान हार्डी

आह, मुझे उस हिस्से को अनदेखा करना चाहिए था, माफ करना।
मिशेल

1

EMC नाम के स्टोरेज वेंडर के लिए एक SATP नियम बनाएँ, पथ नीति को राउंड रॉबिन और IOPS के रूप में डिफ़ॉल्ट 1000 से 1 पर सेट करें। यह रिबूट में दृढ़ता रहेगी और कभी भी एक नया EMC iSCSI LUN प्रस्तुत किया जाता है, इस नियम को उठाया जाएगा। इसके लिए मौजूदा EMC iSCSI LUN पर आवेदन करने के लिए, होस्ट को रिबूट करें।

esxcli storage nmp satp rule add --satp="VMW_SATP_DEFAULT_AA" \
  --vendor="EMC" -P "VMW_PSP_RR" -O "iops=1"

मैंने 1 - 3 के बीच IOPS को बदलने के साथ खेला है और एक वीएम पर सबसे अच्छा प्रदर्शन कर रहा हूं। कहा कि, यदि आपके पास बहुत सारे वीएम और बहुत सारे डेटास्टोर्स हैं, तो 1 इष्टतम नहीं हो सकता है ...

सुनिश्चित करें कि आपके पास VNXe पर प्रत्येक इंटरफ़ेस 9000 MTU पर सेट है। इसके अलावा, आपके iSCSI इंटरफेस के साथ vSwitch को 9000 VMU के साथ प्रत्येक वीके कर्नेल पर सेट किया जाना चाहिए। अपने VNXe पर, दो iSCSI सर्वर बनाएं - एक एसपीए के लिए और एक एसपीबी के लिए। शुरू में प्रत्येक के लिए एक आईपी एसोसिएट करें। फिर प्रत्येक iSCSI सर्वर के लिए विवरण देखें और प्रत्येक SP के लिए प्रत्येक सक्रिय इंटरफ़ेस के लिए अतिरिक्त IP जोड़ें। यह आपको उस राउंड-रॉबिन प्रदर्शन की तलाश करेगा जो आप देख रहे हैं।

फिर कम से कम दो डेटास्टोर्स बनाएं। एक डेटासोर को iSCSIServer-SPA और एक iSCSIServer-SPB के साथ संबद्ध करें। यह सुनिश्चित करेगा कि आपका कोई एसपी बेकार न बैठे।

अंत में, ईएससीएसआई के लिए उपयोग किए जा रहे ईएसएक्स पक्ष पर सभी इंटरफेस सक्रिय के रूप में सभी इंटरफेस के साथ एक अलग vSwitch में जाना चाहिए। हालाँकि, आप उस निर्दिष्ट vSwitch के भीतर ESX पक्ष के प्रत्येक इंटरफ़ेस के लिए VMkernel चाहते हैं। आपको प्रत्येक VMK कर्नेल के लिए एक सक्रिय एडाप्टर और अन्य सभी उपयोग नहीं किए गए vSwitch विफलता आदेश को ओवरराइड करना चाहिए। यह मेरी परिनियोजन स्क्रिप्ट है जिसका उपयोग मैंने ESX मेजबानों के प्रावधान के लिए किया था। प्रत्येक होस्ट में कुल 8 इंटरफेस हैं, LAN के लिए 4 और iSCSI / VMotion ट्रैफ़िक के लिए 4।

  1. कॉन्फ़िगरेशन के नीचे प्रदर्शन करें

ए। # DNS esxcli नेटवर्क आईपी डीएनएस खोज ऐड - कंडेन = mydomain.net

esxcli network ip dns server add --server = XXXX

esxcli network ip dns server add --server = XXXX

ख। # सेट hostname अद्यतन तदनुसार

esxcli system hostname set --host = server1 --domain = mydomain.net

सी। # vlwitch0 esxcli नेटवर्क vswitch मानक अपलिंक में अपलिंक जोड़ें - अपलिंक-नाम = vmnic1 --vswitch-name = vSwitch0

esxcli network vswitch standard uplink add --uplink-name = vmnic4 --vswitch-name = vSwn0

esxcli network vswitch standard uplink add --uplink-name = vmnic5 --vswitch-name = vSwn0

घ। # संग्रहण के लिए vSwitch1 बनाएं और MTU को 9000 पर सेट करें

esxcli network vswitch standard add --vswitch-name = vSwitch1

esxcli network vswitch standard set --vswitch-name = vSwitch1 --mtu = 9000

इ। # vSwitch1 के लिए अपलिंक जोड़ें

esxcli network vswitch standard uplink add --uplink-name = vmnic2 --vswitch-name = vSwn1

esxcli network vswitch standard uplink add --uplink-name = vmnic3 --vswitch-name = vSwn1

esxcli network vswitch standard uplink add --uplink-name = vmnic6 --vswitch-name = vSwn1

esxcli network vswitch standard uplink add --uplink-name = vmnic7 --vswitch-name = vSwn1

च। # vSwitch0 के लिए सक्रिय एनआईसी सेट करें

esxcli नेटवर्क vswitch मानक नीति विफल होने का सेट

जी। # vSwitch1 के लिए सक्रिय एनआईसी सेट करें

esxcli नेटवर्क vswitch मानक नीति विफल होने का सेट

एच। # ESSC01 के लिए iSCSI और vmkernels के लिए पोर्ट समूह बनाएँ ESX02 नहीं

esxcli नेटवर्क vswitch स्टैण्डर्ड पोर्टग्रुप add --portgroup-name = iSCSI-vmnic2 --vswitch-name = vSwitch1

esxcli नेटवर्क आईपी इंटरफ़ेस ऐड-इनफ़र्टफेस-नाम = vmk2 --पोर्टग्रुप-नाम = iSCSI-vmnic2 --mtu = 9000

esxcli नेटवर्क आईपी इंटरफ़ेस ipv4 सेट

vim-cmd hostvc / vmotion / vnic_set vmk2

esxcli नेटवर्क vswitch स्टैण्डर्ड पोर्टग्रुप add --portgroup-name = iSCSI-vmnic3 --vswitch-name = vSwitch1

esxcli नेटवर्क आईपी इंटरफ़ेस ऐड-इनरफेस-नेम = vmk3 --portgroup-name = iSCSI-vmnic3 --mtu = 9000

esxcli नेटवर्क आईपी इंटरफ़ेस ipv4 set --interface-name = vmk3 --ipv4 = 192.158.50.153 --netmask = 255.255.255.0 --type = static

vim-cmd hostvc / vmotion / vnic_set vmk3

esxcli नेटवर्क vswitch मानक पोर्टग्रुप add --portgroup-name = iSCSI-vmnic6 --vswitch-name = vSwitch1

esxcli नेटवर्क आईपी इंटरफ़ेस ऐड-इनरफेस-नेम = vmk6 --portgroup-name = iSCSI-vmnic6 --mtu = 9000

esxcli नेटवर्क आईपी इंटरफ़ेस ipv4 सेट - इनफ़र्टफेस-नाम = vmk6 --ipv4 = 192.158.50.156 --netmask = 255.255.255.0 --type = static

vim-cmd hostvc / vmotion / vnic_set vmk6

esxcli नेटवर्क vswitch मानक पोर्टग्रुप add --portgroup-name = iSCSI-vmnic7 --vswitch-name = vSwitch1

esxcli नेटवर्क आईपी इंटरफ़ेस ऐड-इनरफेस-नेम = vmk7 --पोर्टग्रुप-नाम = iSCSI-vmnic7 --mtu = 9000

esxcli नेटवर्क आईपी इंटरफ़ेस ipv4 सेट - इनफ़र्टफेस-नाम = vmk7 --ipv4 = 192.158.50.157 --netmask = 255.255.255.0 --type = static

vim-cmd hostvc / vmotion / vnic_set vmk7

मैं। # ESSC02 ESX01 के लिए iSCSI और vmkernels के लिए पोर्ट समूह बनाएँ

esxcli नेटवर्क vswitch स्टैण्डर्ड पोर्टग्रुप add --portgroup-name = iSCSI-vmnic2 --vswitch-name = vSwitch1

esxcli नेटवर्क आईपी इंटरफ़ेस ऐड-इनफ़र्टफेस-नाम = vmk2 --पोर्टग्रुप-नाम = iSCSI-vmnic2 --mtu = 9000

esxcli नेटवर्क आईपी इंटरफ़ेस ipv4 सेट - इनफ़र्टफेस-नाम = vmk2 --ipv4 = 192.168.50.162 --netmask = 255.255.255.0 --type = static

vim-cmd hostvc / vmotion / vnic_set vmk2

esxcli नेटवर्क vswitch स्टैण्डर्ड पोर्टग्रुप add --portgroup-name = iSCSI-vmnic3 --vswitch-name = vSwitch1

esxcli नेटवर्क आईपी इंटरफ़ेस ऐड-इनरफेस-नेम = vmk3 --portgroup-name = iSCSI-vmnic3 --mtu = 9000

esxcli नेटवर्क आईपी इंटरफ़ेस ipv4 सेट

vim-cmd hostvc / vmotion / vnic_set vmk3

esxcli नेटवर्क vswitch मानक पोर्टग्रुप add --portgroup-name = iSCSI-vmnic6 --vswitch-name = vSwitch1

esxcli नेटवर्क आईपी इंटरफ़ेस ऐड-इनरफेस-नेम = vmk6 --portgroup-name = iSCSI-vmnic6 --mtu = 9000

esxcli नेटवर्क आईपी इंटरफ़ेस ipv4 सेट

vim-cmd hostvc / vmotion / vnic_set vmk6

esxcli नेटवर्क vswitch मानक पोर्टग्रुप add --portgroup-name = iSCSI-vmnic7 --vswitch-name = vSwitch1

esxcli नेटवर्क आईपी इंटरफ़ेस ऐड-इनरफेस-नेम = vmk7 --पोर्टग्रुप-नाम = iSCSI-vmnic7 --mtu = 9000

esxcli नेटवर्क आईपी इंटरफ़ेस ipv4 सेट

vim-cmd hostvc / vmotion / vnic_set vmk7

जे। # प्रत्येक iSCSI vmkernel के लिए सक्रिय NIC सेट करें

esxcli नेटवर्क vswitch स्टैण्डर्ड पोर्टग्रुप पॉलिसी फेलओवर सेट --portgroup-name = iSCSI-vmnic2 --active-uplinks = vmnic2

esxcli नेटवर्क vswitch स्टैंडर्ड पोर्टग्रुप पॉलिसी फेलओवर सेट --portgroup-name = iSCSI-vmnic3 --active-uplinks = vmnic3

esxcli नेटवर्क vswitch स्टैंडर्ड पोर्टग्रुप पॉलिसी फेलओवर सेट --portgroup-name = iSCSI-vmnic6 --active-uplinks = vmnic6

esxcli नेटवर्क vswitch स्टैंडर्ड पोर्टग्रुप पॉलिसी फेलओवर सेट --portgroup-name = iSCSI-vmnic7 --active-uplinks = vmnic7

क। # पोर्ट ग्रुप बनाएं

esxcli नेटवर्क vswitch स्टैण्डर्ड पोर्टग्रुप add --portgroup-name = VMNetwork1 --vswitch-name = vSwitch0

esxcli network vswitch standard portgroup add --portgroup-name = VMNetwork2 --vswitch-name = vSwitch0

esxcli network vswitch standard portgroup add --portgroup-name = VMNetwork3 --vswitch-name = vSwitch0

एल। # वीएमएन को वीएम पोर्ट समूहों में सेट करें

esxcli नेटवर्क vswitch मानक पोर्टग्रुप सेट -p VMNetwork1 --vlan-id ##

esxcli नेटवर्क vswitch मानक पोर्टग्रुप सेट -p VMNetwork2 --vlan-id ##

esxcli नेटवर्क vswitch मानक पोर्टग्रुप सेट -p VMNetwork3 --vlan-id ###

म। # डिफ़ॉल्ट VM पोर्टग्रुप निकालें

esxcli नेटवर्क vswitch मानक पोर्टग्रुप निकालें --portgroup-name = "VM Network" -v = vSwitch0

एन। # iSCSI सॉफ्टवेयर एडॉप्टर सक्षम करें

esxcli iscsi सॉफ्टवेयर सेट --enabled = true

esxcli iscsi networkportal जोड़ें-vmhba33 -n vmk2

esxcli iscsi networkportal जोड़ें-vmhba33 -n vmk3

esxcli iscsi networkportal जोड़ें-vmhba33 -n vmk6

esxcli iscsi networkportal--A vmhba33 -n vmk7

ओ। # स्थानीय डेटास्टोर का नाम बदलें

hostname> $ var =

vim-cmd hostvc / datastore / नाम बदलें datastore1 स्थानीय-$var

पी। #Define Native मल्टी पाथ स्टोरेज एरे टाइप प्लग इन EMC VNXe 3300 और ट्यून राउंड-रॉबिन IOPS के लिए 1000 से 1

esxcli स्टोरेज nmp satp rule add --satp = "VMW_SATP_DEFAULT_AA" --vendor = "EMC" -P "VMW_PSP_RR" -O "iops = 1"

क्यू। # ताज़ा नेटवर्किंग

esxcli नेटवर्क फ़ायरवॉल ताज़ा करें

vim-cmd होस्टेसमिक्स / नेट / रिफ्रेश

  1. प्रत्येक होस्ट के लिए vSphere क्लाइंट का उपयोग करके NTP क्लाइंट कॉन्फ़िगर करें

ए। कॉन्फ़िगरेशन -> समय कॉन्फ़िगरेशन -> गुण -> विकल्प -> NTP सेटिंग्स -> जोड़ें -> ntp.mydomain.net -> "परिवर्तन लागू करने के लिए NTP सेवा को पुनरारंभ करें" -> ठीक है -> प्रतीक्षा करें ... -> "होस्ट के साथ प्रारंभ और रोकें" का चयन करें -> ठीक है -> चेक "एनटीपी क्लाइंट सक्षम -> ठीक है

  1. रिबूट होस्ट

  2. EMC VNXe स्टोरेज प्रोविजनिंग के साथ आगे बढ़ें, पूरा होने पर इस गाइड पर वापस जाएँ

  3. प्रति होस्ट vSphere क्लाइंट में लॉगिन करें

  4. प्रत्येक डेटास्टोर को VMFS-5 में अपग्रेड करें

ए। कॉन्फ़िगरेशन -> स्टोरेज -> हाईलाइट डेटास्टोर -> VMFS-5 में अपग्रेड करें


0

दुर्भाग्य से, मुझे लगता है कि आपके सेटअप में कुछ भी गलत नहीं है। आप बस एक वीएम के लिए 1 जीबी / एस से अधिक का उपयोग नहीं कर सकते हैं।

यहाँ मुद्दा यह है कि आप केवल दो (या अधिक) एनआईसी का उपयोग नहीं करना चाहते हैं, आप उन्हें कॉन्फ़िगरेशन जैसे RAID-0 में समवर्ती रूप से उपयोग करना चाहते हैं

802.3ad, लिंक-स्तरीय एकत्रीकरण के बारे में मानक और मुझे लगता है कि आपने अपने स्विचेस पर कॉन्फ़िगर किया है, आमतौर पर विभिन्न एनआईसी में एक एकल कनेक्शन को स्ट्रिप करने के लिए कॉन्फ़िगर नहीं किया जा सकता है। यह इस कारण से है कि इंटरफ़ेस-एलजी चयन कैसे काम करता है: यह src और dst MACs और / या IP / बंदरगाहों पर आधारित है, और एक एकल कनेक्शन में हमेशा समान MAC / IP / पोर्ट होंगे

इसका मतलब यह नहीं है कि आपका सेटअप उच्च संख्या (दोनों tput और IOPS के रूप में) को आगे नहीं बढ़ा सकता है, लेकिन इसने एक एकल वीएम एक्सट्रैक्ट कितना प्रदर्शन कर सकता है, इसकी एक कठिन सीमा रखी है। 2/4 विभिन्न VMs पर 2 या 4 IOMeter इंस्टेंस को लोड करने का प्रयास करें: मैं शर्त लगाता हूं कि एकत्रित tput वैसे तो एकल VM बेंचमार्क अधिक होगा, लेकिन कोई भी मशीन 1 Gb / s सीमा से नहीं गुजरेगी।

लिनक्स ब्रिजिंग और कुछ हाई-एंड स्विच विभिन्न लिंक-एकत्रीकरण विधियों का समर्थन करते हैं और पूर्ण धारीदार, एकत्रित नेटवर्क इंटरफेस को सक्षम करते हैं। हालाँकि, इस पर गैर तुच्छ प्रभाव है कि अन्य स्विच / सिस्टम कैसे इन "गैर-मानक" एकत्रीकरण विधियों के साथ बातचीत करते हैं।

वैसे भी, भंडारण नेटवर्क के लिए, यदि आप समर्थित हैं, तो आपको वास्तव में जंबो फ्रेम को सक्षम करना चाहिए।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.