टीसी qdisc और iperf को समझना


15

मैं बैंडविड्थ को सीमित करने tcऔर परिणामों की जांच करने की कोशिश कर रहा हूं iperf। मैंने इस तरह शुरू किया:

# iperf -c 192.168.2.1
------------------------------------------------------------
Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 192.168.2.7 port 35213 connected with 192.168.2.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.0 sec   830 MBytes   696 Mbits/sec

दो उदाहरण सीधे ईथरनेट के माध्यम से जुड़े हुए हैं।

फिर मैंने htb qdiscबैंडविड्थ को 1mbit / sec तक सीमित करने के लिए एक डिफ़ॉल्ट वर्ग के साथ सेट किया :

# tc qdisc add dev bond0 root handle 1: htb default 12
# tc class add dev bond0 parent 1: classid 1:12 htb rate 1mbit

लेकिन मुझे वह नहीं मिलता जिसकी मुझे उम्मीद है:

# iperf -c 192.168.2.1
------------------------------------------------------------
Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 192.168.2.7 port 35217 connected with 192.168.2.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-12.8 sec   768 KBytes   491 Kbits/sec

यदि मैं दर को दोगुना करता हूं, तो मापा बैंडविड्थ नहीं बदलता है। मुझे किसकी याद आ रही है? मापित बैंडविड्थ rateपैरामीटर से 1mbit के अनुरूप क्यों नहीं है ? बैंडविड्थ को एक सटीक दिए गए दर तक सीमित करने के लिए मुझे किन मापदंडों की आवश्यकता है?

हालाँकि, manपृष्ठ कहता है कि इस कार्य के लिए विकल्प tbfहोना चाहिए qdisc:

टोकन बाल्टी फ़िल्टर ठीक से कॉन्फ़िगर की गई दर तक ट्रैफ़िक को धीमा करने के लिए अनुकूल है। बड़े बैंडविथ के लिए अच्छी तरह से तराजू।

tbfमापदंडों की आवश्यकता है rate, burstऔर ( limit| latency)। तो मैं कैसे समझ के बिना निम्नलिखित की कोशिश की burstऔर ( limit| latency) उपलब्ध बैंडविड्थ प्रभावित करते हैं:

# tc qdisc add dev bond0 root tbf rate 1mbit limit 10k burst 10k

यह मुझे 113 Kbits / सेकंड की एक मापा बैंडविड्थ मिला। जब तक मैंने देखा कि उन मापदंडों के साथ खेलना तब तक नहीं बदला, जब तक कि मैंने यह नहीं देखा कि mtuचीजों में बदलाव के लिए एक मूल्य जोड़ना :

# tc qdisc add dev bond0 root tbf rate 1mbit limit 10k burst 10k mtu 5000

1.00 Mbit / sec की मापा बैंडविड्थ के परिणामस्वरूप।

बैंडविड्थ को एक सटीक दी गई दर तक सीमित करने के लिए मुझे किन मापदंडों की आवश्यकता होगी?

क्या मुझे इसके लिए htbया tbfकतारबद्ध अनुशासन का उपयोग करना चाहिए ?

संपादित करें :

इन संसाधनों के आधार पर, मैंने कुछ परीक्षण किए हैं:

मैंने निम्नलिखित सेटअप की कोशिश की है।

एक भौतिक मशीन पर

/etc/network/interfaces:

auto lo
iface lo inet loopback

auto br0
iface br0 inet dhcp
bridge_ports eth0

के साथ माप iperf:

# tc qdisc add dev eth0 root handle 1: htb default 12
# tc class add dev eth0 parent 1: classid 1:12 htb rate 1mbit
# iperf -c 192.168.2.1
------------------------------------------------------------
Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 192.168.2.4 port 51804 connected with 192.168.2.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-11.9 sec  1.62 MBytes  1.14 Mbits/sec

जबकि iperfसर्वर ने एक अलग बैंडविड्थ की गणना की:

[  4] local 192.168.2.1 port 5001 connected with 192.168.2.4 port 51804
[  4]  0.0-13.7 sec  1.62 MBytes   993 Kbits/sec

एक वर्चुअल मशीन पर बिना बॉन्डिंग के

/etc/network/interfaces:

auto lo
iface lo inet loopback

auto eth0
iface eth0 inet dhcp

के साथ माप iperf:

# tc qdisc add dev eth0 root handle 1: htb default 12
# tc class add dev eth0 parent 1: classid 1:12 htb rate 1mbit
# iperf -c 192.168.2.1
------------------------------------------------------------
Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 192.168.2.7 port 34347 connected with 192.168.2.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-11.3 sec  1.62 MBytes  1.21 Mbits/sec

जबकि iperfसर्वर ने एक अलग बैंडविड्थ की गणना की:

[  4] local 192.168.2.1 port 5001 connected with 192.168.2.7 port 34347
[  4]  0.0-14.0 sec  1.62 MBytes   972 Kbits/sec

एक आभासी मशीन पर संबंध के साथ (tc eth0 पर कॉन्फ़िगर किया गया)

/etc/network/interfaces:

auto lo
iface lo inet loopback

auto eth0
allow-bond0 eth0
iface eth0 inet manual
    bond-master bond0
    bond-primary eth0 eth1

auto eth1
allow-bond0 eth1
iface eth1 inet manual
    bond-master bond0
    bond-primary eth0 eth1

auto bond0
iface bond0 inet dhcp
    bond-slaves none
    bond-mode 1
#    bond-arp-interval 250
#    bond-arp-ip-target 192.168.2.1
#    bond-arp-validate 3

के साथ माप iperf:

# tc qdisc add dev eth0 root handle 1: htb default 12
# tc class add dev eth0 parent 1: classid 1:12 htb rate 1mbit
# iperf -c 192.168.2.1
------------------------------------------------------------
Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 192.168.2.9 port 49054 connected with 192.168.2.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-11.9 sec  1.62 MBytes  1.14 Mbits/sec

जबकि iperfसर्वर ने एक अलग बैंडविड्थ की गणना की:

[  4] local 192.168.2.1 port 5001 connected with 192.168.2.9 port 49054
[  4]  0.0-14.0 sec  1.62 MBytes   972 Kbits/sec

एक वर्चुअल मशीन पर बॉन्डिंग के साथ (बंधन 0 पर कॉन्फ़िगर किया गया टीसी)

/etc/network/interfaces:

auto lo
iface lo inet loopback

auto eth0
allow-bond0 eth0
iface eth0 inet manual
    bond-master bond0
    bond-primary eth0 eth1

auto eth1
allow-bond0 eth1
iface eth1 inet manual
    bond-master bond0
    bond-primary eth0 eth1

auto bond0
iface bond0 inet dhcp
    bond-slaves none
    bond-mode 1
#    bond-arp-interval 250
#    bond-arp-ip-target 192.168.2.1
#    bond-arp-validate 3

के साथ माप iperf:

# tc qdisc add dev bond0 root handle 1: htb default 12
# tc class add dev bond0 parent 1: classid 1:12 htb rate 1mbit
# iperf -c 192.168.2.1
------------------------------------------------------------
Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 192.168.2.9 port 49055 connected with 192.168.2.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-13.3 sec   768 KBytes   475 Kbits/sec

जबकि iperfसर्वर ने एक अलग बैंडविड्थ की गणना की:

[  4] local 192.168.2.1 port 5001 connected with 192.168.2.9 port 49055
[  4]  0.0-14.1 sec   768 KBytes   446 Kbits/sec

यदि मैं eth1बांड से निष्कासित (निष्क्रिय इंटरफ़ेस) करता हूं तो परिणाम नहीं बदलता है ।

निष्कर्ष

बॉन्ड इंटरफ़ेस पर ट्रैफ़िक नियंत्रण काम नहीं करता है, या कम से कम अपेक्षित नहीं है। मुझे और जांच करनी होगी।

एक वर्कअराउंड के रूप में, कोई भी संबंधित विषयों को सीधे बांड से संबंधित इंटरफेस में जोड़ सकता है ।


काफी अजीब, यह इस आदमी के लिए काम किया है लगता है: blog.tinola.com/?e=22
Matías E. Fernández

1
मुझे लगता है कि htb के साथ, आपको tc filterपैकेट को कक्षाओं में रखने के लिए उपयोग करना होगा। आपको htb के कुछ मापदंडों को बदलना पड़ सकता है (इसे tbf की तरह ही ट्यून करें)। मैं सुझाव देता हूं कि tcngजो आगे है, वह tc के सामने है। (ये त्वरित संकेत दिए गए हैं ...)
derobert

मैंने आपकी पोस्ट में कोई फ़िल्टर नहीं देखा। ट्रैफ़िक से मिलान करने के लिए आप किन आदेशों का उपयोग कर रहे हैं ताकि यह दर सीमित हो सके?

जवाबों:


2

जब आप इस बारे में अनिश्चित होते हैं कि tc कैसे काम करता है तो आप अभी भी tc पर नज़र रख सकते हैं और देख सकते हैं कि पैकेट कैसे बहते हैं? आप tc पर नजर रखने के लिए मेरी स्क्रिप्ट का उपयोग कर सकते हैं और इसे लिफ्ट विशेषाधिकार के साथ एक टर्मिनल में चलाने की आवश्यकता है। आप दूसरे इंटरफ़ेस में wlan0 बदल सकते हैं और आपको grep और awk की भी आवश्यकता है:

      #!/bin/sh
      INTERVAL=15
      while sleep $INTERVAL
      do
             /usr/sbin/tc -s -d class show dev wlan0

             uptime
             more /proc/meminfo | grep MemFree | grep -v grep
             echo cache-name num-active-objs total-objs obj-size
             SKBUFF=`more /proc/slabinfo | grep skbuff | grep -v grep | awk 
             '{print $2} {print $3} {print $4}'`

             echo skbuff_head_cache: $SKBUFF
      done

0

burst/ limitमान बढ़ाने का प्रयास करें । टोकन बाल्टी एल्गोरिदम अच्छी तरह पैमाने पर, लेकिन एक सीमित सटीकता / गति अनुपात की है।

एक छोटी बाल्टी का उपयोग करके सटीकता प्राप्त की जाती है, टोकन के आकार को बढ़ाकर। बड़े टोकन का मतलब है कि जिस दर पर उनकी भरपाई की जाती है वह कम हो जाती है (टोकन प्रति सेकंड = बाइट्स प्रति सेकंड / बाइट प्रति टोकन)।

rateपैरामीटर देता औसत दर है कि अधिक होने के लिए नहीं, burstया limitमापदंडों औसत विंडो के आकार देते हैं। जैसे ही पैकेट को लाइन गति से बाहर भेजा जाता है, उस समय के लिए निर्धारित दर से अधिक होता है, जहाँ पैकेट को स्थानांतरित किया जाता है, औसत विंडो को कम से कम इतना बड़ा होना चाहिए कि एक ही पैकेट भेजने से पूरी विंडो को सीमा से अधिक धक्का न लगे; यदि अधिक पैकेट खिड़की में फिट होते हैं, तो एल्गोरिथ्म में लक्ष्य को सटीक रूप से मारने का एक बेहतर मौका होगा।


0

बॉन्डिंग इंटरफ़ेस (इस मामले में बंधन 0) पर कतार अनुशासन जोड़ने से पहले इसे चलाएं

ipconfig bond0 txqueuelen 1000

यह काम नहीं करता क्योंकि सॉफ्टवेयर वर्चुअल डिवाइस जैसे कि बॉन्डिंग इंटरफेस की कोई डिफ़ॉल्ट कतार नहीं है।


0

चूंकि bondउपकरणों में कतार परिभाषित नहीं है, इसलिए qdiscआकार निर्धारित करना मेरे लिए समस्या को ठीक करता है।

यहाँ एक पत्ती के लिए एक उदाहरण संरचना के qdiscतहत इस्तेमाल किया जा रहा HTBहै: tc qdisc add dev $dev parent $parent handle $handle pfifo limit 1000

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.