OOM द्वारा मारे जा रहे डिस्क पर बड़ी फ़ाइलों को लिखने वाले मेमोरी-सीमित LXC कंटेनर में एप्लिकेशन क्यों होते हैं?


10

EDIT2: यह समस्या 3.8.0-25-जेनेरिक # 37-उबंटू एसएमपी के तहत मौजूद है

संपादित करें: मैंने प्रश्न को "Dd के साथ फाइल में लिखने से लिनक्स के बाहर मेमोरी प्रबंधक को क्यों ट्रिगर किया जाएगा" के मूल शीर्षक से संशोधित किया है? बेहतर ढंग से प्रतिबिंबित करने के लिए कि मैं नीचे वर्णित सामान्य मुद्दे के बारे में चिंतित हूं:

जब मैं अपने LXC कंटेनर में OOM किलर को मारने की कठिन प्रक्रियाएँ कर रहा हूँ, तो मैं एक परेशानी भरे परिदृश्य में चल रहा हूँ, जब मैं मेमोरी लिमिट (300MB पर सेट) से अधिक आकार वाली फ़ाइल लिखता हूँ। समस्या तब नहीं होती है जब मैं एक एक्सन वर्चुअल मशीन (एक EC2 t1.micro) पर एप्लिकेशन चलाता हूं जिसमें वास्तव में केवल 512 एमबी रैम होता है, इसलिए कंटेनर मेमोरी सीमा का सम्मान करते हुए फ़ाइल बफरिंग के साथ कुछ समस्या प्रतीत होती है।

एक साधारण उदाहरण के रूप में, मैं यह प्रदर्शित कर सकता हूं कि dd द्वारा लिखी गई एक बड़ी फ़ाइल किस तरह से मुद्दों का कारण बनेगी। फिर से, यह समस्या सभी अनुप्रयोगों की दुर्दशा करती है। मैं आवेदन की कैश की सामान्य समस्या को बहुत बड़ी हो रही है; मैं समझता हूं कि मैं "dd" कार्य कैसे कर सकता हूं।

परिदृश्य:

मेरे पास एक LXC कंटेनर है जहाँ मेमोरी .limit_in_bytes 300 MB पर सेट है।

मैं ~ ५०० एमबी की फाइल को निम्नानुसार करने का प्रयास करता हूं:

dd if=/dev/zero of=test2 bs=100k count=5010

मोटे तौर पर 20% समय में, लिनक्स ओओएम प्रबंधक को इस कमांड से ट्रिगर किया जाता है और एक प्रक्रिया को मार दिया जाता है। कहने की जरूरत नहीं है, यह अत्यधिक अनपेक्षित व्यवहार है; dd का मतलब कंटेनर के अंदर चल रहे प्रोग्राम द्वारा वास्तविक "उपयोगी" फाइल लिखना है।

विवरण: जबकि फ़ाइल कैश बड़े (260 एमबी) मिलते हैं, आरएसएस और फ़ाइल मैप काफी कम रहने लगते हैं। यहाँ एक उदाहरण है कि क्या मैमोरी.स्टैट लिखने के दौरान दिख सकती है:

cache 278667264
rss 20971520
mapped_file 24576
pgpgin 138147
pgpgout 64993
swap 0
pgfault 55054
pgmajfault 2
inactive_anon 10637312
active_anon 10342400
inactive_file 278339584
active_file 319488
unevictable 0
hierarchical_memory_limit 300003328
hierarchical_memsw_limit 300003328
total_cache 278667264
total_rss 20971520
total_mapped_file 24576
total_pgpgin 138147
total_pgpgout 64993
total_swap 0
total_pgfault 55054
total_pgmajfault 2
total_inactive_anon 10637312
total_active_anon 10342400
total_inactive_file 278339584
total_active_file 319488
total_unevictable 0

यहाँ Dmesg से एक पेस्ट है जहाँ OOM ने एक किल को ट्रिगर किया। मैं स्मृति के प्रकारों के भेदों से बहुत परिचित नहीं हूँ; एक बात जो सामने आती है वह यह है कि "नोड 0 नॉर्मल" बहुत कम है, वहीं नोड 0 0 डीएमए 32 मेमोरी फ्री है। क्या कोई समझा सकता है कि एक फ़ाइल लिखने का कारण OOM क्यों है? मैं इसे होने से कैसे रोकूँ?

लकड़ी का लठा:

[1801523.686755] Task in /lxc/c-7 killed as a result of limit of /lxc/c-7
[1801523.686758] memory: usage 292972kB, limit 292972kB, failcnt 39580
[1801523.686760] memory+swap: usage 292972kB, limit 292972kB, failcnt 0
[1801523.686762] Mem-Info:
[1801523.686764] Node 0 DMA per-cpu:
[1801523.686767] CPU    0: hi:    0, btch:   1 usd:   0
[1801523.686769] CPU    1: hi:    0, btch:   1 usd:   0
[1801523.686771] CPU    2: hi:    0, btch:   1 usd:   0
[1801523.686773] CPU    3: hi:    0, btch:   1 usd:   0
[1801523.686775] CPU    4: hi:    0, btch:   1 usd:   0
[1801523.686778] CPU    5: hi:    0, btch:   1 usd:   0
[1801523.686780] CPU    6: hi:    0, btch:   1 usd:   0
[1801523.686782] CPU    7: hi:    0, btch:   1 usd:   0
[1801523.686783] Node 0 DMA32 per-cpu:
[1801523.686786] CPU    0: hi:  186, btch:  31 usd: 158
[1801523.686788] CPU    1: hi:  186, btch:  31 usd: 114
[1801523.686790] CPU    2: hi:  186, btch:  31 usd: 133
[1801523.686792] CPU    3: hi:  186, btch:  31 usd:  69
[1801523.686794] CPU    4: hi:  186, btch:  31 usd:  70
[1801523.686796] CPU    5: hi:  186, btch:  31 usd: 131
[1801523.686798] CPU    6: hi:  186, btch:  31 usd: 169
[1801523.686800] CPU    7: hi:  186, btch:  31 usd:  30
[1801523.686802] Node 0 Normal per-cpu:
[1801523.686804] CPU    0: hi:  186, btch:  31 usd: 162
[1801523.686806] CPU    1: hi:  186, btch:  31 usd: 184
[1801523.686809] CPU    2: hi:  186, btch:  31 usd:  99
[1801523.686811] CPU    3: hi:  186, btch:  31 usd:  82
[1801523.686813] CPU    4: hi:  186, btch:  31 usd:  90
[1801523.686815] CPU    5: hi:  186, btch:  31 usd:  99
[1801523.686817] CPU    6: hi:  186, btch:  31 usd: 157
[1801523.686819] CPU    7: hi:  186, btch:  31 usd: 138
[1801523.686824] active_anon:60439 inactive_anon:28841 isolated_anon:0
[1801523.686825]  active_file:110417 inactive_file:907078 isolated_file:64
[1801523.686827]  unevictable:0 dirty:164722 writeback:1652 unstable:0
[1801523.686828]  free:445909 slab_reclaimable:176594
slab_unreclaimable:14754
[1801523.686829]  mapped:4753 shmem:66 pagetables:3600 bounce:0
[1801523.686831] Node 0 DMA free:7904kB min:8kB low:8kB high:12kB
active_anon:0kB inactive_anon:0kB active_file:0kB inactive_file:0kB
unevictable:0kB isolated(anon):0kB isolated(file):0kB present:7648kB
mlocked:0kB dirty:0kB writeback:0kB mapped:0kB shmem:0kB
slab_reclaimable:0kB slab_unreclaimable:0kB kernel_stack:0kB pagetables:0kB
unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:0
all_unreclaimable? no
[1801523.686841] lowmem_reserve[]: 0 4016 7048 7048
[1801523.686845] Node 0 DMA32 free:1770072kB min:6116kB low:7644kB
high:9172kB active_anon:22312kB inactive_anon:12128kB active_file:4988kB
inactive_file:2190136kB unevictable:0kB isolated(anon):0kB
isolated(file):256kB present:4112640kB mlocked:0kB dirty:535072kB
writeback:6452kB mapped:4kB shmem:4kB slab_reclaimable:72888kB
slab_unreclaimable:1100kB kernel_stack:120kB pagetables:832kB unstable:0kB
bounce:0kB writeback_tmp:0kB pages_scanned:0 all_unreclaimable? no
[1801523.686855] lowmem_reserve[]: 0 0 3031 3031
[1801523.686859] Node 0 Normal free:5660kB min:4616kB low:5768kB
high:6924kB active_anon:219444kB inactive_anon:103236kB
active_file:436680kB inactive_file:1438176kB unevictable:0kB
isolated(anon):0kB isolated(file):0kB present:3104640kB mlocked:0kB
dirty:123816kB writeback:156kB mapped:19008kB shmem:260kB
slab_reclaimable:633488kB slab_unreclaimable:57916kB kernel_stack:2800kB
pagetables:13568kB unstable:0kB bounce:0kB writeback_tmp:0kB
pages_scanned:0 all_unreclaimable? no
[1801523.686869] lowmem_reserve[]: 0 0 0 0
[1801523.686873] Node 0 DMA: 2*4kB 3*8kB 0*16kB 2*32kB 4*64kB 3*128kB
2*256kB 1*512kB 2*1024kB 2*2048kB 0*4096kB = 7904kB
[1801523.686883] Node 0 DMA32: 129*4kB 87*8kB 86*16kB 89*32kB 87*64kB
65*128kB 12*256kB 5*512kB 2*1024kB 13*2048kB 419*4096kB = 1769852kB
[1801523.686893] Node 0 Normal: 477*4kB 23*8kB 1*16kB 5*32kB 0*64kB 3*128kB
3*256kB 1*512kB 0*1024kB 1*2048kB 0*4096kB = 5980kB
[1801523.686903] 1017542 total pagecache pages
[1801523.686905] 0 pages in swap cache
[1801523.686907] Swap cache stats: add 0, delete 0, find 0/0
[1801523.686908] Free swap  = 1048572kB
[1801523.686910] Total swap = 1048572kB
[1801523.722319] 1837040 pages RAM
[1801523.722322] 58337 pages reserved
[1801523.722323] 972948 pages shared
[1801523.722324] 406948 pages non-shared
[1801523.722326] [ pid ]   uid  tgid total_vm      rss cpu oom_adj
oom_score_adj name
[1801523.722396] [31266]     0 31266     6404      511   6       0
    0 init
[1801523.722445] [32489]     0 32489    12370      688   7     -17
-1000 sshd
[1801523.722460] [32511]   101 32511    10513      325   0       0
    0 rsyslogd
[1801523.722495] [32625]     0 32625    17706      838   2       0
    0 sshd
[1801523.722522] [32652]   103 32652     5900      176   0       0
    0 dbus-daemon
[1801523.722583] [  526]     0   526     1553      168   5       0
    0 getty
[1801523.722587] [  530]     0   530     1553      168   1       0
    0 getty
[1801523.722593] [  537]  2007   537    17706      423   5       0
    0 sshd
[1801523.722629] [  538]  2007   538    16974     5191   1       0
    0 python
[1801523.722650] [  877]  2007   877     2106      157   7       0
    0 dd
[1801523.722657] Memory cgroup out of memory: Kill process 538 (python)
score 71 or sacrifice child
[1801523.722674] Killed process 538 (python) total-vm:67896kB,
anon-rss:17464kB, file-rss:3300kB

मैं लिनक्स आईपी 10-8-139-98 3.2.0-29- वर्चुअल # 46-उबंटू एसएमपी शुक्र जुलाई 27 17:23:50 यूटीसी 2012 x86_64 x86_64 x86_64 GNU / Linux पर Amazon EC2 पर चल रहा हूं।


1
इसे पढ़ने वाले सभी लोगों के लिए एक त्वरित सारांश के रूप में, यह एक लिनक्स कर्नेल बग है
UsAaR33

जवाबों:


13

संपादित करें: मैं अपना मूल उत्तर नीचे रखूंगा, लेकिन मैं यह बताने की कोशिश करूंगा कि यहां क्या हो रहा है और आपके लिए एक सामान्य समाधान प्रदान करेगा।

संपादित 2: एक और विकल्प प्रदान किया।

समस्या यह है कि आप यहाँ मार रहे हैं कि कर्नेल I / O को कैसे प्रबंधित करता है। जब आप अपने फाइलसिस्टम को लिखते हैं, तो वह डिस्क डिस्क के लिए तुरंत प्रतिबद्ध नहीं होती है; यह अविश्वसनीय रूप से अक्षम होगा। इसके बजाय, लिखता को कैश के पेज के रूप में संदर्भित मेमोरी के क्षेत्र में कैश किया जाता है, और समय-समय पर डिस्क से बाहर चंक्स में लिखा जाता है। आपके लॉग का "गंदा" खंड इस पृष्ठ कैश के आकार का वर्णन करता है जिसे अभी तक डिस्क पर नहीं लिखा गया है:

dirty:123816kB

तो क्या इस गंदे कैश को खाली करता है? यह काम क्यों नहीं कर रहा है?

लिनक्स पर 'फ्लश' गंदे पेजों को डिस्क पर लिखने के लिए जिम्मेदार है। यह एक डेमन है जो समय-समय पर यह निर्धारित करने के लिए उठता है कि क्या डिस्क को लिखना आवश्यक है, और, यदि ऐसा है, तो उन्हें निष्पादित करता है। यदि आप एक सी प्रकार के आदमी हैं, तो यहां से शुरू करें । फ्लश अविश्वसनीय रूप से कुशल है; जरूरत पड़ने पर डिस्क पर सामान प्रवाहित करने का यह एक बड़ा काम करता है। और यह ठीक उसी तरह से काम कर रहा है जैसे इसे माना जाता है।

आपके LXC कंटेनर के बाहर फ्लश चलता है , क्योंकि आपके LXC कंटेनर में अपना कर्नेल नहीं है। LXC कंटेनर cgroups के आसपास एक निर्माण के रूप में मौजूद हैं , जो लिनक्स कर्नेल की एक विशेषता है जो बेहतर सीमाओं और प्रक्रिया समूहों को अलग करने की अनुमति देता है, लेकिन इसका अपना कर्नेल या फ्लश डेमॉन नहीं।

चूँकि आपकी LXC में मेमोरी की सीमा कम होती है, जिससे कर्नेल उपलब्ध होता है, अजीब चीजें होती हैं। फ्लश मान लेता है कि इसमें होस्ट की पूरी मेमोरी कैशे में लिखी गई है। आपके LXC में एक प्रोग्राम एक बड़ी फाइल लिखना शुरू करता है, यह बफ़र्स ... बफ़र ... और अंततः हिट होता है यह हार्ड लिमिट है, और OOM मैनेजर को कॉल करना शुरू करता है। यह किसी विशेष घटक की विफलता नहीं है; यह अपेक्षित व्यवहार है। एक प्रकार का। इस तरह की चीजों को cgroups द्वारा नियंत्रित किया जाना चाहिए, लेकिन ऐसा नहीं लगता है कि यह है।

यह पूरी तरह से उदाहरण आकारों के बीच आपके द्वारा देखे जाने वाले व्यवहार की व्याख्या करता है। आप माइक्रो इंस्टेंस (512MB RAM के साथ) पर एक बड़े इंस्टेंस पर जल्द ही डिस्क को फ्लश करने लगेंगे

ठीक है, यह समझ में आता है। लेकिन यह बेकार है। मुझे अभी भी मुझे एक बड़ी-गधा फ़ाइल लिखने की आवश्यकता है।

ठीक है, फ्लश आपकी LXC की सीमा से अवगत नहीं है। इसलिए कर्नेल को पैच करने के बजाय, उन चीजों के लिए यहां कुछ विकल्प दिए गए हैं जिन्हें आप ट्विक करने की कोशिश कर सकते हैं:

/proc/sys/vm/dirty_expire_centiseconds

यह नियंत्रित करता है कि पृष्ठ को कितने समय तक गंदे कैश में रखा जा सकता है और डिस्क पर लिखा जा सकता है। डिफ़ॉल्ट रूप से यह 30 सेकंड है; इसे तेजी से बाहर धकेलना शुरू करने के लिए इसे कम करने का प्रयास करें।

/proc/sys/vm/dirty_background_ratio

यह नियंत्रित करता है कि सक्रिय मेमोरी फ्लश के कितने प्रतिशत को लिखने के लिए मजबूर करने से पहले भरने की अनुमति है। थोड़ी सी फ़िदालिंग है जो यहाँ सटीक कुल की छँटाई में जाती है, लेकिन सबसे आसान स्पष्टीकरण यह है कि आप अपनी कुल मेमोरी को देखें। डिफ़ॉल्ट रूप से यह 10% है (कुछ डिस्ट्रोस पर यह 5% है)। इसे कम सेट करें; यह जल्द ही डिस्क को लिखने के लिए बाध्य करेगा और आपकी LXC को इसकी सीमा से बाहर रखने से रोक सकता है।

क्या मैं सिर्फ फाइल सिस्टम के साथ थोड़ा पेंच नहीं कर सकता?

अच्छी तरह से हाँ। लेकिन सुनिश्चित करें कि आप इसका परीक्षण कर रहे हैं .. आप प्रदर्शन को प्रभावित कर सकते हैं। आपके mounts में / etc / fstab पर जहाँ आप इसे लिख रहे हैं, ' सिंक ' माउंट विकल्प जोड़ें।

मूल उत्तर:

DD द्वारा उपयोग किए गए रुकावट को कम करने का प्रयास करें:

dd if=/dev/zero of=test2 bs=512 count=1024000

आप एक समय में केवल एक सेक्टर लिख सकते हैं (पुराने HDD पर 512 बाइट्स, नए पर 4096)। अगर डीडी राइट्स को डिस्क से तेजी से आगे बढ़ा रहा है तो डिस्क उन्हें स्वीकार कर सकती है, यह राइट्स को मेमोरी में कैशिंग करना शुरू कर देगा। इसलिए आपकी फ़ाइल कैश बढ़ रही है।


मुझे ध्यान देना चाहिए कि अगर मैं अजगर में इसी तरह के परीक्षण चलाता हूं, जहां मैं फ़ाइल ऑब्जेक्ट को मैन्युअल रूप से फ्लश करता हूं, तो त्रुटि अभी भी समान संभावना के साथ होती है। कैश निश्चित रूप से बढ़ता है, लेकिन जिसे शुद्ध किया जाना चाहिए वह प्रक्रिया को मारने के बजाय सोचता है।
UsAaR33

1
मैं इसे वैसे भी एक शॉट देता हूँ। मैंने पाया है कि पायथन के साथ एक fsync () को मजबूर करना हमेशा वह नहीं करता है जो आप उम्मीद करते हैं।
एलेक्सफिलिप

1
@ UsAaR33 तेजी से डिस्क प्राप्त करें।
tink

1
@ UsAaR33 एक एप्लिकेशन जितनी जल्दी हो सके उतना लिख ​​देगा; यह कर्नेल को IO को संभालने की उम्मीद करता है। मैंने पहले एक LXC कंटेनर का उपयोग नहीं किया है, लेकिन सरसरी नज़र से ऐसा लगता है कि यह प्रदान नहीं करता है कि यह चेरोट में अपना कर्नेल बनाता है? यदि ऐसा है, तो कर्नेल इस अनुमान के साथ आईओ प्रदान कर रहा है कि इसमें मेजबान प्रणाली की पूरी मेमोरी उपलब्ध है। इसका कोई अंदाजा नहीं है कि आपने इसे 300MB तक सीमित कर दिया है। एक बार जब यह सीमा हिट हो जाती है, तो OOM प्रक्रियाओं को मारना शुरू कर देता है।
एलेक्सफिलिप

1
@ UsAaR33: खराब सेटिंग्स खराब परिणाम का कारण बनती हैं। सिस्टम के एक हिस्से को कहा जाता है कि बहुत सारी मेमोरी को कैश के रूप में उपयोग किया जा सकता है, सिस्टम के एक अन्य हिस्से को कहा जाता है कि यदि कैश बहुत बड़ा है तो प्रक्रियाओं को मार दिया जाए। जब रैम उपलब्ध हो तो डिस्क का इंतजार क्यों करना चाहिए? और अगर वहाँ बहुत सारी RAM उपलब्ध है, तो इसका उपयोग क्यों न करें?
डेविड श्वार्ट्ज

3

क्या आपकी फ़ाइल / tmp पर लिख रही है? यदि हां, तो यह एक वास्तविक फाइल सिस्टम पर नहीं बल्कि डिस्क पर निवासी हो सकता है। इस प्रकार, जैसा कि आप इसे लिखते हैं, अधिक से अधिक मेमोरी को फ़ाइल की जरूरतों को ध्यान में रखा जाता है। आखिरकार, आप मेमोरी + स्वैप स्पेस से बाहर निकल जाते हैं और आपका प्रदर्शन पूरी तरह से खराब हो जाता है।


यह $ HOME को लिख रहा है, जो एक AUFS माउंट पर है जो ट्रिगर डिस्क पर लिखता है। (ईसी 2 ईबीएस)
यूएसएआर ३३

2

जब तक आप RAM डिस्क पर नहीं लिख रहे हैं, आप tolag = direct का उपयोग करके कैशिंग से बच सकते हैं

dd if=/dev/zero of=test2 bs=100k oflag=direct count=5010

प्रत्यक्ष "अमान्य तर्क" त्रुटि का कारण बनता है, लेकिन tolag = dsync का उपयोग करना काम करता है।
यूएसएआर ३३

मुझे खेद है कि अगर यह आपके लिए काम नहीं करता, तो मैन पेज के अनुसार "डेटा के लिए डायरेक्ट
केविन पार्कर
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.