मेरी प्रक्रिया क्या हुई और क्यों?


614

मेरा आवेदन लिनक्स पर एक पृष्ठभूमि प्रक्रिया के रूप में चलता है। यह वर्तमान में एक टर्मिनल विंडो में कमांड लाइन पर शुरू किया गया है।

हाल ही में एक उपयोगकर्ता कुछ समय के लिए एप्लिकेशन निष्पादित कर रहा था और रहस्यमय तरीके से उसकी मृत्यु हो गई। ये पाठ:

मारे गए

टर्मिनल पर था। ऐसा दो बार हुआ। मैंने पूछा कि क्या अलग टर्मिनल पर किसी ने इस प्रक्रिया को मारने के लिए किल कमांड का इस्तेमाल किया है? नहीं।

लिनक्स मेरी प्रक्रिया को मारने के लिए किन परिस्थितियों में तय करेगा? मेरा मानना ​​है कि खोल को "मार" प्रदर्शित किया गया क्योंकि प्रक्रिया को मारने (9) संकेत प्राप्त करने के बाद मृत्यु हो गई। यदि लिनक्स ने किल सिग्नल भेजा है, तो सिस्टम लॉग में कहीं संदेश होना चाहिए जो बताता है कि उसे क्यों मारा गया?


23
linux ने मेरी प्रक्रिया को मार दिया और इसे redhat पर / var / log / संदेश में लॉग ऑन किया
डीन हिलर

1
इस उत्तर को unix.stackexchange.com पर भी देखें ।
रिचर्ड

इस ईवेंट में 3 खिलाड़ी हैं: (1) वह प्रक्रिया जो (सामान्य कारण) बहुत अधिक मेमोरी लेती है और OOM कंडीशन का कारण बनती है (2) कर्नेल जो सिगिल (सिग्नल 9) को इसे समाप्त करने के लिए भेजता है और किसी सिस्टम में तथ्य को लॉग करता है लॉग की तरह /var/log/messages(3) वह शेल जिसके तहत प्रक्रिया चलती थी, जो वह प्रक्रिया है जो Killedअधिसूचना को प्रिंट करती है जब बाहर निकलने की स्थिति से waitpid(2)संकेत मिलता है कि बच्चे की प्रक्रिया सिग्नल 9 से मर गई थी
arielf

@ डीनहिलर के उत्तर को पढ़ने के बाद, मैंने उबंटू पर लॉग संदेश के तहत पाया/var/log/syslog
दीनी

जवाबों:


403

यदि उपयोगकर्ता या sysadmin प्रोग्राम को नहीं मारता है तो कर्नेल हो सकता है। कर्नेल केवल असाधारण परिस्थितियों में चरम संसाधन भुखमरी (थिंक मेम + स्वैप थकावट) जैसी असाधारण परिस्थितियों में एक प्रक्रिया को मार देगा।


25
यदि कर्नेल ने प्रक्रिया को मार दिया तो क्या यह कहीं लॉग में एक संदेश डाल देगा?
sbq

186
मैंने सिर्फ एक प्रोग्राम लिखा था कि मॉलोक्फ इनफाइट लूप में मेमोरी करेगा। सिस्टम के धीमा होने के बाद, टर्मिनल में "किल्ड" प्रदर्शित किया गया और प्रक्रिया को समाप्त कर दिया गया। फ़ाइल /var/log/kern.log में समाप्ति के बारे में बहुत सारी जानकारी थी। -पाइंटर के लिए धन्यवाद।
sbq

6
यह लगभग निश्चित रूप से है। जब मैंने TAING किया तो मैंने इसे बहुत देखा। कई छात्र अपनी वस्तुओं को मुक्त करना भूल जाते हैं, और ऐप्स अंततः 3 जीबी वर्चुअल मेमोरी उपयोग तक पहुंच जाएंगे। जैसे ही यह मारा उस बिंदु को मार दिया गया था।
हर्मिस

8
जब "कार्यक्रम बस दुर्घटनाओं", कि है ओएस वास्तव में प्रक्रिया की मौत हो गई!
बेरंड जेन्ड्रीसेक

79
dmesgकर्नेल लॉग देखने के लिए उपयोग करें : यहाँ मैं अपने आभासी आभासी खपत के कारण कर्नेल द्वारा मारे गए पायथन प्रक्रियाओं को ढूँढता हूँ।
caneta

272

प्रयत्न:

dmesg -T| grep -E -i -B100 'killed process'

जहां -B100मारने से पहले लाइनों की संख्या को दर्शाता है।

मैक ओएस पर ओम- टी


6
FYI करें, से info egrep : : "egrep grep -E के समान है। ... egrep या fgrep के रूप में प्रत्यक्ष आह्वान पदावनत है"
Air

9
एक साधारण पैटर्न के मामले में जैसे 'killed process'आप किसी अन्य परिवर्तन के grepबजाय बस उपयोग कर सकते egrepहैं। अधिक जटिल पैटर्न के लिए, आप जैसे उदाहरण के egrep -i -B100 'foo|ba[rz]'साथ बदल सकते हैं grep -E -i -B100 'foo|ba[rz]'यह प्रश्नोत्तर अधिक विस्तार देता है।
हवा

2
मैं भी dmesg -Tपठनीय टाइमस्टैम्प
gukoff

171

यह इस विषय पर एक अच्छे लेख की तरह दिखता है: टैमिंग ओओएम किलर

यह है कि लिनक्स overcommits हैयाद। जब कोई प्रक्रिया अधिक स्थान मांगती है, तो लिनक्स इसे वह स्थान देगा, भले ही यह एक अन्य प्रक्रिया द्वारा दावा किया गया हो, इस धारणा के तहत कि कोई भी वास्तव में उन सभी मेमोरी का उपयोग नहीं करता है जो वे मांगते हैं। इस प्रक्रिया को उस मेमोरी का अनन्य उपयोग मिलेगा जिसे उसने आवंटित किया है जब वह वास्तव में इसका उपयोग करता है, तब नहीं जब वह इसके लिए पूछता है। यह आवंटन को त्वरित बनाता है, और आपको "धोखा" देने और अधिक मेमोरी आवंटित करने की अनुमति दे सकता है जो आपके पास वास्तव में है। हालाँकि, एक बार जब प्रक्रियाएं इस मेमोरी का उपयोग करना शुरू कर देती हैं, तो लिनक्स को यह एहसास हो सकता है कि यह मेमोरी में आवंटन करने में बहुत उदार है, जो इसके पास नहीं है, और कुछ को मुक्त करने के लिए एक प्रक्रिया को मारना होगा। मारे जाने की प्रक्रिया रनटाइम (लंबे समय तक चलने वाली प्रक्रियाएं सुरक्षित हैं), स्मृति उपयोग (लालची प्रक्रियाएं कम सुरक्षित हैं), और कुछ अन्य कारकों के आधार पर स्कोर पर आधारित है, एक मूल्य सहित आप एक प्रक्रिया को मारने की संभावना कम करने के लिए समायोजित कर सकते हैं। यह सब बहुत अधिक विस्तार से लेख में वर्णित है।

संपादित करें: और यहां एक और लेख है जो बहुत अच्छी तरह से बताता है कि कैसे एक प्रक्रिया को चुना जाता है (कुछ कर्नेल कोड उदाहरणों के साथ एनोटेट)। इसके बारे में महान बात यह है कि इसमें विभिन्न नियमों के पीछे तर्क पर कुछ टिप्पणी शामिल badness()है।


3
मैं वास्तव में लेख लिंक प्यार करता हूँ। मैं सुझाव देता हूं कि किसी को भी इस विषय में दिलचस्पी है - उन्हें पढ़ने के लिए विशेष रूप से lwn लेख पर टिप्पणी।
जॉन एल्फहर्स्ट

4
"लिनक्स इसे वह स्थान देगा, भले ही यह एक अन्य प्रक्रिया द्वारा दावा किया गया हो" यह काफी वर्चुअल मेमोरी कैसे काम करती है ...
डक

1
लेख काफी पुराना (2009) है और लेख में सुझाई गई सभी कार्यक्षमता मेनलाइन में नहीं है।
एलेक्स

50

मुझे पहले बताएं कि OOMKiller कब और क्यों आह्वान किया जाता है?

मान लें कि आपके पास 512 RAM + 1GB स्वैप मेमोरी है। तो सिद्धांत रूप में, आपके सीपीयू में कुल 1.5GB तक वर्चुअल मेमोरी है।

अब, कुछ समय के लिए कुल मेमोरी 1.5GB के भीतर सब कुछ ठीक चल रहा है। लेकिन अचानक (या धीरे-धीरे) आपके सिस्टम ने अधिक से अधिक मेमोरी का उपभोग करना शुरू कर दिया है और यह उपयोग की गई कुल मेमोरी का लगभग 95% तक पहुंच गया है।

अब कहते हैं कि किसी भी प्रक्रिया ने कर्नेल से मेमोरी के बड़े हिस्से का अनुरोध किया है। उपलब्ध मेमोरी के लिए कर्नेल जाँच करें और पाएँ कि ऐसा कोई तरीका नहीं है जो आपकी प्रक्रिया को अधिक मेमोरी आवंटित कर सकता है। तो यह कुछ मेमोरी कॉलिंग / इनकमिंग OOMKiller ( http://linux-mm.org/OOM ) को मुक्त करने का प्रयास करेगा ।

OOMKiller हर प्रक्रिया के लिए रैंक स्कोर करने के लिए अपना स्वयं का एल्गोरिथ्म है। आमतौर पर जो प्रक्रिया अधिक मेमोरी का उपयोग करती है वह मारे जाने का शिकार बन जाती है।

मुझे OOMKiller के लॉग कहां मिल सकते हैं?

आमतौर पर / var / log निर्देशिका में। या तो /var/log/kern.log या / var / लॉग / dmesg

आशा है कि यह आपकी मदद करेगा।

कुछ विशिष्ट उपाय:

  1. मेमोरी बढ़ाएँ (स्वैप नहीं)
  2. अपने प्रोग्राम में मेमोरी लीक खोजें और उन्हें ठीक करें
  3. स्मृति को प्रतिबंधित करें कोई भी प्रक्रिया उपभोग कर सकती है (उदाहरण के लिए JVM मेमोरी को JAVA_OPTS का उपयोग करके प्रतिबंधित किया जा सकता है)
  4. लॉग और google देखें :)

17

यह मेमोरी मैनेजर (OOM) का लिनक्स है । आपका प्रक्रिया 'की वजह से चुना गया था बुराई recentness का एक संयोजन, निवासी आकार (प्रयोग में स्मृति के बजाय सिर्फ आवंटित) और अन्य कारकों -'।

sudo journalctl -xb

आपको एक संदेश दिखाई देगा जैसे:

Jul 20 11:05:00 someapp kernel: Mem-Info:
Jul 20 11:05:00 someapp kernel: Node 0 DMA per-cpu:
Jul 20 11:05:00 someapp kernel: CPU    0: hi:    0, btch:   1 usd:   0
Jul 20 11:05:00 someapp kernel: Node 0 DMA32 per-cpu:
Jul 20 11:05:00 someapp kernel: CPU    0: hi:  186, btch:  31 usd:  30
Jul 20 11:05:00 someapp kernel: active_anon:206043 inactive_anon:6347 isolated_anon:0
                                    active_file:722 inactive_file:4126 isolated_file:0
                                    unevictable:0 dirty:5 writeback:0 unstable:0
                                    free:12202 slab_reclaimable:3849 slab_unreclaimable:14574
                                    mapped:792 shmem:12802 pagetables:1651 bounce:0
                                    free_cma:0
Jul 20 11:05:00 someapp kernel: Node 0 DMA free:4576kB min:708kB low:884kB high:1060kB active_anon:10012kB inactive_anon:488kB active_file:4kB inactive_file:4kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present
Jul 20 11:05:00 someapp kernel: lowmem_reserve[]: 0 968 968 968
Jul 20 11:05:00 someapp kernel: Node 0 DMA32 free:44232kB min:44344kB low:55428kB high:66516kB active_anon:814160kB inactive_anon:24900kB active_file:2884kB inactive_file:16500kB unevictable:0kB isolated(anon):0kB isolated
Jul 20 11:05:00 someapp kernel: lowmem_reserve[]: 0 0 0 0
Jul 20 11:05:00 someapp kernel: Node 0 DMA: 17*4kB (UEM) 22*8kB (UEM) 15*16kB (UEM) 12*32kB (UEM) 8*64kB (E) 9*128kB (UEM) 2*256kB (UE) 3*512kB (UM) 0*1024kB 0*2048kB 0*4096kB = 4580kB
Jul 20 11:05:00 someapp kernel: Node 0 DMA32: 216*4kB (UE) 601*8kB (UE) 448*16kB (UE) 311*32kB (UEM) 135*64kB (UEM) 74*128kB (UEM) 5*256kB (EM) 0*512kB 0*1024kB 1*2048kB (R) 0*4096kB = 44232kB
Jul 20 11:05:00 someapp kernel: Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=2048kB
Jul 20 11:05:00 someapp kernel: 17656 total pagecache pages
Jul 20 11:05:00 someapp kernel: 0 pages in swap cache
Jul 20 11:05:00 someapp kernel: Swap cache stats: add 0, delete 0, find 0/0
Jul 20 11:05:00 someapp kernel: Free swap  = 0kB
Jul 20 11:05:00 someapp kernel: Total swap = 0kB
Jul 20 11:05:00 someapp kernel: 262141 pages RAM
Jul 20 11:05:00 someapp kernel: 7645 pages reserved
Jul 20 11:05:00 someapp kernel: 264073 pages shared
Jul 20 11:05:00 someapp kernel: 240240 pages non-shared
Jul 20 11:05:00 someapp kernel: [ pid ]   uid  tgid total_vm      rss nr_ptes swapents oom_score_adj name
Jul 20 11:05:00 someapp kernel: [  241]     0   241    13581     1610      26        0             0 systemd-journal
Jul 20 11:05:00 someapp kernel: [  246]     0   246    10494      133      22        0         -1000 systemd-udevd
Jul 20 11:05:00 someapp kernel: [  264]     0   264    29174      121      26        0         -1000 auditd
Jul 20 11:05:00 someapp kernel: [  342]     0   342    94449      466      67        0             0 NetworkManager
Jul 20 11:05:00 someapp kernel: [  346]     0   346   137495     3125      88        0             0 tuned
Jul 20 11:05:00 someapp kernel: [  348]     0   348    79595      726      60        0             0 rsyslogd
Jul 20 11:05:00 someapp kernel: [  353]    70   353     6986       72      19        0             0 avahi-daemon
Jul 20 11:05:00 someapp kernel: [  362]    70   362     6986       58      18        0             0 avahi-daemon
Jul 20 11:05:00 someapp kernel: [  378]     0   378     1621       25       8        0             0 iprinit
Jul 20 11:05:00 someapp kernel: [  380]     0   380     1621       26       9        0             0 iprupdate
Jul 20 11:05:00 someapp kernel: [  384]    81   384     6676      142      18        0          -900 dbus-daemon
Jul 20 11:05:00 someapp kernel: [  385]     0   385     8671       83      21        0             0 systemd-logind
Jul 20 11:05:00 someapp kernel: [  386]     0   386    31573      153      15        0             0 crond
Jul 20 11:05:00 someapp kernel: [  391]   999   391   128531     2440      48        0             0 polkitd
Jul 20 11:05:00 someapp kernel: [  400]     0   400     9781       23       8        0             0 iprdump
Jul 20 11:05:00 someapp kernel: [  419]     0   419    27501       32      10        0             0 agetty
Jul 20 11:05:00 someapp kernel: [  855]     0   855    22883      258      43        0             0 master
Jul 20 11:05:00 someapp kernel: [  862]    89   862    22926      254      44        0             0 qmgr
Jul 20 11:05:00 someapp kernel: [23631]     0 23631    20698      211      43        0         -1000 sshd
Jul 20 11:05:00 someapp kernel: [12884]     0 12884    81885     3754      80        0             0 firewalld
Jul 20 11:05:00 someapp kernel: [18130]     0 18130    33359      291      65        0             0 sshd
Jul 20 11:05:00 someapp kernel: [18132]  1000 18132    33791      748      64        0             0 sshd
Jul 20 11:05:00 someapp kernel: [18133]  1000 18133    28867      122      13        0             0 bash
Jul 20 11:05:00 someapp kernel: [18428]    99 18428   208627    42909     151        0             0 node
Jul 20 11:05:00 someapp kernel: [18486]    89 18486    22909      250      46        0             0 pickup
Jul 20 11:05:00 someapp kernel: [18515]  1000 18515   352905   141851     470        0             0 npm
Jul 20 11:05:00 someapp kernel: [18520]     0 18520    33359      291      66        0             0 sshd
Jul 20 11:05:00 someapp kernel: [18522]  1000 18522    33359      294      64        0             0 sshd
Jul 20 11:05:00 someapp kernel: [18523]  1000 18523    28866      115      12        0             0 bash
Jul 20 11:05:00 someapp kernel: Out of memory: Kill process 18515 (npm) score 559 or sacrifice child
Jul 20 11:05:00 someapp kernel: Killed process 18515 (npm) total-vm:1411620kB, anon-rss:567404kB, file-rss:0kB

12

जैसा कि dwc और Adam Jaskiewicz ने कहा है, अपराधी OOM किलर है। हालांकि, अगला सवाल जो निम्न है: मैं इसे कैसे रोकूं?

कई तरीके हैं:

  1. यदि आप कर सकते हैं अपने सिस्टम को और अधिक रैम दें (यदि इसका वीएम आसान है)
  2. सुनिश्चित करें कि OOM किलर एक अलग प्रक्रिया चुनता है।
  3. OOM किलर को अक्षम करें
  4. एक लिनक्स डिस्ट्रो चुनें जो ओओएम किलर अक्षम के साथ जहाज करता है।

मैंने पाया (2) विशेष रूप से लागू करना आसान है, इस लेख के लिए धन्यवाद ।


2
यह मेरे लिए राम था। मैं 2 से 4GB RAM और समस्या से उन्नत किया गया। अब समस्या बिल के साथ है: P
Gus

9

सीमा संसाधनों के लिए पीएएम मॉड्यूल की वजह से वास्तव में परिणाम आप वर्णित: मेरा प्रक्रिया पाठ के साथ रहस्यमय तरीके से मौत हो गई थी किल्ड कंसोल विंडो पर। कोई लॉग आउटपुट, न तो syslog में और न ही kern.log मेंशीर्ष कार्यक्रम मुझे मदद मिली है कि CPU उपयोग में से एक बिल्कुल के बाद मिनट मेरी प्रक्रिया को मार डाला जाता है की खोज के लिए।


8

Systemtap (या ट्रैसर) जैसे उपकरण कर्नेल सिग्नल-ट्रांसमिशन लॉजिक और रिपोर्ट की निगरानी कर सकते हैं। जैसे, https://sourceware.org/systemtap/examples/process/sigmon.stp

# stap .../sigmon.stp -x 31994 SIGKILL
   SPID     SNAME            RPID  RNAME            SIGNUM SIGNAME
   5609     bash             31994 find             9      SIGKILL

ifउस स्क्रिप्ट में फ़िल्टरिंग ब्लॉक को स्वाद के लिए समायोजित किया जा सकता है, या सिस्टमवाइड सिग्नल ट्रैफ़िक का पता लगाने के लिए समाप्त किया जा सकता है। कारणों को और अधिक अलग-अलग करके संग्रहित किया जा सकता है ( कर्नेल- और उपयोक्ता (क्रमशः) के लिए print_backtrace()और / या print_ubacktrace()जांच में जोड़ें )।


4

एक lsf वातावरण में (इंटरेक्टिव या अन्यथा) यदि एप्लिकेशन कतार से कुछ पूर्व निर्धारित सीमा से कुछ प्रीसेट सीमा से परे मेमोरी उपयोग से अधिक हो या कतार में संसाधन अनुरोध सबमिट हो जाए, तो प्रक्रियाओं को मार दिया जाएगा ताकि अन्य उपयोगकर्ता संभावित रूप से शिकार न हों भाग जाओ। यह हमेशा ऐसा करने पर ईमेल नहीं भेजता है, यह इसके सेट अप के आधार पर होता है।

इस मामले में एक समाधान यह है कि बड़े संसाधनों के साथ एक कतार खोजें या प्रस्तुत करने में बड़ी संसाधन आवश्यकताओं को परिभाषित करें।

आप समीक्षा करना भी चाह सकते हैं man ulimit

हालाँकि मुझे याद नहीं है कि इसके ulimitपरिणाम में Killedथोड़ी देर हो गई है क्योंकि मुझे इसकी आवश्यकता है।


2

हमारे पास एक कस्टमर साइट (रेड हैट, मुझे लगता है) पर लिनक्स के तहत समस्याएं आ रही हैं, OOMKiller (आउट-ऑफ-मेमोरी किलर) के साथ हमारे सिद्धांत अनुप्रयोग (यानी सर्वर मौजूद है) और यह डेटा बेस प्रक्रियाओं दोनों को मार रहा है।

प्रत्येक मामले में OOMKiller ने बस यह तय किया कि प्रक्रियाएं बहुत संसाधनों का उपयोग कर रही थीं ... मशीन संसाधनों की कमी के लिए भी विफल नहीं थी। न तो एप्लिकेशन और न ही डेटाबेस में मेमोरी लीक (या किसी अन्य संसाधन रिसाव) के साथ समस्याएं हैं।

मैं लिनक्स विशेषज्ञ नहीं हूं, लेकिन मैंने यह तय करने के लिए एल्गोरिथ्म इकट्ठा किया कि किसी चीज को कब मारना है और क्या मारना है। इसके अलावा, मुझे बताया गया था (मैं इस बारे में सटीकता से बात नहीं कर सकता) कि OOMKiller को कर्नेल में बेक किया गया है और आप बस इसे नहीं चला सकते हैं।


1
IIRC, OOMKiller को केवल अंतिम उपाय के रूप में लागू किया जाता है। मुझे लगता है कि सिस्टम विभिन्न एप्स को एक सिग्नल भेजेगा, जिससे उन्हें OOMKiller का आह्वान करने के लिए मजबूर होने से पहले कुछ संसाधनों को छोड़ना होगा। नमक के एक दाने के साथ लें, क्योंकि यह लंबे समय से है ...
rmeador

1
आप कर सकते हैं बस इसे नहीं चला। इसे कर्नेल में बेक किया जाता है, लेकिन यह ट्यून करने का विकल्प है कि यह कैसे चलता है, और यहां तक ​​कि किन प्रक्रियाओं से इसे मारने की संभावना है। यह तब चलता है जब पूरा सिस्टम मेमोरी से बाहर होता है, न कि जब कोई विशिष्ट प्रक्रिया बहुत अधिक उपयोग कर रही हो। अधिक जानकारी के लिए मेरा जवाब देखें।
एडम जास्किविकेज़

6
Oomkiller नहीं चलाना बहुत आसान है। echo "2" > /proc/sys/vm/overcommit_memory
आर .. गिटहब स्टॉप हेल्पिंग आईसीई

Red Hat इसे बदलने की अनुमति नहीं देना चाहता: sudo echo "2" > /proc/sys/vm/overcommit_memory/ proc / sys / vm / overcommit_memory: अनुमति से इनकार किया
ब्रेंट Faust

2
कोशिश करेंecho 2 | sudo tee /proc/sys/vm/overcommit_memory
हाइपरशासी 20

2

मेरे मामले में यह एक लारावेल कतार कार्यकर्ता के साथ हो रहा था। सिस्टम लॉग में किसी भी हत्या का उल्लेख नहीं था इसलिए मैंने आगे देखा और यह पता चला कि कार्यकर्ता मूल रूप से एक नौकरी के कारण खुद को मार रहा था जो मेमोरी सीमा से अधिक था (जो डिफ़ॉल्ट रूप से 128M पर सेट है)।

के साथ कतार कार्यकर्ता चल रहा है --timeout=600और --memory=1024मेरे लिए समस्या तय की।


0

उपयोगकर्ता को मारने या नियंत्रण + सी का उपयोग करके अपने स्वयं के कार्यक्रमों को मारने की क्षमता है, लेकिन मुझे लगता है कि ऐसा नहीं हुआ है और उपयोगकर्ता ने आपसे शिकायत की है।

रूट में बेशक कार्यक्रमों को मारने की क्षमता है, लेकिन अगर किसी के पास आपकी मशीन पर जड़ें हैं और सामान को मार रहा है तो आपको बड़ी समस्या है।

यदि आप sysadmin नहीं हैं, तो sysadmin ने CPU, RAM, ort डिस्क उपयोग और ऑटो-किल्स प्रक्रियाओं पर कोटा निर्धारित किया है जो उनसे अधिक हो सकते हैं।

उन अनुमानों के अलावा, मुझे इस कार्यक्रम के बारे में अधिक जानकारी के बिना यकीन नहीं है।


6
CTRL-C ओप रिपोर्टेड (SIGINT (2) की तुलना में मुझे याद करते हुए एक अलग मार भेजता है, जबकि कार्यक्रम एक SIGKILL (9) प्राप्त कर रहा है)।
पॉवरलॉर्ड

0

मैंने हाल ही में इस समस्या का सामना किया। अंत में, मैंने पाया कि ओपेंस्यूज़ ज़िपर अपडेट को स्वचालित रूप से कॉल किए जाने के तुरंत बाद मेरी प्रक्रियाएं मार दी गईं। Zypper अद्यतन को अक्षम करने के लिए मेरी समस्या हल हो गई।


मैं उसी मुद्दे को देख रहा हूं। कैसे यू नीचे ट्रैक किया जो प्रक्रिया आपकी प्रक्रिया को मार डाला? लगता है कि जाँच करने के लिए एक उपकरण है जो SIGKILL को एक प्रक्रिया में भेजता है।
होवी

0

स्वैप का आकार बढ़ाकर इस मुद्दे को हल किया :

/ubuntu/1075505/how-do-i-increase-swapfile-in-ubuntu-18-04


3
कृपया अन्य स्टैक एक्सचेंज प्रश्नों के लिंक-केवल उत्तर पोस्ट न करें। इसके बजाय, यहां उत्तर के आवश्यक अंशों को शामिल करें, और इस विशिष्ट प्रश्न के उत्तर को दर्जी करें।
डबल-बीप
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.