लिनक्स पर अदृश्य मेमोरी लीक - उबंटू सर्वर (डिस्क कैश / बफ़र्स नहीं!)


23

अगस्त 2015 सारांश

कृपया ध्यान दें, यह अभी भी हो रहा है। यह linuxatemyram.com से संबंधित नहीं है - मेमोरी का उपयोग डिस्क कैश / बफ़र्स के लिए नहीं किया जाता है। यह न्यूरेलिक में जैसा दिखता है - सिस्टम सभी मेमोरी को लीक करता है, सभी स्वैप स्पेस का उपयोग करता है और फिर क्रैश होता है। इस स्क्रीनशॉट में मैंने क्रैश होने से पहले सर्वर को रिबूट किया:

यहाँ छवि विवरण दर्ज करें

सामान्य उपयोगकर्ता उपकरण का उपयोग करके रिसाव के स्रोत की पहचान करना असंभव है। इस मुद्दे पर चर्चा करने के लिए अब एक चैट रूम है: http://chat.stackexchange.com/rooms/27309/invanish-memory-leak-on-linux

"लापता" मेमोरी को पुनर्प्राप्त करने का एकमात्र तरीका सर्वर को रिबूट करना प्रतीत होता है। यह उबंटू सर्वर 14.04, 14.10 और 15.04 में लंबे समय से जारी समस्या है।

चोटी

मेमोरी का उपयोग शीर्ष में नहीं दिखता है और हर प्रक्रिया के बारे में सिर्फ मारने के बाद भी पुनर्प्राप्त नहीं किया जा सकता है (कर्नेल प्रक्रियाओं और ssh जैसी चीजों को छोड़कर)। शीर्ष पर "कैश्ड मेम", "बफ़र्स" और "फ्री" फ़ील्ड देखें, वे मेमोरी का उपयोग नहीं कर रहे हैं, उपयोग की गई मेमोरी रिबूट के बिना "लापता" और अप्राप्य है।

इस "लापता" मेमोरी का उपयोग करने का प्रयास करने से सर्वर स्वैप, एक क्रॉल की गति और अंततः फ्रीज हो जाता है।

root@XanBox:~# top -o +%MEM
top - 12:12:13 up 15 days, 20:39,  3 users,  load average: 0.00, 0.06, 0.77
Tasks: 126 total,   1 running, 125 sleeping,   0 stopped,   0 zombie
%Cpu(s):  0.1 us,  0.2 sy,  0.0 ni, 99.7 id,  0.0 wa,  0.1 hi,  0.0 si,  0.0 st
KiB Mem:   2,040,256 total,  1,881,228 used,    159,028 free,     1,348 buffers
KiB Swap:  1,999,868 total,     27,436 used,  1,972,432 free.    67,228 cached Mem

  PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND
11502 root      20   0  107692   4252   3240 S   0.0  0.2   0:00.06 sshd: deployer [priv]
11336 root      20   0  107692   4248   3240 S   0.0  0.2   0:00.06 sshd: deployer [priv]
11841 root      20   0  107692   4248   3240 S   0.0  0.2   0:00.06 sshd: deployer [priv]
11301 root      20   0   26772   3436   2688 S   0.7  0.2   0:01.30 /usr/sbin/openvpn --writepid /var/run/openvpn.zanview.com.pid --status /var/run/openvpn.zanview.com.status 10 --cd /etc/openvpn --config /etc/openvpn/z+
11385 deployer  20   0   19972   2392   1708 S   0.0  0.1   0:00.03 -bash
11553 deployer  20   0   19972   2388   1708 S   0.0  0.1   0:00.03 -bash
11890 deployer  20   0   19972   2388   1708 S   0.0  0.1   0:00.02 -bash
11889 deployer  20   0  108008   2280    944 S   0.0  0.1   0:00.25 sshd: deployer@pts/3
12009 root      20   0   18308   2228   1608 S   0.0  0.1   0:00.09 -su
12114 root      20   0   18308   2192   1564 S   0.0  0.1   0:00.04 -su
12007 root      20   0   67796   2136   1644 S   0.0  0.1   0:00.01 sudo su -
12112 root      20   0   67796   2136   1644 S   0.0  0.1   0:00.01 sudo su -
12008 root      20   0   67376   2016   1528 S   0.0  0.1   0:00.01 su -
12113 root      20   0   67376   2012   1528 S   0.0  0.1   0:00.01 su -
    1 root      20   0   33644   1988    764 S   0.0  0.1   2:29.77 /sbin/init
11552 deployer  20   0  107692   1952    936 S   0.0  0.1   0:00.07 sshd: deployer@pts/2
11384 deployer  20   0  107692   1948    936 S   0.0  0.1   0:00.06 sshd: deployer@pts/0
12182 root      20   0   20012   1516   1012 R   0.7  0.1   0:00.08 top -o +%MEM
 1152 message+  20   0   39508   1448    920 S   0.0  0.1   1:40.01 dbus-daemon --system --fork
 1791 root      20   0  279832   1312    816 S   0.0  0.1   1:16.18 /usr/lib/policykit-1/polkitd --no-debug
 1186 root      20   0   43736    984    796 S   0.0  0.0   1:13.07 /lib/systemd/systemd-logind
 1212 syslog    20   0  256228    688    184 S   0.0  0.0   1:41.29 rsyslogd
 5077 root      20   0   25324    648    520 S   0.0  0.0   0:34.35 /usr/sbin/hostapd -B -P /var/run/hostapd.pid /etc/hostapd/hostapd.conf
  336 root      20   0   19476    512    376 S   0.0  0.0   0:07.40 upstart-udev-bridge --daemon
  342 root      20   0   51228    468    344 S   0.0  0.0   0:00.85 /lib/systemd/systemd-udevd --daemon
 1097 root      20   0   15276    364    256 S   0.0  0.0   0:06.39 upstart-file-bridge --daemon
 4921 root      20   0   61364    364    240 S   0.0  0.0   0:00.05 /usr/sbin/sshd -D
  745 root      20   0   15364    252    180 S   0.0  0.0   0:06.51 upstart-socket-bridge --daemon
 4947 root      20   0   23656    168    100 S   0.0  0.0   0:14.70 cron
11290 daemon    20   0   19140    164      0 S   0.0  0.0   0:00.00 atd
  850 root      20   0   23420     80     16 S   0.0  0.0   0:11.00 rpcbind
  872 statd     20   0   21544      8      4 S   0.0  0.0   0:00.00 rpc.statd -L
 4880 root      20   0   14540      4      0 S   0.0  0.0   0:00.00 /sbin/getty -8 38400 tty4
 4883 root      20   0   14540      4      0 S   0.0  0.0   0:00.00 /sbin/getty -8 38400 tty5
 4890 root      20   0   14540      4      0 S   0.0  0.0   0:00.00 /sbin/getty -8 38400 tty2
 4891 root      20   0   14540      4      0 S   0.0  0.0   0:00.00 /sbin/getty -8 38400 tty3
 4894 root      20   0   14540      4      0 S   0.0  0.0   0:00.00 /sbin/getty -8 38400 tty6
 4919 root      20   0    4368      4      0 S   0.0  0.0   0:00.00 acpid -c /etc/acpi/events -s /var/run/acpid.socket
 5224 root      20   0   24048      4      0 S   0.0  0.0   0:00.00 /usr/sbin/rpc.mountd --manage-gids
 6160 root      20   0   14540      4      0 S   0.0  0.0   0:00.00 /sbin/getty -8 38400 tty1
    2 root      20   0       0      0      0 S   0.0  0.0   0:03.44 [kthreadd]
    3 root      20   0       0      0      0 S   0.0  0.0   1:04.63 [ksoftirqd/0]
    5 root       0 -20       0      0      0 S   0.0  0.0   0:00.00 [kworker/0:0H]
    7 root      20   0       0      0      0 S   0.0  0.0  16:03.32 [rcu_sched]
    8 root      20   0       0      0      0 S   0.0  0.0   4:08.79 [rcuos/0]
    9 root      20   0       0      0      0 S   0.0  0.0   4:10.42 [rcuos/1]
   10 root      20   0       0      0      0 S   0.0  0.0   4:30.71 [rcuos/2]

हार्डवेयर

मैंने इसे लगभग 100 में से 3 सर्वरों पर अब तक देखा है (हालांकि अन्य प्रभावित हो सकते हैं)। एक इंटेल एटम D525 @ 1.8ghz है और अन्य 2 Core2Duo E4600 और Q6600 हैं। एक JMicron Technology Corp. JMC250 PCI एक्सप्रेस गिगाबिट इथरनेट कंट्रोलर का उपयोग कर रहा है, दूसरे लोग क्वालकॉम एथेरोस अटैंसिक L1 गिगाबिट इथरनेट (Rev b0) का उपयोग कर रहे हैं।

मैं मुसीबत सर्वर पर और साथ ही एक उदाहरण ओके सर्वर पर lshw भाग गया। समस्या सर्वर: http://pastie.org/10370534 http://pastie.org/10370537 और http://pastie.org/10370541 - ठीक है सर्वर: http://pastie.org/10370544

आवेदन

यह पूरी तरह से हेडलेस एप्लिकेशन है। कोई मॉनिटर जुड़ा नहीं है और वास्तव में कोई भी XServer स्थापित नहीं है। यह ग्राफिक्स ड्राइवरों / मुद्दों से इंकार करना चाहिए।

सर्वर live555ProxyServer, ffmpeg और openCV का उपयोग करके RTSP वीडियो का प्रॉक्सी और विश्लेषण करने के लिए उपयोग किया जाता है। ये सर्वर बहुत सारे ट्रैफ़िक से गुजरते हैं क्योंकि यह एक सीसीटीवी एप्लिकेशन है: http://pastie.org/9558324

मैंने live555, ffmpeg और openCV दोनों बहुत पुराने और नवीनतम ट्रंक संस्करणों को बिना किसी बदलाव के आज़माया है। मैं भी python2 और python3 मॉड्यूल के माध्यम से opencv का उपयोग करने की कोशिश की है, कोई बदलाव नहीं।

ठीक उसी सॉफ़्टवेयर / कॉन्फ़िगरेशन को 100 सर्वर के करीब लोड किया गया है, अब तक 3 मेमोरी को लीक करने की पुष्टि की जाती है। सर्वर धीरे-धीरे और चुपके से एक्सएमबी के आसपास लीक हो जाता है (एक लीक 8 एमबी, एक धीमी है, एक तेज है) प्रति घंटे तक जब तक कि सभी राम चले नहीं जाते, सर्वर भारी रूप से स्वैप करना शुरू कर देते हैं, एक क्रॉल को धीमा करते हैं और रिबूट की आवश्यकता होती है।

meminfo

फिर से, आप कैश्ड और बफ़र्स को बहुत अधिक मेमोरी का उपयोग नहीं करते हुए देख सकते हैं। HugePages भी अक्षम हैं इसलिए यह अपराधी नहीं है।

root@XanBox:~# cat /proc/meminfo
MemTotal:          2,040,256 kB
MemFree:             159,004 kB
Buffers:               1,348 kB
Cached:               67,228 kB
SwapCached:            9,940 kB
Active:               10,788 kB
Inactive:             81,120 kB
Active(anon):          1,900 kB
Inactive(anon):       21,512 kB
Active(file):          8,888 kB
Inactive(file):       59,608 kB
Unevictable:               0 kB
Mlocked:                   0 kB
SwapTotal:         1,999,868 kB
SwapFree:          1,972,432 kB
Dirty:                     0 kB
Writeback:                 0 kB
AnonPages:            14,496 kB
Mapped:                8,160 kB
Shmem:                    80 kB
Slab:                 33,472 kB
SReclaimable:         17,660 kB
SUnreclaim:           15,812 kB
KernelStack:           1,064 kB
PageTables:            3,992 kB
NFS_Unstable:              0 kB
Bounce:                    0 kB
WritebackTmp:              0 kB
CommitLimit:       3,019,996 kB
Committed_AS:         94,520 kB
VmallocTotal: 34,359,738,367 kB
VmallocUsed:         535,936 kB
VmallocChunk: 34,359,147,772 kB
HardwareCorrupted:         0 kB
AnonHugePages:             0 kB
HugePages_Total:           0
HugePages_Free:            0
HugePages_Rsvd:            0
HugePages_Surp:            0
Hugepagesize:          2,048 kB
DirectMap4k:          62,144 kB
DirectMap2M:       2,025,472 kB

मुफ्त आउटपुट

नि: शुल्क निम्न दिखाता है (नोट कैश और बफ़र दोनों कम हैं इसलिए यह डिस्क कैश या बफ़र्स नहीं है!) - रिबूट के बिना मेमोरी पुनर्प्राप्त करने योग्य नहीं है:

root@XanBox:~# free -m
             total       used       free     shared    buffers     cached
Mem:         1,992      1,838        153          0          1         66

यदि हम बफ़र्स / कैश को उपयोग और मुफ्त में जोड़ते / घटाते हैं, तो हम देखते हैं:

  • 1,772MB वास्तव में प्रयुक्त (- बफ़र्स / कैश) = 1,838MB का उपयोग किया गया - 1MB बफ़र्स - 66MB कैश
  • 220 एमबी वास्तव में नि: शुल्क (+ बफ़र्स / कैश) = 154 एमबी मुफ्त + 1 एमबी बफ़र्स + 66 एमबी कैश

बिल्कुल वैसा ही जैसा हम उम्मीद करते हैं:

-/+ buffers/cache:      1,772        220

तो लगभग 1.7GB यूजर्स द्वारा उपयोग नहीं किया जाता है और वास्तव में कर्नेल द्वारा उपयोग किया जाता है क्योंकि सिस्टम वास्तव में 53.7MB (नीचे पीएस मेम आउटपुट देखें) का उपयोग कर रहा है।

मुझे लगता है कि 1.7GB कैशिंग / बफ़र्स के लिए उपयोग की जाने वाली टिप्पणियों की मात्रा से आश्चर्यचकित हूं - यह मूल रूप से आउटपुट का गलत उपयोग कर रहा है! - इस पंक्ति का अर्थ है बफ़र्स / कैश को छोड़कर उपयोग की जाने वाली मेमोरी , विवरण के लिए linuxatemyram.com देखें।

पुनश्च उत्पादन

यहां मेमोरी द्वारा क्रमबद्ध चल रही प्रक्रियाओं की पूरी सूची है:

# ps -e -o pid,vsz,comm= | sort -n -k 2
    2      0 kthreadd
    3      0 ksoftirqd/0
    5      0 kworker/0:0H
    7      0 rcu_sched
    8      0 rcuos/0
    9      0 rcuos/1
   10      0 rcuos/2
   11      0 rcuos/3
   12      0 rcu_bh
   13      0 rcuob/0
   14      0 rcuob/1
   15      0 rcuob/2
   16      0 rcuob/3
   17      0 migration/0
   18      0 watchdog/0
   19      0 watchdog/1
   20      0 migration/1
   21      0 ksoftirqd/1
   23      0 kworker/1:0H
   24      0 watchdog/2
   25      0 migration/2
   26      0 ksoftirqd/2
   28      0 kworker/2:0H
   29      0 watchdog/3
   30      0 migration/3
   31      0 ksoftirqd/3
   32      0 kworker/3:0
   33      0 kworker/3:0H
   34      0 khelper
   35      0 kdevtmpfs
   36      0 netns
   37      0 writeback
   38      0 kintegrityd
   39      0 bioset
   41      0 kblockd
   42      0 ata_sff
   43      0 khubd
   44      0 md
   45      0 devfreq_wq
   46      0 kworker/0:1
   47      0 kworker/1:1
   48      0 kworker/2:1
   50      0 khungtaskd
   51      0 kswapd0
   52      0 ksmd
   53      0 khugepaged
   54      0 fsnotify_mark
   55      0 ecryptfs-kthrea
   56      0 crypto
   68      0 kthrotld
   70      0 scsi_eh_0
   71      0 scsi_eh_1
   92      0 deferwq
   93      0 charger_manager
   94      0 kworker/1:2
   95      0 kworker/3:2
  149      0 kpsmoused
  155      0 jbd2/sda1-8
  156      0 ext4-rsv-conver
  316      0 jbd2/sda3-8
  317      0 ext4-rsv-conver
  565      0 kmemstick
  770      0 cfg80211
  818      0 hd-audio0
  853      0 kworker/2:2
  953      0 rpciod
  PID    VSZ
 1714      0 kauditd
11335      0 kworker/0:2
12202      0 kworker/u8:2
20228      0 kworker/u8:0
25529      0 kworker/u9:1
28305      0 kworker/u9:2
29822      0 lockd
 4919   4368 acpid
 4074   7136 ps
 6681  10232 dhclient
 4880  14540 getty
 4883  14540 getty
 4890  14540 getty
 4891  14540 getty
 4894  14540 getty
 6160  14540 getty
14486  15260 upstart-socket-
14489  15276 upstart-file-br
12009  18308 bash
12114  18308 bash
12289  18308 bash
 4075  19008 sort
11290  19140 atd
14483  19476 upstart-udev-br
11385  19972 bash
11553  19972 bash
11890  19972 bash
29503  21544 rpc.statd
 2847  23384 htop
  850  23420 rpcbind
29588  23480 rpc.idmapd
 4947  23656 cron
29833  24048 rpc.mountd
 5077  25324 hostapd
11301  26912 openvpn
    1  37356 init
 1152  39508 dbus-daemon
14673  43452 systemd-logind
14450  51204 systemd-udevd
 4921  61364 sshd
12008  67376 su
12113  67376 su
12288  67376 su
12007  67796 sudo
12112  67796 sudo
12287  67796 sudo
11336 107692 sshd
11384 107692 sshd
11502 107692 sshd
11841 107692 sshd
11552 108008 sshd
11889 108008 sshd
 1212 256228 rsyslogd
 1791 279832 polkitd
 4064 335684 whoopsie

यहाँ सभी चल रही प्रक्रियाओं की पूरी सूची है:

root@XanBox:~# ps aux
USER       PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
root         1  0.0  0.0  33644  1988 ?        Ss   Jul21   2:29 /sbin/init
root         2  0.0  0.0      0     0 ?        S    Jul21   0:03 [kthreadd]
root         3  0.0  0.0      0     0 ?        S    Jul21   1:04 [ksoftirqd/0]
root         5  0.0  0.0      0     0 ?        S<   Jul21   0:00 [kworker/0:0H]
root         7  0.0  0.0      0     0 ?        S    Jul21  16:03 [rcu_sched]
root         8  0.0  0.0      0     0 ?        S    Jul21   4:08 [rcuos/0]
root         9  0.0  0.0      0     0 ?        S    Jul21   4:10 [rcuos/1]
root        10  0.0  0.0      0     0 ?        S    Jul21   4:30 [rcuos/2]
root        11  0.0  0.0      0     0 ?        S    Jul21   4:28 [rcuos/3]
root        12  0.0  0.0      0     0 ?        S    Jul21   0:00 [rcu_bh]
root        13  0.0  0.0      0     0 ?        S    Jul21   0:00 [rcuob/0]
root        14  0.0  0.0      0     0 ?        S    Jul21   0:00 [rcuob/1]
root        15  0.0  0.0      0     0 ?        S    Jul21   0:00 [rcuob/2]
root        16  0.0  0.0      0     0 ?        S    Jul21   0:00 [rcuob/3]
root        17  0.0  0.0      0     0 ?        S    Jul21   0:13 [migration/0]
root        18  0.0  0.0      0     0 ?        S    Jul21   0:08 [watchdog/0]
root        19  0.0  0.0      0     0 ?        S    Jul21   0:07 [watchdog/1]
root        20  0.0  0.0      0     0 ?        S    Jul21   0:13 [migration/1]
root        21  0.0  0.0      0     0 ?        S    Jul21   1:03 [ksoftirqd/1]
root        23  0.0  0.0      0     0 ?        S<   Jul21   0:00 [kworker/1:0H]
root        24  0.0  0.0      0     0 ?        S    Jul21   0:07 [watchdog/2]
root        25  0.0  0.0      0     0 ?        S    Jul21   0:23 [migration/2]
root        26  0.0  0.0      0     0 ?        S    Jul21   1:01 [ksoftirqd/2]
root        28  0.0  0.0      0     0 ?        S<   Jul21   0:00 [kworker/2:0H]
root        29  0.0  0.0      0     0 ?        S    Jul21   0:07 [watchdog/3]
root        30  0.0  0.0      0     0 ?        S    Jul21   0:23 [migration/3]
root        31  0.0  0.0      0     0 ?        S    Jul21   1:03 [ksoftirqd/3]
root        32  0.0  0.0      0     0 ?        S    Jul21   0:00 [kworker/3:0]
root        33  0.0  0.0      0     0 ?        S<   Jul21   0:00 [kworker/3:0H]
root        34  0.0  0.0      0     0 ?        S<   Jul21   0:00 [khelper]
root        35  0.0  0.0      0     0 ?        S    Jul21   0:00 [kdevtmpfs]
root        36  0.0  0.0      0     0 ?        S<   Jul21   0:00 [netns]
root        37  0.0  0.0      0     0 ?        S<   Jul21   0:00 [writeback]
root        38  0.0  0.0      0     0 ?        S<   Jul21   0:00 [kintegrityd]
root        39  0.0  0.0      0     0 ?        S<   Jul21   0:00 [bioset]
root        41  0.0  0.0      0     0 ?        S<   Jul21   0:00 [kblockd]
root        42  0.0  0.0      0     0 ?        S<   Jul21   0:00 [ata_sff]
root        43  0.0  0.0      0     0 ?        S    Jul21   0:00 [khubd]
root        44  0.0  0.0      0     0 ?        S<   Jul21   0:00 [md]
root        45  0.0  0.0      0     0 ?        S<   Jul21   0:00 [devfreq_wq]
root        46  0.0  0.0      0     0 ?        S    Jul21  18:51 [kworker/0:1]
root        47  0.0  0.0      0     0 ?        S    Jul21   0:00 [kworker/1:1]
root        48  0.0  0.0      0     0 ?        S    Jul21   1:14 [kworker/2:1]
root        50  0.0  0.0      0     0 ?        S    Jul21   0:01 [khungtaskd]
root        51  0.4  0.0      0     0 ?        S    Jul21  95:51 [kswapd0]
root        52  0.0  0.0      0     0 ?        SN   Jul21   0:00 [ksmd]
root        53  0.0  0.0      0     0 ?        SN   Jul21   0:28 [khugepaged]
root        54  0.0  0.0      0     0 ?        S    Jul21   0:00 [fsnotify_mark]
root        55  0.0  0.0      0     0 ?        S    Jul21   0:00 [ecryptfs-kthrea]
root        56  0.0  0.0      0     0 ?        S<   Jul21   0:00 [crypto]
root        68  0.0  0.0      0     0 ?        S<   Jul21   0:00 [kthrotld]
root        70  0.0  0.0      0     0 ?        S    Jul21   0:00 [scsi_eh_0]
root        71  0.0  0.0      0     0 ?        S    Jul21   0:00 [scsi_eh_1]
root        92  0.0  0.0      0     0 ?        S<   Jul21   0:00 [deferwq]
root        93  0.0  0.0      0     0 ?        S<   Jul21   0:00 [charger_manager]
root        94  0.0  0.0      0     0 ?        S    Jul21   1:05 [kworker/1:2]
root        95  0.0  0.0      0     0 ?        S    Jul21   1:08 [kworker/3:2]
root       149  0.0  0.0      0     0 ?        S<   Jul21   0:00 [kpsmoused]
root       155  0.0  0.0      0     0 ?        S    Jul21   3:39 [jbd2/sda1-8]
root       156  0.0  0.0      0     0 ?        S<   Jul21   0:00 [ext4-rsv-conver]
root       316  0.0  0.0      0     0 ?        S    Jul21   1:28 [jbd2/sda3-8]
root       317  0.0  0.0      0     0 ?        S<   Jul21   0:00 [ext4-rsv-conver]
root       336  0.0  0.0  19476   512 ?        S    Jul21   0:07 upstart-udev-bridge --daemon
root       342  0.0  0.0  51228   468 ?        Ss   Jul21   0:00 /lib/systemd/systemd-udevd --daemon
root       565  0.0  0.0      0     0 ?        S<   Jul21   0:00 [kmemstick]
root       745  0.0  0.0  15364   252 ?        S    Jul21   0:06 upstart-socket-bridge --daemon
root       770  0.0  0.0      0     0 ?        S<   Jul21   0:00 [cfg80211]
root       818  0.0  0.0      0     0 ?        S<   Jul21   0:00 [hd-audio0]
root       850  0.0  0.0  23420    80 ?        Ss   Jul21   0:11 rpcbind
root       853  0.0  0.0      0     0 ?        S    Jul21   0:00 [kworker/2:2]
statd      872  0.0  0.0  21544     8 ?        Ss   Jul21   0:00 rpc.statd -L
root       953  0.0  0.0      0     0 ?        S<   Jul21   0:00 [rpciod]
root      1097  0.0  0.0  15276   364 ?        S    Jul21   0:06 upstart-file-bridge --daemon
message+  1152  0.0  0.0  39508  1448 ?        Ss   Jul21   1:40 dbus-daemon --system --fork
root      1157  0.0  0.0  23480     0 ?        Ss   Jul21   0:00 rpc.idmapd
root      1186  0.0  0.0  43736   984 ?        Ss   Jul21   1:13 /lib/systemd/systemd-logind
syslog    1212  0.0  0.0 256228   688 ?        Ssl  Jul21   1:41 rsyslogd
root      1714  0.0  0.0      0     0 ?        S    Jul21   0:00 [kauditd]
root      1791  0.0  0.0 279832  1312 ?        Sl   Jul21   1:16 /usr/lib/policykit-1/polkitd --no-debug
root      4880  0.0  0.0  14540     4 tty4     Ss+  Jul21   0:00 /sbin/getty -8 38400 tty4
root      4883  0.0  0.0  14540     4 tty5     Ss+  Jul21   0:00 /sbin/getty -8 38400 tty5
root      4890  0.0  0.0  14540     4 tty2     Ss+  Jul21   0:00 /sbin/getty -8 38400 tty2
root      4891  0.0  0.0  14540     4 tty3     Ss+  Jul21   0:00 /sbin/getty -8 38400 tty3
root      4894  0.0  0.0  14540     4 tty6     Ss+  Jul21   0:00 /sbin/getty -8 38400 tty6
root      4919  0.0  0.0   4368     4 ?        Ss   Jul21   0:00 acpid -c /etc/acpi/events -s /var/run/acpid.socket
root      4921  0.0  0.0  61364   364 ?        Ss   Jul21   0:00 /usr/sbin/sshd -D
root      4947  0.0  0.0  23656   168 ?        Ss   Jul21   0:14 cron
root      5077  0.0  0.0  25324   648 ?        Ss   Jul21   0:34 /usr/sbin/hostapd -B -P /var/run/hostapd.pid /etc/hostapd/hostapd.conf
root      5192  0.0  0.0      0     0 ?        S    Jul21   0:00 [lockd]
root      5224  0.0  0.0  24048     4 ?        Ss   Jul21   0:00 /usr/sbin/rpc.mountd --manage-gids
root      6160  0.0  0.0  14540     4 tty1     Ss+  Jul21   0:00 /sbin/getty -8 38400 tty1
root      6681  0.0  0.0  10232     0 ?        Ss   11:07   0:00 dhclient -1 -v -pf /run/dhclient.eth0.pid -lf /var/lib/dhcp/dhclient.eth0.leases eth0
root      9452  0.0  0.0      0     0 ?        S    11:28   0:00 [kworker/u8:1]
root      9943  0.0  0.0      0     0 ?        S    11:42   0:00 [kworker/u8:0]
daemon   11290  0.0  0.0  19140   164 ?        Ss   11:59   0:00 atd
root     11301  0.2  0.1  26772  3436 ?        Ss   12:00   0:01 /usr/sbin/openvpn --writepid /var/run/openvpn.zanview.com.pid --status /var/run/openvpn.zanview.com.status 10 --cd /etc/openvpn --config /etc/openvpn/zanvie
root     11335  0.0  0.0      0     0 ?        S    12:01   0:00 [kworker/0:2]
root     11336  0.0  0.2 107692  4248 ?        Ss   12:01   0:00 sshd: deployer [priv]
deployer 11384  0.0  0.0 107692  1948 ?        S    12:01   0:00 sshd: deployer@pts/0
deployer 11385  0.0  0.1  19972  2392 pts/0    Ss+  12:01   0:00 -bash
root     11502  0.0  0.2 107692  4252 ?        Ss   12:01   0:00 sshd: deployer [priv]
deployer 11552  0.0  0.0 107692  1952 ?        S    12:01   0:00 sshd: deployer@pts/2
deployer 11553  0.0  0.1  19972  2388 pts/2    Ss   12:01   0:00 -bash
root     11841  0.0  0.2 107692  4248 ?        Ss   12:02   0:00 sshd: deployer [priv]
deployer 11889  0.0  0.1 108008  2280 ?        S    12:02   0:00 sshd: deployer@pts/3
deployer 11890  0.0  0.1  19972  2388 pts/3    Ss   12:02   0:00 -bash
root     12007  0.0  0.1  67796  2136 pts/3    S    12:02   0:00 sudo su -
root     12008  0.0  0.0  67376  2016 pts/3    S    12:02   0:00 su -
root     12009  0.0  0.1  18308  2228 pts/3    S+   12:02   0:00 -su
root     12112  0.0  0.1  67796  2136 pts/2    S    12:08   0:00 sudo su -
root     12113  0.0  0.0  67376  2012 pts/2    S    12:08   0:00 su -
root     12114  0.0  0.1  18308  2192 pts/2    S    12:08   0:00 -su
root     12180  0.0  0.0  15568  1160 pts/2    R+   12:09   0:00 ps aux
root     25529  0.0  0.0      0     0 ?        S<   Jul28   0:09 [kworker/u9:1]
root     28305  0.0  0.0      0     0 ?        S<   Aug05   0:00 [kworker/u9:2]

PS मेम आउटपुट

मैंने https://github.com/pixelb/ps_mem से ps_mem.py की भी कोशिश की

root@XanBox:~/ps_mem# python ps_mem.py
 Private  +   Shared  =  RAM used   Program

144.0 KiB +   9.5 KiB = 153.5 KiB   acpid
172.0 KiB +  29.5 KiB = 201.5 KiB   atd
248.0 KiB +  35.0 KiB = 283.0 KiB   cron
272.0 KiB +  84.0 KiB = 356.0 KiB   upstart-file-bridge
276.0 KiB +  84.5 KiB = 360.5 KiB   upstart-socket-bridge
280.0 KiB + 102.5 KiB = 382.5 KiB   upstart-udev-bridge
332.0 KiB +  54.5 KiB = 386.5 KiB   rpc.idmapd
368.0 KiB +  91.5 KiB = 459.5 KiB   rpcbind
388.0 KiB + 251.5 KiB = 639.5 KiB   systemd-logind
668.0 KiB +  43.5 KiB = 711.5 KiB   hostapd
576.0 KiB + 157.5 KiB = 733.5 KiB   systemd-udevd
676.0 KiB +  65.5 KiB = 741.5 KiB   rpc.mountd
604.0 KiB + 163.0 KiB = 767.0 KiB   rpc.statd
908.0 KiB +  62.5 KiB = 970.5 KiB   dbus-daemon [updated]
932.0 KiB + 117.0 KiB =   1.0 MiB   getty [updated] (6)
  1.0 MiB +  69.5 KiB =   1.1 MiB   openvpn
  1.0 MiB + 137.0 KiB =   1.2 MiB   polkitd
  1.5 MiB + 202.0 KiB =   1.7 MiB   htop
  1.4 MiB + 306.5 KiB =   1.7 MiB   whoopsie
  1.4 MiB + 279.0 KiB =   1.7 MiB   su (3)
  1.5 MiB + 268.5 KiB =   1.8 MiB   sudo (3)
  2.2 MiB +  11.5 KiB =   2.3 MiB   dhclient
  3.9 MiB + 741.0 KiB =   4.6 MiB   bash (6)
  5.3 MiB + 254.5 KiB =   5.5 MiB   init
  2.7 MiB +   3.3 MiB =   6.1 MiB   sshd (7)
 18.1 MiB +  56.5 KiB =  18.2 MiB   rsyslogd
---------------------------------
                         53.7 MiB
=================================

स्लैबटॉप आउटपुट

मैंने भी स्लैबटॉप की कोशिश की:

root@XanBox:~# slabtop -sc
 Active / Total Objects (% used)    : 131306 / 137558 (95.5%)
 Active / Total Slabs (% used)      : 3888 / 3888 (100.0%)
 Active / Total Caches (% used)     : 63 / 105 (60.0%)
 Active / Total Size (% used)       : 27419.31K / 29580.53K (92.7%)
 Minimum / Average / Maximum Object : 0.01K / 0.21K / 8.00K

  OBJS ACTIVE  USE OBJ SIZE  SLABS OBJ/SLAB CACHE SIZE NAME
  8288   7975  96%    0.57K    296       28      4736K inode_cache
 14259  12858  90%    0.19K    679       21      2716K dentry
  2384   1943  81%    0.96K    149       16      2384K ext4_inode_cache
 20916  20494  97%    0.11K    581       36      2324K sysfs_dir_cache
   624    554  88%    2.00K     39       16      1248K kmalloc-2048
   195    176  90%    5.98K     39        5      1248K task_struct
  6447   6387  99%    0.19K    307       21      1228K kmalloc-192
  2128   1207  56%    0.55K     76       28      1216K radix_tree_node
   768    761  99%    1.00K     48       16       768K kmalloc-1024
   176    155  88%    4.00K     22        8       704K kmalloc-4096
  1100   1100 100%    0.63K     44       25       704K proc_inode_cache
  1008   1008 100%    0.66K     42       24       672K shmem_inode_cache
  2640   2262  85%    0.25K    165       16       660K kmalloc-256
   300    300 100%    2.06K     20       15       640K sighand_cache
  5967   5967 100%    0.10K    153       39       612K buffer_head
  1152   1053  91%    0.50K     72       16       576K kmalloc-512
  3810   3810 100%    0.13K    127       30       508K ext4_allocation_context
    60     60 100%    8.00K     15        4       480K kmalloc-8192
   225    225 100%    2.06K     15       15       480K idr_layer_cache
  7616   7324  96%    0.06K    119       64       476K kmalloc-64
   700    700 100%    0.62K     28       25       448K sock_inode_cache
   252    252 100%    1.75K     14       18       448K TCP
  8925   8544  95%    0.05K    105       85       420K shared_policy_node
  3072   2351  76%    0.12K     96       32       384K kmalloc-128
   360    360 100%    1.06K     12       30       384K signal_cache
   432    337  78%    0.88K     24       18       384K mm_struct

अन्य

मैंने रूखंटर के साथ एक रूटकिट के लिए स्कैनिंग की भी कोशिश की - यह कुछ भी नहीं मिला। और मैंने कैश को सिंक और डंप करने की कोशिश की:

sync; sync; sync; echo 3 > /proc/sys/vm/drop_caches

इससे भी कोई फर्क नहीं पड़ा।

मैंने भी स्वैप को बाध्य करने या स्वैप को अक्षम करने का प्रयास किया:

sudo sysctl -w vm.swappiness=100
sudo swapoff /dev/sda2

मैंने मेमोरी द्वारा htop और सॉर्टिंग का उपयोग करने का भी प्रयास किया और यह नहीं दिखा रहा है कि मेमोरी कहाँ जा रही है। कर्नेल संस्करण लिनक्स 3.13.0-40-जेनेरिक # 69-उबंटू एसएमपी है।

Dmesg आउटपुट: http://pastie.org/9558255 smem आउटपुट: http://pastie.org/95588290

निष्कर्ष

क्या हो रहा है? - सभी स्मृति कहाँ जा रही है? - मैं कैसे जानूं?



आप आउटपुट गलत पढ़ रहे हैं - IO कैशिंग केवल 65 है, 1771 नहीं ...
Hackeron

1
@ user50300: linuxnix.com/2013/05/find-ram-size-in-linuxunix.html इस्तेमाल किया मेम - (बफ़र्स + कैश) = राम ऐप्स द्वारा उपयोग किया जाता है।
फ्रैंक थॉमस

@FrankThomas मैंने वह सब करने की कोशिश की है, कृपया मेरे प्रश्न को अधिक ध्यान से पढ़ें।
हैकरन

2
यह देखने की कोशिश करें कि क्या कुछ प्रक्रिया ने मेमोरी को ठीक से रिलीज़ नहीं किया है:sync && sudo echo 3 > /proc/sys/vm/drop_caches
14

जवाबों:


7

मेरा निष्कर्ष यह है कि लिनक्स कर्नेल में कहीं न कहीं एक कर्नेल मेमोरी लीक है, यही कारण है कि कोई भी उपयोगकर्ता उपकरण दिखाने में सक्षम नहीं है कि मेमोरी कहाँ लीक हो रही है। शायद यह इस सवाल से संबंधित है: /server/670423/linux-memory-usage-higher-than-sum-of-processes

मैंने कर्नेल संस्करण को 3.13 से 3.19 तक अपग्रेड किया है और ऐसा लगता है कि स्मृति रिसाव बंद हो गया है! - अगर मुझे फिर से एक रिसाव दिखाई देता है तो मैं रिपोर्ट करूंगा।

लिनक्स कर्नेल के विभिन्न हिस्सों के लिए कितनी मेमोरी का उपयोग किया जाता है यह देखने के लिए कुछ आसान / आसान तरीका होना अभी भी उपयोगी होगा। यह अभी भी एक रहस्य है कि 3.13 में रिसाव का कारण क्या था।


2

कहानी

मैं लिनक्स पर ZFS का उपयोग करके आपके मुद्दे को पुन: उत्पन्न कर सकता हूं ।

यहाँ एक सर्वर कहा है node51के साथ 20GBराम की। मैंने ZFS अनुकूली प्रतिस्थापन कैश (ARC) के16GiB लिए RAM को चिह्नित किया है :

root@node51 [~]# echo 17179869184 > /sys/module/zfs/parameters/zfs_arc_max
root@node51 [~]# grep c_max /proc/spl/kstat/zfs/arcstats
c_max                           4    17179869184

फिर, मैंने ARC को भरने के लिए अपने ZFS पूल में पाइप व्यूअर45GiB का उपयोग करके एक फ़ाइल पढ़ी :zeltik

root@node51 [~]# pv /zeltik/backup-backups/2014.04.11.squashfs > /dev/zero
  45GB 0:01:20 [ 575MB/s] [==================================>] 100%

अब मुक्त स्मृति को देखें:

root@node51 [~]# free -m
             total       used       free     shared    buffers     cached
Mem:         20013      19810        203          1         51         69
-/+ buffers/cache:      19688        324
Swap:         7557          0       7556

देखो!

51MiBबफ़र्स
69MiBमें कैशे
120MiBमें
19688MiBRAM के उपयोग में, बफ़र्स और कैशे
19568MiBमें RAM के बफ़र सहित , उपयोग में है

पायथन स्क्रिप्ट जिसे आपने रिपोर्ट में संदर्भित किया था कि अनुप्रयोग केवल थोड़ी मात्रा में रैम का उपयोग कर रहे हैं:

root@node51 [~]# python ps_mem.py
 Private  +   Shared  =  RAM used       Program

148.0 KiB +  54.0 KiB = 202.0 KiB       acpid
176.0 KiB +  47.0 KiB = 223.0 KiB       swapspace
184.0 KiB +  51.0 KiB = 235.0 KiB       atd
220.0 KiB +  57.0 KiB = 277.0 KiB       rpc.idmapd
304.0 KiB +  62.0 KiB = 366.0 KiB       irqbalance
312.0 KiB +  64.0 KiB = 376.0 KiB       sftp-server
308.0 KiB +  89.0 KiB = 397.0 KiB       rpcbind
300.0 KiB + 104.5 KiB = 404.5 KiB       cron
368.0 KiB +  99.0 KiB = 467.0 KiB       upstart-socket-bridge
560.0 KiB + 180.0 KiB = 740.0 KiB       systemd-logind
724.0 KiB +  93.0 KiB = 817.0 KiB       dbus-daemon
720.0 KiB + 136.0 KiB = 856.0 KiB       systemd-udevd
912.0 KiB + 118.5 KiB =   1.0 MiB       upstart-udev-bridge
920.0 KiB + 180.0 KiB =   1.1 MiB       rpc.statd (2)
  1.0 MiB + 129.5 KiB =   1.1 MiB       screen
  1.1 MiB +  84.5 KiB =   1.2 MiB       upstart-file-bridge
960.0 KiB + 452.0 KiB =   1.4 MiB       getty (6)
  1.6 MiB + 143.0 KiB =   1.7 MiB       init
  5.1 MiB +   1.5 MiB =   6.5 MiB       bash (3)
  5.7 MiB +   5.2 MiB =  10.9 MiB       sshd (8)
 11.7 MiB + 322.0 KiB =  12.0 MiB       glusterd
 27.3 MiB +  99.0 KiB =  27.4 MiB       rsyslogd
 67.4 MiB + 453.0 KiB =  67.8 MiB       glusterfsd (2)
---------------------------------
                        137.4 MiB
=================================

19568MiB - 137.4MiB ≈ 19431MiB बेहिसाब RAM

व्याख्या

120MiBबफ़र्स और कैश के लिए प्रयोग किया जाता है कि आप डेटा के लिए भेजा या एक बाह्य उपकरण से प्राप्त कैशिंग के कर्नेल के कुशल व्यवहार के लिए खाते से ऊपर कहानी में देखा था।

मेम द्वारा लेबल की गई पहली पंक्ति, भौतिक मेमोरी उपयोग को प्रदर्शित करती है, जिसमें बफ़र्स और कैश को आवंटित स्मृति की मात्रा भी शामिल है। एक बफर, जिसे बफर मेमोरी भी कहा जाता है , आमतौर पर मेमोरी के एक हिस्से के रूप में परिभाषित किया जाता है जो डेटा के लिए एक अस्थायी होल्डिंग जगह के रूप में सेट किया जाता है जिसे बाहरी डिवाइस से भेजा जा रहा है या प्राप्त किया जा सकता है, जैसे कि एचडीडी, कीबोर्ड, प्रिंटर या नेटवर्क।

डेटा की दूसरी पंक्ति, जो - / + बफ़र्स / कैश के साथ शुरू होती है , वर्तमान में सिस्टम बफर कैश के लिए समर्पित भौतिक मेमोरी की मात्रा दिखाती है । यह एप्लिकेशन प्रोग्राम के संबंध में विशेष रूप से सार्थक है, क्योंकि सिस्टम पर फ़ाइलों से सभी डेटा एक्सेस किए जाते हैं जो रीड () और राइट () सिस्टम कॉल के माध्यम से इस कैश से गुजरते हैं। यह कैश HDD या अन्य डिस्क से पढ़ने या लिखने की आवश्यकता को कम या समाप्त करके डेटा तक पहुंच को बहुत तेज कर सकता है।

स्रोत: http://www.linfo.org/free.html

अब हम कैसे लापता के लिए खाते हैं 19431MiB?

में free -mऊपर उत्पादन, 19688MiB" इस्तेमाल किया " में " - / + बफ़र्स / कैश " इस सूत्र से आता है:

(kb_main_used) - (buffers_plus_cached) =
(kb_main_total - kb_main_free) - (kb_main_buffers + kb_main_cached)

kb_main_total:   MemTotal from /proc/meminfo
kb_main_free:    MemFree  from /proc/meminfo
kb_main_buffers: Buffers  from /proc/meminfo
kb_main_cached:  Cached   from /proc/meminfo

स्रोत: procps / free.c और procps / proc / sysinfo.c

(आप मेरे पर आधारित संख्या करते हैं free -mउत्पादन, तो आप देखेंगे कि 2MiBके लिए जिम्मेदार नहीं हैं, लेकिन है कि क्योंकि इस कोड द्वारा उत्पन्न त्रुटियां गोलाई की है: #define S(X) ( ((unsigned long long)(X) << 10) >> shift))

संख्या में जोड़ नहीं है /proc/meminfo, या तो ( /proc/meminfoजब मैं भाग गया था free -m, तब मैंने रिकॉर्ड नहीं किया था , लेकिन हम आपके प्रश्न से देख सकते हैं कि /proc/meminfoगायब रैम कहां नहीं है), इसलिए हम ऊपर से निष्कर्ष निकाल सकते हैं कि /proc/meminfoनहीं पूरी कहानी बताओ।

मेरी परीक्षण स्थितियों में, मुझे पता है कि लिनक्स पर जेडएफएस उच्च रैम उपयोग के लिए जिम्मेदार है। मैंने इसके एआरसी को बताया कि यह 16GiBसर्वर की रैम तक का उपयोग कर सकता है ।

लिनक्स पर ZFS एक प्रक्रिया नहीं है। यह एक कर्नेल मॉड्यूल है।

मैंने अब तक जो भी पाया है, उसमें से एक कर्नेल मॉड्यूल का रैम उपयोग प्रक्रिया सूचना उपकरण का उपयोग करके नहीं दिखाएगा क्योंकि मॉड्यूल एक प्रक्रिया नहीं है।

समस्या निवारण

दुर्भाग्य से, मैं लिनक्स के बारे में पर्याप्त नहीं जानता कि आप कितने रैम गैर-प्रक्रिया घटकों (जैसे कर्नेल और इसके मॉड्यूल) का उपयोग करने की एक सूची बनाने का एक तरीका प्रदान करते हैं।

इस बिंदु पर, हम अनुमान लगा सकते हैं, अनुमान लगा सकते हैं और जांच कर सकते हैं।

आपने एक dmesgआउटपुट प्रदान किया । अच्छी तरह से डिज़ाइन किए गए कर्नेल मॉड्यूल उनके कुछ विवरणों को लॉग इन करेंगे dmesg

के माध्यम से देखने के बाद dmesg, एक आइटम मेरे लिए बाहर खड़ा था:FS-Cache

FS-Cachecachefilesकर्नेल मॉड्यूल का हिस्सा है और cachefilesdडेबियन और रेड हैट एंटरप्राइज लिनक्स पर पैकेज से संबंधित है ।

शायद कुछ समय पहले, आपने FS-Cacheनेटवर्क I / O के प्रभाव को कम करने के लिए RAM डिस्क पर कॉन्फ़िगर किया था क्योंकि आपका सर्वर वीडियो डेटा का विश्लेषण करता है।

किसी भी संदिग्ध कर्नेल मॉड्यूल को अक्षम करने का प्रयास करें जो रैम खा सकता है। वे शायद के साथ निष्क्रिय किया जा सकता blacklistमें /etc/modprobe.d/एक के बाद, sudo update-initramfs -u(आदेश और स्थानों Linux वितरण से भिन्न हो सकते)।

निष्कर्ष

एक मेमोरी रिसाव 8MB/hrआपके RAM को खा रहा है और RAM को रिलीज़ नहीं करेगा, प्रतीत होता है कि आप क्या करते हैं। मैं आपके द्वारा प्रदान की गई जानकारी के आधार पर आपकी मेमोरी लीक के स्रोत को निर्धारित करने में सक्षम नहीं था, न ही मैं इस मेमोरी लीक को खोजने का कोई तरीका प्रस्तुत करने में सक्षम था।

कोई है जो लिनक्स की तुलना में अधिक अनुभवी है, मुझे इनपुट प्रदान करने की आवश्यकता होगी कि हम कैसे निर्धारित कर सकते हैं कि "अन्य" रैम का उपयोग कहां हो रहा है।

मैंने इस सवाल पर एक इनाम शुरू किया है कि क्या हम "अटकलें, अनुमान और जांच" की तुलना में बेहतर जवाब पा सकते हैं।


उसके लिए धन्यवाद और इनाम के लिए धन्यवाद! बस एक नोट, मैंने किसी भी कैशिंग को सक्षम नहीं किया, वीडियो स्ट्रीम का लाइव विश्लेषण किया गया है और कोई नेटवर्क भंडारण नहीं है (कोई एनएफएस, कोई एसएमबी, एफएस_ कैश का उपयोग नहीं किया गया है और मेरे पास कैशफाइल्सड स्थापित नहीं है)। मैंने सभी लोड किए गए कर्नेल मॉड्यूल को देखने की कोशिश की और पहले से अप्रयुक्त किसी भी चीज़ को अनलोड किया, जिसने भी मदद नहीं की :( मुझे संदेह है कि लीक नेटवर्किंग चालक या कुछ और में है - लेकिन मुझे लगता है कि मेरा और आपका प्रश्न दोनों का अनुमान लगाने के बाहर इसका निवारण कैसे करें ।
हैकरन

1

क्या आप अपने कर्नेल मैनुअल के स्वपन को बदलते हैं या इसे अक्षम करते हैं?

आप वर्तमान swappyness स्तर के साथ whatch कर सकते हैं

cat /proc/sys/vm/swappiness

आप अपने कर्नेल को आक्रामक रूप से स्वैप करने के लिए मजबूर करने की कोशिश कर सकते हैं

sudo sysctl -w vm.swappiness=100

यदि यह घटता है तो आपको समस्याएँ 1 और 100 के बीच एक अच्छा मूल्य मिल जाता है, जो आपकी आवश्यकता को पूरा करता है।


स्वप्नदोष का इससे कोई लेना-देना नहीं है - भले ही मैं पूरी तरह से अदला-बदली कर दूं, फिर भी मेरे पास एक ऐसी स्थिति है जहां मैंने हर उपयोगकर्ता प्रक्रिया को मार दिया है और अभी भी सभी मेमोरी का उपयोग किया जाता है।
हैकरन

-2

आप बिलकुल सही नहीं हैं - हाँ आपका फ्री-एम कमांड फ्री 220 एमबी दिखा रहा है, लेकिन यह भी दिखा रहा है कि 1771 एमबी का उपयोग बफ़र्स के रूप में किया जाता है। बफ़र्स और कैश्ड मेमोरी का उपयोग कर्नेल द्वारा किया जाता है, जो आमतौर पर डिस्क तक धीमी गति के डेटा तक पहुंच को अनुकूलित करता है। इसलिए आपको बफ़र्स के रूप में चिह्नित सभी मेमोरी को मुफ्त मेमोरी के रूप में विचार करना चाहिए क्योंकि जब भी आवश्यकता होती है कर्नेल इसे वापस ले सकता है।

देखें: /server/23433/in-linux-what-is-the-difference-between-buffers-and-cache-reported-by-the-f


मैंने इसे ध्यान में रखते हुए उत्तर को अपडेट किया। मुझे यह कहने के लिए खेद है कि आप मूल रूप से "फ्री" कमांड से आउटपुट को गलत समझ रहे हैं।
हैकरन
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.