माउंटेड ड्राइव Redhat 7 से मुक्त स्थान कैसे प्राप्त करें


14

हमारे VM अवसंरचना में, हमने मेजबान को संकुल जा रहा है SAN।

मैं यह पता लगाने की कोशिश कर रहा हूं कि हमारे रेडहैट सर्वरों के भीतर फ़ाइलों को हटाने के दौरान "सफेद स्थान" कितना बचा है। अपने विंडोज सर्वर पर हम sdelete का उपयोग करते हैं और उस समस्या को दूर करते हैं, हालांकि लिनक्स के साथ मैं एक समाधान खोजने के लिए संघर्ष कर रहा हूं।

मैं "व्हाइट स्पेस" को सेक्टर के रूप में परिभाषित कर रहा हूं? उस पर छोड़ दिया गया है कि SSD ड्राइव पहले शून्य बाहर करने के लिए इससे पहले कि वे इसे लिख सकते हैं शून्य नहीं हैं।

एक बात मैं बताऊंगा कि जब लिनक्स की बात आती है तो मैं जानता हूं कि यह खतरनाक है लेकिन मैं सुपर यूजर नहीं हूं।

ड्राइव और विभाजन को देखते हुए:

[root@rhserver1-DATA10 /]# fdisk -l

Disk /dev/sda: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0005d52e

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048     1026047      512000   83  Linux
/dev/sda2         1026048   104857599    51915776   8e  Linux LVM

Disk /dev/sdb: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk /dev/mapper/rhel_rhserver1--data10-root: 51.0 GB, 50964987904 bytes, 99540992 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk /dev/mapper/rhel_rhserver1--data10-swap: 2147 MB, 2147483648 bytes, 4194304 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

अब डिस्क का उपयोग देख रहे हैं:

[root@rhserver1-DATA10 /]# df -h
Filesystem                              Size  Used Avail Use% Mounted on
/dev/mapper/rhel_rhserver1--data10-root   48G  6.1G   42G  13% /
devtmpfs                                906M     0  906M   0% /dev
tmpfs                                   921M  340K  920M   1% /dev/shm
tmpfs                                   921M   90M  831M  10% /run
tmpfs                                   921M     0  921M   0% /sys/fs/cgroup
/dev/sdb                                 50G  3.5G   44G   8% /ACMS01Backup
/dev/sda1                               497M  210M  288M  43% /boot
tmpfs                                   185M   20K  185M   1% /run/user/1000
tmpfs                                   185M     0  185M   0% /run/user/1002

गुग्लिंग के कई घंटों के बाद मैंने यह पाया, मुझे लगता है कि यह मुझे दिखा रहा है कि कितना "सफेद स्थान" उपलब्ध है।

[root@rhserver1-DATA10 /]#  parted /dev/sda unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
1.02MB
[root@rhserver1-DATA10 /]#  parted /dev/sda unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
0.00%

मुझे लगता है कि एक 497M विभाजन के लिए एक उचित उत्पादन।

इसलिए अब मैं केवल अपने माउंटेड ड्राइव पर ही काम करना चाहता हूं (मुझे लगता है कि यह माउंटेड है।)

 parted /dev/mapper/rhel_rhserver1--data10-root unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
 parted /dev/mapper/rhel_rhserver1--data10-root unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'

जो मुझे कुछ नहीं देते।

मेरा / etc / fstab /:

[root@rhserver1-DATA10 /]# cat /etc/fstab
/dev/mapper/rhel_rhserver1--data10-root /                       xfs     defaults        0 0
UUID=2f97a17c-a6d5-4904-ad5c-7c16b4510201 /boot                   xfs     defaults        0 0
/dev/mapper/rhel_rhserver1--data10-swap swap                    swap    defaults        0 0
/dev/disk/by-uuid/be4c45cf-5d72-4b97-b647-2e585947041f /ACMS01Backup auto nosuid,nodev,nofail,x-gvfs-show 0 0

तो मेरा सवाल है कि क्या मैं सही रास्ते पर हूँ?

क्या मैंने समझाया कि मैं क्या देख रहा हूँ?

क्या "श्वेत स्थान" के लिए एक शब्द है जो मेरे गुगलीकरण में मदद कर सकता है?

मैंने पाया है कि मैं रूट पर "फ्रस्ट्रिम -v /" चला सकता हूं लेकिन मैं वास्तव में यह जानना चाहूंगा कि वहां कितनी जगह है।

इसके अलावा, मुझे यह पता लगाने की कोशिश की जा रही है कि थिसिस उत्पादन प्रणाली है I / O गहन है, क्या इसे पीक आवर्स में चलाया जाना चाहिए?

"फ्रस्ट्रिम -v /" चल रहे डेटा लॉस का कोई मौका?


आप discardफाइल सिस्टम पर आरोह विकल्प भी सेट कर सकते हैं ।
माइकल हैम्पटन

शायद / ड्राइव के बजाय यूयूआईडी का उपयोग / देव / मैपर के बजाय? चलाने का प्रयास करें blkidऔर देखें कि क्या आप UUID प्राप्त कर सकते हैं और partedकमांड को फिर से चला सकते हैं ।
विल्बो

जवाबों:


12

/ पार्टिशन पर फ़्रीस्टिम चलाने में सक्षम होने के नाते सबसे अच्छा समाधान होगा, हालांकि वे जिस तरह से आपके ईएसएक्सआई को कॉन्फ़िगर करते हैं, यह संभव नहीं होगा।

आपको VM और स्टोरेज डिवाइस दोनों पर डिस्क्स को सक्षम करने की आवश्यकता है।

किसी विभाजन या तार्किक आयतन के आकार को xfs फाइल सिस्टम के साथ कम करने की कोशिश नहीं की जा सकती है यह फेडोरा के साथ एक ज्ञात बग है। यदि आप इस कार्यक्षमता में रुचि रखते हैं, तो Red Hat समर्थन और संदर्भ Red Hat Bugzilla 1062667 से संपर्क करें, और XFS कमी / सिकुड़ने के लिए अपना उपयोग-मामला प्रदान करें।

कुछ वातावरण में संभावित कार्य के रूप में, पतली प्रावधान वाले LVM वॉल्यूम को XFS फाइल सिस्टम के नीचे एक अतिरिक्त परत के रूप में माना जा सकता है।

यदि वीएम उत्सुक मोटी प्रोविज्ड वीएमडीके हैं, जिसका अर्थ है कि जब आप ट्रिम करने की कोशिश कर रहे हैं (एससीएसआई यूएनएमएपी) आपके संस्करणों को पुन: प्राप्त करने के लिए कुछ भी नहीं है।

अगर बैक-एंड स्टोरेज पतला प्रोविजनिंग चल रहा है, तो आपको स्टोरेज को कम करने और बैकएंड के लिए वार्म डाटा को कम करने / डिलीट करने के लिए इसे संभव बनाने के लिए आलसी जीरो वीएमडीके फाइल्स का उपयोग करना होगा।

दो संभावित विकल्प:

  1. जब भंडारण एक SAN के पार एक दूरस्थ सर्वर द्वारा प्रदान किया जाता है, तो आप केवल ब्लॉकों को त्याग सकते हैं यदि भंडारण पतली प्रावधान है।

    1. एक अलग डेटा स्टोर के लिए सभी VM की VMotion और अंतर्निहित VMWare टूल का उपयोग करें
    2. SSH के साथ ESXi होस्ट से कनेक्ट करें
    3. वर्चुअल मशीन फ़ोल्डर पर नेविगेट करें
    4. डु के साथ डिस्क का उपयोग सत्यापित करें
    5. Vmkfstools -K [डिस्क] चलाएं
    6. डु के साथ डिस्क का उपयोग सत्यापित करें
  2. dd if = / dev / zero of = BIGFILE bs = 1024000 rm -f BIGFILE

मैं जो बता सकता हूं, वह वही करता है जो sdelete करता है, हालांकि यह डिस्क I / O में स्पाइक का कारण बन सकता है और साथ ही साथ चलाने के लिए भी कुछ समय ले सकता है।

रात भर कोशिश करने के लिए कुछ

या तो विकल्प सबसे अच्छा नहीं है, लेकिन ext3 या ext4 प्राप्त करने के लिए प्रत्येक वीएम को पुन: स्वरूपित करना संभव नहीं है।

आप जो करने में सक्षम हो सकते हैं वह सभी linux VM के लिए एक आत्मीयता का नियम है और ऊपर से विकल्प 1 का उपयोग करें।


12

मैं एक ही बात कुछ हफ़्ते पहले करने की कोशिश करता हूं और मुझे नहीं पता कि कैसे। मैं रेडहैट समर्थन पोर्टल पर आधिकारिक बयान साझा करता हूं।

वर्तमान में xfs फाइल सिस्टम के साथ विभाजन या तार्किक आयतन के आकार को कम करना संभव नहीं है। यदि आप इस कार्यक्षमता में रुचि रखते हैं, तो Red Hat समर्थन और संदर्भ Red Hat Bugzilla 1062667 से संपर्क करें, और XFS कमी / सिकुड़ने के लिए अपना उपयोग-मामला प्रदान करें। कुछ वातावरण में एक संभावित समाधान के रूप में, पतली प्रावधान वाले LVM संस्करणों को XFS फाइल सिस्टम के नीचे एक अतिरिक्त परत के रूप में माना जा सकता है।

सौभाग्य!!


टिप्पणी के लिए धन्यवाद, हालांकि, मैं वीएम के लिए उपलब्ध स्थान के आकार को कम करने की कोशिश नहीं कर रहा हूं। SSD ड्राइव में एक (फॉल्ट) होता है जो कि डेटा डिलीट होने पर सेक्टर को पहले शून्य आउट किया जाता है और फिर इसे vs को लिखा जा सकता है यदि सेक्टर को कभी नहीं लिखा गया है तो यह पहले से ही शून्य है। मैं बहुत कुछ पता लगाने की कोशिश कर रहा हूं जैसे कि sdelete के साथ मैं "fstrim -v /" का उपयोग कर सकता हूं। यह चलाने से पहले कि मैं यह पता लगाने की कोशिश कर रहा हूं कि क्या मैं देख सकता हूं कि कितने सेक्टर प्रभावित होंगे, और इससे सिस्टम पर क्या प्रभाव पड़ेगा।
एंथनी फोरनिटो
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.