डिस्क ब्लॉक के साथ डिस्क-क्लोनिंग के लिए अच्छा ब्लॉक आकार (dd)


46

मैं हार्ड ड्राइव को क्लोन करने के लिए अपने सबसे सरल रूप में dd का उपयोग करता हूं:

dd if=INPUT of=OUTPUT

हालाँकि, मैं उस मानवपृष्ठ में पढ़ता हूँ, जो dd को एक अवरोधक पैरामीटर जानता है। क्या अवरोधक पैरामीटर के लिए एक इष्टतम मूल्य है जो क्लोनिंग प्रक्रिया को गति देगा?


जवाबों:


32

64k एक अच्छा लेने के लिए लगता है:

Results:

  no bs=        78s     144584+0 records
  bs=512        78s     144584+0 records
  bs=1k         38s     72292+0 records
  bs=2k         38s     36146+0 records
  bs=4k         38s     18073+0 records
  bs=5k         39s     14458+1 records
  bs=50k        38s     1445+1 records
  bs=500k       39s     144+1 records
  bs=512k       39s     144+1 records
  bs=1M         39s     72+1 records
  bs=5M         39s     14+1 records
  bs=10M        39s     7+1 records

( यहां से लिया गया )।

यह मेरे अपने निष्कर्षों के साथ मेल खाता है जब एक io- भारी कनवर्टर-प्रोग्राम को तेज करने के लिए पढ़ने / लिखने के बारे में मैं एक बार @work को पिंप कर रहा था।


कृपया ध्यान दें कि यह बेंचमार्क घूर्णन ड्राइव और ssds के लिए भिन्न हो सकता है।
जिरी

3
-1 यह लगभग पूरी तरह से आपकी हार्ड ड्राइव पर निर्भर है। बल्कि इन मूल्यों को प्राप्त करने के लिए इस्तेमाल की जाने वाली प्रक्रिया का वर्णन करें ताकि ओपी अपनी हार्ड ड्राइव के लिए इष्टतम ब्लॉक आकार प्राप्त करने के लिए चरणों को दोहरा सके। साथ ही, आपने अपने परिणामों की सूची में 64k को सूचीबद्ध नहीं किया है और पिछले 1k के सभी परिणाम कमोबेश एक जैसे हैं।
माइकल जॉनसन

@MichealJohnson इस पोस्ट को संपादित करने के लिए स्वतंत्र महसूस करते हैं और इस बात का विवरण लेते हैं कि प्रदान की गई लिंक से उस तालिका को कैसे बनाया गया था और इसे यहां पेस्ट करें। 64k वह पहला मूल्य है जो गति के संदर्भ में और सुधार नहीं करता है और यह प्राकृतिक संरेखण है। और हाँ, यह स्पष्ट है कि मापा गति पूरी तरह से उपयोग किए गए हार्डवेयर पर निर्भर करती है। यह 5 साल पहले सच था और यह अब सच है।
अकीरा

1
64k क्यों? मेरे लिए 2k आगे कोई सुधार नहीं करता है और इसलिए 1k सबसे अच्छा मूल्य है, और 64k के रूप में प्राकृतिक संरेखण भी है।
माइकल जॉनसन

क्या SD कार्ड के ब्लॉक साइज़ में परिवर्तन होता है या dd से sdcard का उपयोग करके फ़ाइल के आकार में कटौती होती है?
Trismegistos

22

dd ख़ुशी से बीएस का उपयोग करके कॉपी करेगा जो आप चाहते हैं, और एक आंशिक ब्लॉक (अंत में) की नकल करेंगे।

मूल रूप से, ब्लॉक आकार (bs) पैरामीटर स्मृति को कितनी मात्रा में सेट करता है इसका उपयोग एक डिस्क से एक गांठ में पढ़ने से पहले उस गांठ को दूसरे पर लिखने की कोशिश करने के लिए किया जाता है।

यदि आपके पास बहुत सारी रैम है, तो बीएस को बड़े (लेकिन पूरी तरह से रैम में निहित) बनाने का मतलब है कि I / O उप-प्रणाली का उपयोग बड़े पैमाने पर बड़े पैमाने पर पढ़ने और लिखने से संभव है - रैम का शोषण। बीएस को छोटा करने का मतलब है कि कुल गतिविधि के अनुपात में I / O ओवरहेड हो जाता है।

बेशक इसमें कम रिटर्न का कानून है। मेरा मोटा अनुमान यह है कि 128K से 32M के बारे में सीमा में एक ब्लॉक का आकार संभवतः प्रदर्शन देने वाला है जैसे कि ओवरहेड्स सादे I / O की तुलना में छोटे हैं, और बड़ा होने से बहुत अंतर नहीं होगा। कम बाउंड 128K से 32M होने का कारण है - यह आपके ओएस, हार्डवेयर, और इसी तरह पर निर्भर करता है।

यदि यह मेरे होते, तो मैं 128K के बीएस का उपयोग करके कॉपी / क्लोन का उपयोग करने वाले कुछ प्रयोग करता और फिर से (16) कहता। यदि कोई सराहनीय रूप से तेज है, तो इसका उपयोग करें। यदि नहीं, तो दो के छोटे बीएस का उपयोग करें।


10

उन लोगों के लिए जो Google के माध्यम से यहां समाप्त होते हैं, भले ही यह चर्चा थोड़ी पुरानी हो ...

ध्यान रखें कि dd एक कारण के लिए गूंगा है: यह जितना आसान है, उतने ही कम तरीके से यह खराब हो सकता है।

जटिल विभाजन योजनाएं (एक दोहरे बूट हार्ड ड्राइव पर विचार करें जो इसके लिनक्स सिस्टम के लिए LVM का उपयोग करता है) Clonezilla जैसे कार्यक्रमों में लकड़ी के काम से कीड़े खींचना शुरू कर देगा। खराब-अनमाउंट किए गए फाइल सिस्टम ntfsclone को आसमान में उड़ा सकते हैं।

एक भ्रष्ट फाइल सिस्टम क्लोन सेक्टर-बाय-सेक्टर मूल से ज्यादा खराब नहीं है। एक विफल "स्मार्ट कॉपी" के बाद एक भ्रष्ट फाइल सिस्टम वास्तव में खेद आकार में हो सकता है।

जब संदेह हो, तो dd का उपयोग करें और फोरेंसिक जाएं। फोरेंसिक इमेजिंग के लिए सेक्टर-दर-सेक्टर प्रतियों की आवश्यकता होती है (वास्तव में, आपको dd के साथ खींचने में सक्षम होने की तुलना में अधिक क्षेत्रों की आवश्यकता हो सकती है, लेकिन यह एक लंबी कहानी है)। यह धीमा और थकाऊ है लेकिन इससे काम सही तरीके से हो जाएगा।

इसके अलावा, "conv = noerror, सिंक" विकल्पों को जानें, ताकि आप उन ड्राइव को क्लोन कर सकें जो विफल होने लगे हैं - या खरोंच ( खांसी ) सीडी से आईएसओ बना सकते हैं - इसके बिना महीनों तक ले जाना।


syncविकल्प क्या करता है? मैन पेज बस कहता है "use synchronized I/O for data and metadata":। हम किसके साथ सिंक्रनाइज़ कर रहे हैं? वह कई अलग-अलग चीजें हो सकती हैं।
शेरेरेल्बक 15

1
@ sherrellbc सिंक अगर कोई रीड एरर था तो जीरो से इनपुट ब्लॉक भरता है, इसलिए डेटा ऑफ़सेट सिंक में रहते हैं।
goetzc

9

जैसा कि दूसरों ने कहा है, कोई सार्वभौमिक रूप से सही ब्लॉक आकार नहीं है; एक स्थिति के लिए इष्टतम या हार्डवेयर का एक टुकड़ा दूसरे के लिए बहुत अक्षम हो सकता है। इसके अलावा, डिस्क के स्वास्थ्य के आधार पर "इष्टतम" की तुलना में एक अलग ब्लॉक आकार का उपयोग करना बेहतर हो सकता है।

आधुनिक हार्डवेयर पर एक बात जो बहुत विश्वसनीय है, वह यह है कि 512 बाइट्स का डिफ़ॉल्ट ब्लॉक आकार लगभग एक अधिक इष्टतम विकल्प की तुलना में परिमाण धीमे होने का आदेश देता है। जब संदेह में, मैंने पाया है कि 64K एक बहुत ठोस आधुनिक डिफ़ॉल्ट है। हालांकि 64K आमतौर पर इष्टतम ब्लॉक आकार नहीं है, मेरे अनुभव में यह डिफ़ॉल्ट की तुलना में बहुत अधिक कुशल है। 64K में मज़बूती से परफॉर्म करने का एक ठोस ठोस इतिहास भी है: आप युग-लुग मेलिंग लिस्ट से एक संदेश पा सकते हैं, लगभग 2002, 64K के ब्लॉक आकार की सिफारिश यहाँ: http://www.mail-archive.com/eug- lug@efn.org/msg12073.html

इष्टतम आउटपुट ब्लॉक आकार का निर्धारण करने के लिए, मैंने निम्नलिखित स्क्रिप्ट लिखी है, जो विभिन्न बाइट आकारों की एक सीमा में dd के साथ 128M टेस्ट फाइल लिखने का परीक्षण करती है, जो कि 512 बाइट्स के डिफ़ॉल्ट से लेकर अधिकतम 64M है। सावधान रहें, यह स्क्रिप्ट आंतरिक रूप से dd का उपयोग करती है, इसलिए सावधानी के साथ उपयोग करें।

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

गिटहब पर देखें

मैंने इस स्क्रिप्ट का केवल डेबियन (उबंटू) सिस्टम और OSX योसेमाइट पर परीक्षण किया है, इसलिए यह संभवत: अन्य यूनिक्स फ्लेवर्स पर काम करने के लिए कुछ ट्विकिंग लेगा।

डिफ़ॉल्ट रूप से कमांड वर्तमान निर्देशिका में dd_obs_testfile नामक एक परीक्षण फ़ाइल बनाएगी । वैकल्पिक रूप से, आप स्क्रिप्ट नाम के बाद एक पथ प्रदान करके कस्टम परीक्षण फ़ाइल को पथ प्रदान कर सकते हैं:

$ ./dd_obs_test.sh /path/to/disk/test_file

स्क्रिप्ट का आउटपुट परीक्षण किए गए ब्लॉक आकार और उनके संबंधित स्थानांतरण दरों की एक सूची है:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(नोट: स्थानांतरण दरों की इकाई OS द्वारा भिन्न होगी)

इष्टतम रीड ब्लॉक आकार का परीक्षण करने के लिए, आप कम या ज्यादा उसी प्रक्रिया का उपयोग कर सकते हैं, लेकिन / dev / शून्य से पढ़ने और डिस्क पर लिखने के बजाय, आप डिस्क से पढ़ेंगे और / dev / null को लिखेंगे। ऐसा करने के लिए एक स्क्रिप्ट ऐसा लग सकता है:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

गिटहब पर देखें

इस मामले में एक महत्वपूर्ण अंतर यह है कि परीक्षण फ़ाइल एक फ़ाइल है जो स्क्रिप्ट द्वारा लिखी गई है। किसी मौजूदा फ़ाइल पर इस कमांड को इंगित न करें या मौजूदा फ़ाइल यादृच्छिक डेटा से अधिलेखित हो जाएगी!

मेरे विशेष हार्डवेयर के लिए मैंने पाया कि एक HDD पर 128K सबसे इष्टतम इनपुट ब्लॉक आकार था और एक SSD पर 32K सबसे इष्टतम था।

यद्यपि यह उत्तर मेरे अधिकांश निष्कर्षों को शामिल करता है, मैं इस स्थिति में पर्याप्त बार चला हूं कि मैंने इसके बारे में एक ब्लॉग पोस्ट लिखा है: http://blog.tdg5.com/tuning-dd-block-size/ आप अधिक विवरण पा सकते हैं मैंने वहां किए गए परीक्षणों पर।

यह StackOverflow पोस्ट सहायक भी हो सकता है: dd: इष्टतम अवरोध की गणना कैसे करें?



1

बाहरी sata (ssd से ssd) पर नए ssd में पुराने बूट ड्राइव को क्लोन करना

  • linux Ubuntu का उपयोग कर 18.04.2 LTS 64bit
  • hp xw4600 (8GB RAM, Intel Core 2 Quad Q6700 @ 2.66GHz 4c / 4t no-HT)

डिस्क का उपयोग करके (टूल)> प्रारूप> ATA सिक्योर इरेज़ (2min)

$ lsblk -l /dev/sd?
NAME MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda    8:0    0 119,2G  0 disk 
sda1   8:1    0 119,2G  0 part /
sdb    8:16   0   2,7T  0 disk 
sdc    8:32   0   2,7T  0 disk 
sdd    8:48   0  12,8T  0 disk 
sde    8:64   0   2,7T  0 disk
sdf    8:80   1 465,8G  0 disk 

$ sudo fdisk -l /dev/sda
Disk /dev/sda: 119,2 GiB, 128035676160 bytes, 250069680 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

$ sudo fdisk -l /dev/sdf
Disk /dev/sdf: 465,8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  • sda: किंग्स्टन SSD (पुराना; डिस्क औसतन 263 MB / s की चोटियों के साथ 270 MB / s - सिस्टम डिस्क के कारण कोई लिखित परीक्षा नहीं होने की रिपोर्ट करता है)
  • sdf: Crucial MX500, 500GB, CT500MX500SSD1 (डिस्क रिपोर्ट: औसत rd / wr रेट 284/262 MB / s, और एक्सेस टाइम 0.05ms, लगभग 290/270 MB / s पर चोटियों के साथ)

टेस्ट रन:

$ sudo dd if=/dev/sda of=/dev/sdf
250069680+0 records in
250069680+0 records out
128035676160 bytes (128 GB, 119 GiB) copied, 3391,72 s, 37,7 MB/s
#       --vvvvv--                            *********
$ sudo dd bs=1M if=/dev/sda of=/dev/sdf
122104+1 records in
122104+1 records out
128035676160 bytes (128 GB, 119 GiB) copied, 473,186 s, 271 MB/s
#                                            *********  ********

उसी परिणाम के साथ सुरक्षित मिटाए जाने के बाद दूसरा प्रयास करें:

128035676160 bytes (128 GB, 119 GiB) copied, 472,797 s, 271 MB/s

सुपर उपयोगकर्ता में आपका स्वागत है! आपके उत्तर के लिए धन्यवाद, लेकिन मैं आपको सारांश शामिल करने के लिए इसे संपादित करने का सुझाव दूंगा ; सभी उद्धृत आउटपुट के बीच, मैंने पाया कि आपका वास्तविक उत्तर क्या है! चीयर्स
बर्टिएब
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.