diskdump(dd)を使用したディスククローニングに適したブロックサイズ


47

私はddを最も単純な形式で使用して、ハードドライブのクローンを作成します。

dd if=INPUT of=OUTPUT

しかし、ddはブロックサイズのパラメーターを知っているとマンページで読みました。クローン作成手順を高速化するblocksizeパラメーターに最適な値はありますか?


回答:


32

64kは良い選択のようです:

Results:

  no bs=        78s     144584+0 records
  bs=512        78s     144584+0 records
  bs=1k         38s     72292+0 records
  bs=2k         38s     36146+0 records
  bs=4k         38s     18073+0 records
  bs=5k         39s     14458+1 records
  bs=50k        38s     1445+1 records
  bs=500k       39s     144+1 records
  bs=512k       39s     144+1 records
  bs=1M         39s     72+1 records
  bs=5M         39s     14+1 records
  bs=10M        39s     7+1 records

ここから取られます)。

これは、かつて@workをポンピングしていたio-heavyコンバータープログラムを高速化するための読み取り/書き込みバッファリングに関する私自身の発見と一致します。


このベンチマークは、回転ドライブとSSDで異なる場合があることに注意してください。
ジリ

3
-1これはハードドライブにほぼ完全に依存しています。むしろ、OPがステップを繰り返して自分のハードドライブに最適なブロックサイズを取得できるように、これらの値を取得するために使用される手順を説明します。また、結果のリストに64kをリストしておらず、1kを過ぎたすべての結果はほぼ同じです。
マイケルジョンソン

@MichealJohnsonはこの投稿を自由に編集し、提供されたリンクからそのテーブルがどのように生成されたのかを説明して、ここに貼り付けてください。64kは、速度に関してこれ以上の改善をもたらさないと思われる最初の値であり、自然な調整です。ええ、測定された速度が使用されるハードウェアに完全に依存することは明らかです。これは5年前に当てはまりましたが、現在は当てはまります。
アキラ

1
なぜ64kなのか?私にとって2kはそれ以上の改善をもたらさないので、1kが最良の値であり、64kと同じくらい自然なアライメントでもあります。
マイケルジョンソン

ブロックサイズはSDカードのパフォーマンスを変更しますか、またはddからsdcardを使用して移動するファイルのサイズのみをカットしますか?
Trismegistos

23

ddは望みどおりのBSを使用して喜んでコピーし、(最後に)部分ブロックをコピーします。

基本的に、ブロックサイズ(bs)パラメーターは、あるディスクから他のディスクへの書き込みを試みる前に、そのディスクから一括して読み込むために使用されるメモリの量を設定するようです。

大量のRAMがある場合、BSを大きくする(ただしRAMに完全に含める)とは、RAMを活用して、非常に大きな読み取りと書き込みを行うことにより、I / Oサブシステムを可能な限り使用することを意味します。BSを小さくすると、総アクティビティの割合としてのI / Oオーバーヘッドが増加します。

もちろん、これには収益の減少の法則があります。おおよその概算では、ブロックサイズが約128Kから32Mの範囲であれば、プレーンI / Oに比べてオーバーヘッドが小さく、大きくてもそれほど大きなパフォーマンスは得られないでしょう。下限が128K〜32Mである理由は、OS、ハードウェアなどに依存します。

私なら、128KのBSを使用して(たとえば)16Mを使用してコピー/クローンのタイミングを計るいくつかの実験を行います。かなり速い場合は、それを使用してください。そうでない場合は、2つの小さいBSを使用します。


10

この議論が少し古かったとしても、Google経由でここにたどり着く人のために...

ddには理由があるので愚かであることに注意してください。それが単純であるほど、台無しにできる方法が少なくなります。

複雑なパーティションスキーム(LinuxシステムにLVMを追加で使用するデュアルブートハードドライブを検討)は、Clonezillaのようなプログラムで木組みからバグを取り除き始めます。マウントが不適切なファイルシステムは、ntfscloneを非常に高く吹き飛ばす可能性があります。

セクターごとに複製された破損したファイルシステムは、元のファイルシステムより悪くありません。「スマートコピー」に失敗した後の破損したファイルシステムは、本当に申し訳ありません。

疑わしい場合は、ddを使用してフォレンジックに進みます。フォレンジックイメージングには、セクターごとのコピーが必要です(実際、ddで実行できるよりも多くのセクターが必要になる場合がありますが、それは長い話です)。それは遅くて退屈ですが、仕事を正しく終わらせるでしょう。

また、「conv = noerror、sync」オプションを理解して、障害が発生し始めているドライブのクローンを作成したり、スクラッチ()CD からISOを作成したり、数か月かかることもありません。


syncオプションは何をしますか?マニュアルページには次のように記載されてい"use synchronized I/O for data and metadata"ます。何と同期していますか?それにはさまざまなことがあります。
sherrellbc

1
@sherrellbc syncは、読み取りエラーがあった場合、入力ブロックをゼロで埋めます。そのため、データオフセットの同期は維持されます。
goetzc

9

他の人が言ったように、普遍的に正しいブロックサイズはありません。ある状況またはあるハードウェアに最適なものは、別の状況にはひどく非効率的です。また、ディスクの状態によっては、「最適な」ブロックサイズとは異なるブロックサイズを使用することをお勧めします。

最新のハードウェアで非常に信頼性の高いことの1つは、512バイトのデフォルトブロックサイズが、最適な選択肢よりもほぼ1桁遅い傾向があることです。疑わしいときは、64Kが非常に堅実な現代のデフォルトであることがわかりました。通常、64Kは最適なブロックサイズではありませんが、私の経験では、デフォルトよりもはるかに効率的である傾向があります。64Kには、信頼性の高いパフォーマンスという非常に堅実な歴史もあります。2002年頃のEug-Lugメーリングリストから、64Kのブロックサイズを推奨するメッセージを見つけることができます:http : //www.mail-archive.com/eug- lug@efn.org/msg12073.html

最適な出力ブロックサイズを決定するために、デフォルトの512バイトから最大64Mまでのさまざまなブロックサイズの範囲でddを使用して128Mテストファイルの書き込みをテストする次のスクリプトを作成しました。このスクリプトは内部でddを使用しているため、注意して使用してください。

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

GitHubで表示

このスクリプトはDebian(Ubuntu)システムとOSX Yosemiteでのみテストしているため、他のUnixフレーバーで動作させるにはおそらく多少の調整が必要です。

デフォルトでは、コマンドは現在のディレクトリにdd_obs_testfileという名前のテストファイルを作成します。または、スクリプト名の後にパスを指定することにより、カスタムテストファイルへのパスを指定できます。

$ ./dd_obs_test.sh /path/to/disk/test_file

スクリプトの出力は、テストされたブロックサイズとそれぞれの転送速度のリストです。

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(注:転送レートの単位はOSによって異なります)

最適な読み取りブロックサイズをテストするには、ほぼ同じプロセスを使用できますが、/ dev / zeroから読み取り、ディスクに書き込む代わりに、ディスクから読み取り、/ dev / nullに書き込みます。これを行うスクリプトは次のようになります。

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

GitHubで表示

この場合の重要な違いは、テストファイルがスクリプトによって書き込まれるファイルであることです。このコマンドを既存のファイルに向けないでください。既存のファイルはランダムなデータで上書きされます!

私の特定のハードウェアでは、128KがHDDで最も最適な入力ブロックサイズであり、32KがSSDで最も最適であることがわかりました。

この回答カバーはほとんど私の調査結果の、私はこのような状況の中に、私はそれについてのブログ記事を書いたことを十分な回数を実行してきましたけれども:http://blog.tdg5.com/tuning-dd-block-size/あなたはより多くの詳細を見つけることができますそこで行ったテストで。

このStackOverflowの投稿も役立つ場合があります。dd:最適なブロックサイズの計算方法は?



1

古いブートドライブを外部sataの新しいssdにクローン(ssdからssd)

  • Linux Ubuntu 18.04.2 LTS 64ビットを使用
  • hp xw4600(8GB RAM、Intel Core 2 Quad Q6700 @ 2.66GHz 4c / 4t no-HT)

ディスクの使用(ツール)>形式> ATAセキュア消去(2分)

$ lsblk -l /dev/sd?
NAME MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda    8:0    0 119,2G  0 disk 
sda1   8:1    0 119,2G  0 part /
sdb    8:16   0   2,7T  0 disk 
sdc    8:32   0   2,7T  0 disk 
sdd    8:48   0  12,8T  0 disk 
sde    8:64   0   2,7T  0 disk
sdf    8:80   1 465,8G  0 disk 

$ sudo fdisk -l /dev/sda
Disk /dev/sda: 119,2 GiB, 128035676160 bytes, 250069680 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

$ sudo fdisk -l /dev/sdf
Disk /dev/sdf: 465,8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  • sda:Kingston SSD(古い; Disksは平均rdレート263 MB / sを報告し、ピークは270 MB / sに近い-システムディスクによる書き込みテストなし)
  • sdf:Crucial MX500、500GB、CT500MX500SSD1(ディスクレポート:平均rd / wrレート284/262 MB / s、アクセス時間0.05ms、ピーク約290/270 MB / s)

テスト実行:

$ sudo dd if=/dev/sda of=/dev/sdf
250069680+0 records in
250069680+0 records out
128035676160 bytes (128 GB, 119 GiB) copied, 3391,72 s, 37,7 MB/s
#       --vvvvv--                            *********
$ sudo dd bs=1M if=/dev/sda of=/dev/sdf
122104+1 records in
122104+1 records out
128035676160 bytes (128 GB, 119 GiB) copied, 473,186 s, 271 MB/s
#                                            *********  ********

同じ結果のセキュア消去の後に2回目を試してください:

128035676160 bytes (128 GB, 119 GiB) copied, 472,797 s, 271 MB/s

スーパーユーザーへようこそ!回答いただきありがとうございますが、編集して要約を含めることをお勧めします。引用されたすべての出力の中で、実際の答えを見つけるのは難しいことがわかりました!乾杯
ベルティエブ
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.