Seperti yang dikatakan orang lain, tidak ada ukuran blok yang benar secara universal; apa yang optimal untuk satu situasi atau satu perangkat keras mungkin sangat tidak efisien untuk yang lain. Juga, tergantung pada kesehatan disk, mungkin lebih baik menggunakan ukuran blok yang berbeda dari apa yang "optimal".
Satu hal yang cukup dapat diandalkan pada perangkat keras modern adalah ukuran blok default 512 byte cenderung hampir urutan besarnya lebih lambat daripada alternatif yang lebih optimal. Ketika ragu, saya menemukan bahwa 64K adalah standar modern yang cukup solid. Meskipun 64K biasanya bukan ukuran blok yang optimal, dalam pengalaman saya itu cenderung jauh lebih efisien daripada standar. 64K juga memiliki sejarah yang cukup solid untuk menjadi pemain yang andal: Anda dapat menemukan pesan dari milis Eug-Lug , sekitar tahun 2002, merekomendasikan ukuran blok 64K.
Untuk menentukan ukuran blok keluaran optimal, saya telah menulis skrip berikut yang menguji penulisan file uji 128M dengan dd pada berbagai ukuran blok yang berbeda, dari default 512 byte ke maksimum 64M. Berhati-hatilah, skrip ini menggunakan dd secara internal, jadi gunakan dengan hati-hati.
dd_obs_test.sh
:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Calculate number of segments required to copy
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
if [ $COUNT -le 0 ]; then
echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
break
fi
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Create a test file with the specified block size
DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)
# Extract the transfer rate from dd's STDERR output
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
# Output the result
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
Lihat di GitHub
Saya hanya menguji skrip ini pada sistem Debian (Ubuntu) dan pada OSX Yosemite, jadi mungkin perlu beberapa penyesuaian untuk membuat pekerjaan pada rasa Unix lainnya.
Secara default perintah akan membuat file uji yang bernama dd_obs_testfile
dalam direktori saat ini. Atau, Anda bisa memberikan lintasan ke file pengujian khusus dengan memberikan lintasan setelah nama skrip:
$ ./dd_obs_test.sh /path/to/disk/test_file
Output dari skrip adalah daftar ukuran blok yang diuji dan laju transfer masing-masing seperti:
$ ./dd_obs_test.sh
block size : transfer rate
512 : 11.3 MB/s
1024 : 22.1 MB/s
2048 : 42.3 MB/s
4096 : 75.2 MB/s
8192 : 90.7 MB/s
16384 : 101 MB/s
32768 : 104 MB/s
65536 : 108 MB/s
131072 : 113 MB/s
262144 : 112 MB/s
524288 : 133 MB/s
1048576 : 125 MB/s
2097152 : 113 MB/s
4194304 : 106 MB/s
8388608 : 107 MB/s
16777216 : 110 MB/s
33554432 : 119 MB/s
67108864 : 134 MB/s
(Catatan: Unit tingkat transfer akan bervariasi berdasarkan OS)
Untuk menguji ukuran blok baca optimal, Anda dapat menggunakan lebih atau kurang proses yang sama, tetapi alih-alih membaca dari /dev/zero
dan menulis ke disk, Anda akan membaca dari disk dan menulis ke /dev/null
. Script untuk melakukan ini mungkin terlihat seperti ini:
dd_ibs_test.sh
:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728
# Exit if file exists
if [ -e $TEST_FILE ]; then
echo "Test file $TEST_FILE exists, aborting."
exit 1
fi
TEST_FILE_EXISTS=1
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Read test file out to /dev/null with specified block size
DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)
# Extract transfer rate
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
Lihat di GitHub
Perbedaan penting dalam hal ini adalah bahwa file uji adalah file yang ditulis oleh skrip. Jangan arahkan perintah ini ke file yang ada atau file yang ada akan ditimpa dengan data acak!
Untuk perangkat keras khusus saya, saya menemukan bahwa 128K adalah ukuran blok input paling optimal pada HDD dan 32K paling optimal pada SSD.
Meskipun jawaban ini mencakup sebagian besar temuan saya, saya perlu menentukan ukuran blok dd optimal cukup kali saya menulis posting blog tentang hal itu. Anda dapat menemukan lebih spesifik tentang tes yang saya lakukan di sana.
Posting StackOverflow ini mungkin juga berguna: dd: Bagaimana cara menghitung blocksize yang optimal?
dd if=/dev/hda of=hdb
? Berikut adalah jawaban yang menunjukkan beberapa detail termasuk runtime untuk 160 GB: askubuntu.com/questions/435694/…