4台構成のraidzで、ashiftオプションの設定による違いを確認します。
まずは、ashit=9でpoolを作ります。
# zpool create tank raidz \
scsi-SATA_ST3000DM001-9YN_Z1F0AAAA-part1 \
scsi-SATA_ST3000DM001-9YN_Z1F0BBBB-part1 \
scsi-SATA_ST3000DM001-9YN_Z1F0CCCC-part1 \
scsi-SATA_ST3000DM001-9YN_Z1F0DDDD-part1
# zpool status
pool: tank
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
scsi-SATA_ST3000DM001-9YN_Z1F0AAAA-part1 ONLINE 0 0 0
scsi-SATA_ST3000DM001-9YN_Z1F0BBBB-part1 ONLINE 0 0 0
scsi-SATA_ST3000DM001-9YN_Z1F0CCCC-part1 ONLINE 0 0 0
scsi-SATA_ST3000DM001-9YN_Z1F0DDDD-part1 ONLINE 0 0 0
errors: No known data errors
# zdb |grep ashift
ashift: 9
# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
tank 10.9T 148K 10.9T 0% 1.00x ONLINE -
ashift=9の場合の結果は、次のようになります。
$ bonnie++
~ 略 ~
Version 1.03e ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
abcde.locald 15488M 45119 98 198220 54 96029 35 41985 94 353884 55 233.7 5
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 13007 99 +++++ +++ 13452 98 12167 99 +++++ +++ 14491 99
abcde.localdomain,15488M,45119,98,198220,54,96029,35,41985,94,353884,55,233.7,5,16,13007,99,+++++,+++,13452,98,12167,99,+++++,+++,14491,99
次は、ashift=12でpoolを作ります。
# zpool destroy tank
# zpool create -o ashift=12 tank raidz \
scsi-SATA_ST3000DM001-9YN_Z1F0AAAA-part1 \
scsi-SATA_ST3000DM001-9YN_Z1F0BBBB-part1 \
scsi-SATA_ST3000DM001-9YN_Z1F0CCCC-part1 \
scsi-SATA_ST3000DM001-9YN_Z1F0DDDD-part1
# zdb |grep ashift
ashift: 12
# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
tank 10.9T 1.08M 10.9T 0% 1.00x ONLINE -
ashift=12の場合の結果は、次のようになります。
$ bonnie++
~ 略 ~
Version 1.03e ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
abcde.locald 15488M 44184 98 217651 57 120804 43 43254 93 228627 36 227.7 5
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 12981 99 +++++ +++ 13074 98 12308 99 +++++ +++ 14327 99
abcde.localdomain,15488M,44184,98,217651,57,120804,43,43254,93,228627,36,227.7,5,16,12981,99,+++++,+++,13074,98,12308,99,+++++,+++,14327,99
並べるとこんな感じになります。Sequential Writeのrewriteが2割強UPして、Block Readが3割強DOWNしています。
Version 1.03e ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
ashift=9 15488M 45119 98 198220 54 96029 35 41985 94 353884 55 233.7 5
ashift=12 15488M 44184 98 217651 57 120804 43 43254 93 228627 36 227.7 5
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
ashift=9 16 13007 99 +++++ +++ 13452 98 12167 99 +++++ +++ 14491 99
ashift=12 16 12981 99 +++++ +++ 13074 98 12308 99 +++++ +++ 14327 99
Sequential block readで、性能ダウンするのは少し予想と違う結果になりました。2台のmirror構成から4台のraidz構成に移行を考えているので、ashiftの設定をどちらにするか悩ましいところです。
0 件のコメント:
コメントを投稿