Dag,
Momenteel heb ik als test een Raid 6 van 4x 1 TB (Spinpoint F1) aangemaakt, wat effectief 2 TB storage geeft. Later komen daar nog 2x 1 TB bij, wat totaal 4 TB storage geeft die de uitval van twee disks kan doorstaan.
De array is voornamelijk bedoeld voor storage van video. Maar een beetje performance mag wel.
De kale array is als volgt gemaakt:
Nadat de array was geresynced, heb ik een simpele test gedaan rechtstreeks op de array, zonder filesystem. Dit om een eerste indruk te krijgen wat het ruwe array aankan.
Omdat er 2 disks voor parity worden gebruikt worden er effectief dus maar 2 disks gebruikt voor het 'echte' schrijfwerk. 60 MB/s disk is denk ik niet zo heel slecht, maar een Spinpoint kan volgens mij veel meer.
Een iostat -x -m 5 laat dit zien:
Wat valt direct op? Disk sdb trekt 99.9% gebruik, terwijl de andere disks bij lange na nog niet aan hun max zitten. Misschien dat dit een indicatie is dat meer performance mogelijk moet zijn. Misschien dat door een fout van mijn kant 1 disk telkens om duistere redenen extra word belast.
Wat doe ik verkeerd?
Edit:
Lezen gaat met ongeveer 195 MB/s
Ook hier valt op dat disk sdb het zwaarst wordt belast en dat de await en svctm waarden duidelijk hoger zijn dan van de andere disks.
Momenteel heb ik als test een Raid 6 van 4x 1 TB (Spinpoint F1) aangemaakt, wat effectief 2 TB storage geeft. Later komen daar nog 2x 1 TB bij, wat totaal 4 TB storage geeft die de uitval van twee disks kan doorstaan.
De array is voornamelijk bedoeld voor storage van video. Maar een beetje performance mag wel.
De kale array is als volgt gemaakt:
code:
1
| mdadm --create /dev/md5 --level=6 --raid-devices=4 --chunk=128 /dev/sd[abcd]1 |
Nadat de array was geresynced, heb ik een simpele test gedaan rechtstreeks op de array, zonder filesystem. Dit om een eerste indruk te krijgen wat het ruwe array aankan.
code:
1
2
3
4
| dd if=/dev/zero of=/dev/md5 bs=1M 10596+0 records in 10596+0 records out 11110711296 bytes (11 GB) copied, 91.6603 seconds, 121 MB/s |
Omdat er 2 disks voor parity worden gebruikt worden er effectief dus maar 2 disks gebruikt voor het 'echte' schrijfwerk. 60 MB/s disk is denk ik niet zo heel slecht, maar een Spinpoint kan volgens mij veel meer.
Een iostat -x -m 5 laat dit zien:
code:
1
2
3
4
5
6
7
8
9
| avg-cpu: %user %nice %system %iowait %steal %idle
0.00 0.00 65.57 5.89 0.00 28.54
Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await svctm %util
hda 0.00 0.00 0.20 0.60 0.00 0.00 8.00 0.07 84.00 42.00 3.36
sda 2.80 11475.40 0.20 2509.80 0.01 54.71 44.65 2.87 1.14 0.27 68.24
sdb 4.40 11879.20 0.80 2106.40 0.03 54.61 53.11 54.57 46.77 0.47 99.92
sdc 4.00 11532.20 0.40 2453.60 0.02 54.71 45.67 2.47 1.01 0.28 67.68
sdd 4.40 11524.00 0.40 2464.00 0.02 54.71 45.48 2.95 1.20 0.27 67.76 |
Wat valt direct op? Disk sdb trekt 99.9% gebruik, terwijl de andere disks bij lange na nog niet aan hun max zitten. Misschien dat dit een indicatie is dat meer performance mogelijk moet zijn. Misschien dat door een fout van mijn kant 1 disk telkens om duistere redenen extra word belast.
Wat doe ik verkeerd?
Edit:
Lezen gaat met ongeveer 195 MB/s
code:
1
2
3
4
5
6
7
8
9
| avg-cpu: %user %nice %system %iowait %steal %idle
0.00 0.00 71.06 4.99 0.00 23.95
Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await svctm %util
hda 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sda 10330.80 0.00 1542.00 0.00 46.39 0.00 61.61 0.97 0.63 0.27 42.40
sdb 10351.20 0.00 1515.00 0.00 46.39 0.00 62.71 1.72 1.13 0.36 54.32
sdc 10321.00 0.00 1550.60 0.00 46.36 0.00 61.23 1.00 0.65 0.27 41.68
sdd 10339.80 0.00 1538.20 0.00 46.39 0.00 61.77 1.12 0.73 0.27 41.36 |
Ook hier valt op dat disk sdb het zwaarst wordt belast en dat de await en svctm waarden duidelijk hoger zijn dan van de andere disks.
[ Voor 20% gewijzigd door Q op 21-07-2008 21:20 ]