Hoihoi
Ik heb de laatste tijd een server die echt pokketraag wordt; vanmiddag was het weer zover.
Zeer hinderlijk.
Specs:
2x Opteron 275
10GB mem
Areca 1120 met 8x 1TB @Raid6 , write back cacheing enabled
Disks zijn als volgt ingedeeld:
Ja /dev/sdc heeft geen valide partitie tabel: het kreng is 5.9tb groot en dat gaat niet met fdisk.
Ik heb direct op de disk een ext3 partitie aangemaakt , zonder tabel.
Goed, dit is een redelijk dikke setup voor wat er momenteel mee gebeurt:
3 debian VMs, elk 128-256megabyte memory en 1 CPU.
In totaal 46GB aan data.
Nu valt het me op dat ondanks dat die 3 VMs weinig doen (1 mail, 1 web en 1 sql server zonder significante load) de load van die machine soms > 25 of zelfs >50 gaat.
In top zie je geen boosdoeners op VMware, kjournald en pdflush na... die laatste 2 wijzen op IO gerelateerde issues. Iostat levert mij dit op:
We zien hier dat het ook nogal wat IO acties op /dev/sdc (waar de VMs zich bevinden).
Volgens vmware zijn de dingen echter niet heel actief, en dat klopt... ze staan niet te swappen ofzo.
Wat kan hier nou efficient aan doen qua debugging? Deze setup heeft vele malen beter gewerkt. Ligt dit aan mijn brakke indeling van /dev/sdc? Ligt dit aan VMware?
Ik draai een standaard kernel, en standaard vmware2.
Ik zette net op 1 van de VMs apachetop aan, dat duurde 5 seconden eer het startte en ik zag de load op het host systeem van 9 naar 15 oplopen. Dat niveau van bagger is het momenteel....
Ik heb de laatste tijd een server die echt pokketraag wordt; vanmiddag was het weer zover.
Zeer hinderlijk.
Specs:
2x Opteron 275
10GB mem
Areca 1120 met 8x 1TB @Raid6 , write back cacheing enabled
Disks zijn als volgt ingedeeld:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
| ragbak:/home/vm# fdisk -l Disk /dev/sda: 498 MB, 498597888 bytes 255 heads, 63 sectors/track, 60 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Disk identifier: 0x000421d0 Device Boot Start End Blocks Id System /dev/sda1 * 1 60 481918+ 83 Linux Disk /dev/sdb: 99.9 GB, 99999547392 bytes 255 heads, 63 sectors/track, 12157 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Disk identifier: 0x00048a05 Device Boot Start End Blocks Id System /dev/sdb1 1 11550 92775343+ 83 Linux /dev/sdb2 11551 12157 4875727+ 82 Linux swap / Solaris Disk /dev/sdc: 5899.4 GB, 5899498291200 bytes 64 heads, 32 sectors/track, 5626200 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Disk identifier: 0x00000000 Disk /dev/sdc doesn't contain a valid partition table ragbak:/home/vm# |
Ja /dev/sdc heeft geen valide partitie tabel: het kreng is 5.9tb groot en dat gaat niet met fdisk.
Ik heb direct op de disk een ext3 partitie aangemaakt , zonder tabel.
Goed, dit is een redelijk dikke setup voor wat er momenteel mee gebeurt:
3 debian VMs, elk 128-256megabyte memory en 1 CPU.
In totaal 46GB aan data.
Nu valt het me op dat ondanks dat die 3 VMs weinig doen (1 mail, 1 web en 1 sql server zonder significante load) de load van die machine soms > 25 of zelfs >50 gaat.
In top zie je geen boosdoeners op VMware, kjournald en pdflush na... die laatste 2 wijzen op IO gerelateerde issues. Iostat levert mij dit op:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
| ragbak:/home/vm# iostat Linux 2.6.26-2-amd64 (ragbak.boudewijnector.nl) 03/06/2010 _x86_64_ avg-cpu: %user %nice %system %iowait %steal %idle 0.23 0.00 2.25 19.03 0.00 78.49 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 0.01 0.12 0.00 1538 2 sda1 0.00 0.09 0.00 1194 2 sdb 2.76 27.98 62.29 366792 816712 sdb1 2.75 27.90 62.29 365777 816712 sdb2 0.00 0.05 0.00 711 0 sdc 21.12 203.69 334.50 2670586 4385672 |
We zien hier dat het ook nogal wat IO acties op /dev/sdc (waar de VMs zich bevinden).
Volgens vmware zijn de dingen echter niet heel actief, en dat klopt... ze staan niet te swappen ofzo.
Wat kan hier nou efficient aan doen qua debugging? Deze setup heeft vele malen beter gewerkt. Ligt dit aan mijn brakke indeling van /dev/sdc? Ligt dit aan VMware?
Ik draai een standaard kernel, en standaard vmware2.
Ik zette net op 1 van de VMs apachetop aan, dat duurde 5 seconden eer het startte en ik zag de load op het host systeem van 9 naar 15 oplopen. Dat niveau van bagger is het momenteel....

[ Voor 3% gewijzigd door Boudewijn op 06-03-2010 23:42 ]