Vanmorgen waren onze servers erg traag.. bleek dat de backup van vannacht van de VM's nog liep. Backups stop gezet, maar het was daarna nog niet echt snel.
Setup is als volgt:
TrueNAS in HA
4 Hyper-V nodes
Ubiquiti ES-16-XG 10 Gbit switch op koper
Nu is mij opgevallen dat wanneer ik de firewall tijdelijk uit zet op de Hyper-V nodes, iops verdubbelen. Maar op zich is dat niet echt het probleem.
Tests zijn uitgevoerd met DiskSpd:
DiskSpd.exe -c15G -d120 -r -w40 -t8 -o32 -b8K -h -L C:\ClusterStorage\Volume1\ICT\Test\data.dat
Wat opvalt is het dat het verschil tussen testen vanuit de hyper-v nodes zo'n verschil opleveren, terwijl het bij een ander netwerk dat ik beheer het verschil wel enigszins reëel is.
De iops op de vm bij ons zijn dus in verhouding dramatisch.
Edit: Sinds 12:00 krijg ik meldingen door dat alles weer snel werkt. Zojuist dezelfde test gedaan weer op de trage VM en de iops zijn (bijna) gelijk aan de resultaten van host -> iscsi target.
Het is net alsof er de hele ochtend naweeën zijn geweest, na het stoppen van de backups die vanmorgen nog draaiden. Alleen heeft vreemde blijft, waarom zijn de iops op de host richting de iSCSI target zoveel hoger dan vanaf een VM?
Edit2: Zojuist gebeld met producent en die geeft aan dat het de caching is die moet/moest opbouwen na een reboot van afgelopen nacht / weekend..
we houden het in de gaten..
Setup is als volgt:
TrueNAS in HA
4 Hyper-V nodes
Ubiquiti ES-16-XG 10 Gbit switch op koper
Nu is mij opgevallen dat wanneer ik de firewall tijdelijk uit zet op de Hyper-V nodes, iops verdubbelen. Maar op zich is dat niet echt het probleem.
Tests zijn uitgevoerd met DiskSpd:
DiskSpd.exe -c15G -d120 -r -w40 -t8 -o32 -b8K -h -L C:\ClusterStorage\Volume1\ICT\Test\data.dat
| Settings | Read iops | Write iops |
| Node fw aan | 37.500 | 30.000 |
| Node fw uit | 87.500 | 62.500 |
| Test vanuit vm iX systems | 1.400 | 900 |
| Test vanaf ander cluster netwerk (HP) | ||
| Node HP | 56.000 | 37.300 |
| Test vanuit vm HP netwerk | 26.000 | 17.500 |
Wat opvalt is het dat het verschil tussen testen vanuit de hyper-v nodes zo'n verschil opleveren, terwijl het bij een ander netwerk dat ik beheer het verschil wel enigszins reëel is.
De iops op de vm bij ons zijn dus in verhouding dramatisch.
Edit: Sinds 12:00 krijg ik meldingen door dat alles weer snel werkt. Zojuist dezelfde test gedaan weer op de trage VM en de iops zijn (bijna) gelijk aan de resultaten van host -> iscsi target.
Het is net alsof er de hele ochtend naweeën zijn geweest, na het stoppen van de backups die vanmorgen nog draaiden. Alleen heeft vreemde blijft, waarom zijn de iops op de host richting de iSCSI target zoveel hoger dan vanaf een VM?
Edit2: Zojuist gebeld met producent en die geeft aan dat het de caching is die moet/moest opbouwen na een reboot van afgelopen nacht / weekend..
[ Voor 17% gewijzigd door Red-Front op 14-05-2019 20:42 ]