Kabouterplop01 schreef op zondag 19 mei 2019 @ 18:52:
@
TijsZonderH Puike samenvatting. Ik zou graag zien wat voor prestatieverlies het bijwerken van de zachte waar tezamen met de microcode updates teweeg brengt.
Hele serverparken (In theorie) zijn ontworpen op een bepaalde schaalbaarheid en prestatie.
Misschien iets voor een deel 2? (Ik zelf denk een behoorlijke klus) Of een DEV Iteratie?
Ik weet niet in of en wanneer de redactie van Tweakers er iets over gaat schrijven.
Maar het develoment team is er niet actief mee bezig. We hadden wel een tijd lang 1 webserver met spectre-mitigations en de rest zonder draaien. En het verschil was wel vrij groot; niet zo groot dat je het als gebruiker merkt, maar wel groot genoeg om die server er negatief uit te zien komen.
Dat is echter het enige soort server waarvan we het uberhaupt praktisch kunnen meten. Al onze andere servers hebben een of meer van deze 'nadelen' (en wellicht vergeet ik er nog een paar):
- relatief lage load - of juist met loadpieken - waardoor de verschillen moeilijk te zien zijn
- 1 primaire server die het gros van het werk krijgt en er dus geen 'real time' vergelijking mogelijk is
- we monitoren de performance er niet van op het hiervoor benodigde detailniveau
Alle andere tests vereisen dat we fictieve situaties gaan opzetten; en los van dat we dan in potentie productieservers uit productie moeten halen is dat een behoorlijke klus (en zoals de reacties van @
-The_Mask- suggereren is het moelijk om dat dan alsnog goed te doen

).
Maar gelukkig heeft in ieder geval
Phoronix al een eerste artikel hierover gepubliceerd. Dus specifiek voor jouw behoefte is er al minstens 1 antwoord dat lijkt op de tests die we vanuit ons serverbeheer zouden doen