In de laatste maanden ben ik betrokken geweest bij het beheren van enkele grote Nederlandstalige websites. Hierbij is mij opgevallen dat de caching server altijd de hele pagina cachet.
Het geval is dat er om de paar seconden nieuws wordt gepost op de website, waardoor de trackers worden aangepast en de gecachede pagina niet meer up-to-date is. Wat er vervolgens gebeurt is logisch, de requests worden doorgestuurd naar de applicatieservers die de hele pagina mogen renderen.
Veel handiger zou het zijn om gewoon de tracker steeds slechts een minuut te cachen, maar de rest van de pagina gewoon 30 minuten te cachen en de afbeeldingen zelfs 4 uur. Op die manier hoeft alleen het gedeelte van de pagina dat live is opnieuw gemaakt te worden en kan de rest vanuit de cache geserveerd worden.
Bij Squid heb ik geen optie gevonden die verschillende regels kan hanteren op basis van de inhoud van de pagina. Ben er benieuwd hoe dit op Tweakers.net gebeurt met de trackers. Ik ga er vanuit dat de opstelling simpelweg stevig genoeg is om pagina's steeds te parsen.
Het geval is dat er om de paar seconden nieuws wordt gepost op de website, waardoor de trackers worden aangepast en de gecachede pagina niet meer up-to-date is. Wat er vervolgens gebeurt is logisch, de requests worden doorgestuurd naar de applicatieservers die de hele pagina mogen renderen.
Veel handiger zou het zijn om gewoon de tracker steeds slechts een minuut te cachen, maar de rest van de pagina gewoon 30 minuten te cachen en de afbeeldingen zelfs 4 uur. Op die manier hoeft alleen het gedeelte van de pagina dat live is opnieuw gemaakt te worden en kan de rest vanuit de cache geserveerd worden.
Bij Squid heb ik geen optie gevonden die verschillende regels kan hanteren op basis van de inhoud van de pagina. Ben er benieuwd hoe dit op Tweakers.net gebeurt met de trackers. Ik ga er vanuit dat de opstelling simpelweg stevig genoeg is om pagina's steeds te parsen.