Elke keer als op mijn webserver de sitemap.xls wordt opgevraagd (door searchengines ed.) wordt de sitemap dynamisch gegenereerd met alle links van mijn website random erin.
Het gaat dan om zo'n 270 links. Ik merk dat Google elke dag meerdere malen de sitemap download, en ook ruim 800 links bezoekt. Dus de meeste links 2 of meer keer.
Ik begin nu te twijfelen of die random sitemap wel een goed idee is.
Ik merk (nog) geen nadelige gevolgen in de zoekresultaten, maar ik blijf het wel in de gaten houden.
Ik heb gekozen voor een random sitemap 'on the fly' juist om searchengines wat vaker langs elke link te laten gaan, maar ik weet nu dus niet of dat (op den duur) nadelige gevolgen heeft. De links zijn overigens redelijk statisch, op de homepage na. Die wijzigt na elk bezoek. (15 Random items op de homepage)
Ook weet ik niet of het uberhaupt wel zin heeft, een random sitemap. Heeft iemand hier ervaring met frequent wijzigende sitemaps?
Het gaat dan om zo'n 270 links. Ik merk dat Google elke dag meerdere malen de sitemap download, en ook ruim 800 links bezoekt. Dus de meeste links 2 of meer keer.
Ik begin nu te twijfelen of die random sitemap wel een goed idee is.
Ik merk (nog) geen nadelige gevolgen in de zoekresultaten, maar ik blijf het wel in de gaten houden.
Ik heb gekozen voor een random sitemap 'on the fly' juist om searchengines wat vaker langs elke link te laten gaan, maar ik weet nu dus niet of dat (op den duur) nadelige gevolgen heeft. De links zijn overigens redelijk statisch, op de homepage na. Die wijzigt na elk bezoek. (15 Random items op de homepage)
Ook weet ik niet of het uberhaupt wel zin heeft, een random sitemap. Heeft iemand hier ervaring met frequent wijzigende sitemaps?
Home Assistant | Unifi | LG 51MR.U44 | Volvo EX30 SMER+ Vapour Grey, trekhaak | SmartEVSE V3 | Cronos Crypto.com