Veel van de pagina's van mijn website/webshop worden niet goed in google's index opgenomen. Dit komt doordat er bij veel pagina's geen eigen unieke titel is en de meta-tags niet goed zijn gevuld. Voor beide elementen heb ik een script gemaakt die voor elke pagina een unieke titel, meta-description en meta-keywords aanmaakt. Dit script maakt gebruik van een xml-connectie. Ook de content voor de webshop wordt via deze xml-connectie opgehaald.
Nu heb ik het idee dat er 's nachts onderhoud aan 'de andere kant' van die xml-connectie uitgevoerd wordt. Dat komt aardig overeen met de tijd dat google langskomt om mijn website eens te bekijken. Gevolg: Google ziet slechte pagina's die lang laden en uiteindelijk geen content, titel en meta-tags hebben. Helemaal fout dus.
Wat kan ik hieraan doen? Volgens mij zijn er twee oplossingsrichtingen:
1. Kijken of het onderhoud aan de xml-connectie op een ander tijdstip of op een andere manier uitgevoerd kan worden. Hier heb ik geen controle over want 'de andere kant' is niet van mij.
2. Google vertellen dat er tussen [tijdstip] en [tijdstip] onderhoud uitgevoerd wordt en dat google beter een andere keer, maar wel zsm, langs kan komen.
Mijn voorkeur gaat uit naar optie 2. Ik kan alleen geen manier vinden hoe ik dit uit kan voeren. Ik heb alleen een '503 Service Unavailable' optie gevonden voor robots.txt. Deze geldt volgens mij alleen voor een langere periode en niet voor een aantal uur 's nachts.
Nu heb ik het idee dat er 's nachts onderhoud aan 'de andere kant' van die xml-connectie uitgevoerd wordt. Dat komt aardig overeen met de tijd dat google langskomt om mijn website eens te bekijken. Gevolg: Google ziet slechte pagina's die lang laden en uiteindelijk geen content, titel en meta-tags hebben. Helemaal fout dus.
Wat kan ik hieraan doen? Volgens mij zijn er twee oplossingsrichtingen:
1. Kijken of het onderhoud aan de xml-connectie op een ander tijdstip of op een andere manier uitgevoerd kan worden. Hier heb ik geen controle over want 'de andere kant' is niet van mij.
2. Google vertellen dat er tussen [tijdstip] en [tijdstip] onderhoud uitgevoerd wordt en dat google beter een andere keer, maar wel zsm, langs kan komen.
Mijn voorkeur gaat uit naar optie 2. Ik kan alleen geen manier vinden hoe ik dit uit kan voeren. Ik heb alleen een '503 Service Unavailable' optie gevonden voor robots.txt. Deze geldt volgens mij alleen voor een langere periode en niet voor een aantal uur 's nachts.