Met ^
Je kan natuurlijk nu al checken welke pagina's de zoekmachines hebben gevonden. Staan die doc's en pdf's er niet in, dan is je site gewoon niet zo goed in elkaar gezet, want Google vindt dat met een goede website gewoon prima.
Al eerder topics hier geweest waarom sites niet goed werden geindexeerd, en als je ze dan door een validator heen haalde, waren alle links gewoon bagger. Ze werkte wel voor browsers, maar de zoekmachines konden er niet zo veel mee. Dus de werd werd slecht geindexeerd.
Mijn ervaring met het toevoegen van een sitemap.xml na de site al een tijdje online was, dat er in eens 0 results meer waren. Alles leek uit Google te zijn weggegooid, om het via de sitemap weer op te bouwen. Kan iets anders geweest zijn dat het toeval was, maar apprt vond ik hetwel.
Dus of het handig is de sitemap te gebruiken, valideren al je links op de site? If so, dan niet. Mis je veel als je nu op je eigen site zoekt in google dmv: site:websiteurl waar je alle links in ziet die gevonden zijn, dan kan het wel handig zijn, al ligt het euvel meestal elders.
Een sitemap.xml gebruiken is net als het gebruik van zijwieltjes. Handig voor als je niet kan fietsen, totaal nutteloos als je het wel kan
Edit: Al is dat laatste nie geheel waar hoor, want in een sitemap staat welke pagina wanneer het laatst aangepast is mits je een goede hebt dan, en elke dag download Google die sitemap sowieso. Dus ja, veranderingen op de site kunnen wel sneller ondekt worden.
[
Voor 9% gewijzigd door
RaZ op 05-11-2015 17:39
]