Ik heb zelf een nieuwssite ontwikkeld d.m.v. PHP en MySQL. Heb me de laatste tijd een verdiept in hoe Google de site optimaal kan indexeren, maar zie dingen gebeuren die ik niet helemaal snap.
Ik genereer netjes een dynamische sitemap.xml doormiddel van PHP waar de nieuwe artikelen zichtbaar in zijn, bijvoorbeeld:
In de Google Search Console heb ik de sitemap.xml toegevoegd, en deze wordt geaccepteerd.
Nu zie ik in de acces logfiles van de website dat de site iedere 20 seconde wordt bezocht door googlebot waarbij continu dezelfde url, een bepaald artikel wordt bezocht.
Ik genereer netjes een dynamische sitemap.xml doormiddel van PHP waar de nieuwe artikelen zichtbaar in zijn, bijvoorbeeld:
code:
1
2
3
4
5
6
7
8
| <url> <loc> https://nieuws.nl/nieuws/16237/walhalla-voor-lego-fans </loc> <lastmod>2023-06-17T20:35:12+00:00</lastmod> <changefreq>weekly</changefreq> <priority>0.80</priority> </url> |
In de Google Search Console heb ik de sitemap.xml toegevoegd, en deze wordt geaccepteerd.
Nu zie ik in de acces logfiles van de website dat de site iedere 20 seconde wordt bezocht door googlebot waarbij continu dezelfde url, een bepaald artikel wordt bezocht.
- Is dit een actie die wordt uitgevoerd naast het indexeren via de sitemap.xml?
- Waarom continu dezelfde url? Is dit ergens uit te schakelen in de search console?