Sitemaps en Googlebot, iedere 20 sec

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • nico_van_wijk
  • Registratie: Januari 2008
  • Laatst online: 10-09 13:07
Ik heb zelf een nieuwssite ontwikkeld d.m.v. PHP en MySQL. Heb me de laatste tijd een verdiept in hoe Google de site optimaal kan indexeren, maar zie dingen gebeuren die ik niet helemaal snap.

Ik genereer netjes een dynamische sitemap.xml doormiddel van PHP waar de nieuwe artikelen zichtbaar in zijn, bijvoorbeeld:

code:
1
2
3
4
5
6
7
8
<url>
   <loc>
      https://nieuws.nl/nieuws/16237/walhalla-voor-lego-fans
   </loc>
   <lastmod>2023-06-17T20:35:12+00:00</lastmod>
   <changefreq>weekly</changefreq>
   <priority>0.80</priority>
</url>

In de Google Search Console heb ik de sitemap.xml toegevoegd, en deze wordt geaccepteerd.

Nu zie ik in de acces logfiles van de website dat de site iedere 20 seconde wordt bezocht door googlebot waarbij continu dezelfde url, een bepaald artikel wordt bezocht.
  1. Is dit een actie die wordt uitgevoerd naast het indexeren via de sitemap.xml?
  2. Waarom continu dezelfde url? Is dit ergens uit te schakelen in de search console?
Moet zeggen dat het indexeren wel werkt, wanneer een nieuw artikel wordt toegevoegd op de website, dan wordt hij meestal binnen een half uur opgepakt.