Ik heb - als hobby project - een zoekmachine geschreven die kan zoeken in een, zelf aangelegde, database van meer dan 80.000 artikelen (over een zeer specifiek onderwerp).
Alhoewel ik er verder niets mee doe, wilde ik testen of Google die 80.000 pagina's zelf zou gaan indexeren (en hoe, omdat ik ook veel JSON / SEO heb doorgevoerd, semantics, taxonomy, etc...).
Zo gezegd, zo gedaan - dus ik heb de site aangemeld bij de Search Console van Google, sitemap gegenereerd, etc...
Echter, zelfs na een maand blijft het aantal geïndexeerde hangen op iets van 4.000 stuks;
De sitemap zelf geeft aan dat een overzichtspagina elk uur ververst moet worden (omdat de database zichzelf uitbreid met iets van 75 nieuwe artikelen per dag).
Al die nieuwe artikelen zie ik wel, bijna real-time, terug in Google (1 hour ago, 6 hours ago, etc...) - dus het aantal geïndexeerde pagina's neemt wel toe met de nieuwe, maar het archief zelf (+/- 80.000) lijkt niet opgepikt te worden.
De overzichtspagina van het archief toont 50 artikelen (met link naar het artikel zelf) en heeft een pager (volgende / vorige) die via een parameter in de URL weer 50 nieuwe (of oude...) artikelen toont.
Toch lijkt het er op dat Google deze logica niet snapt... Ik heb alles gechecked, aangegeven dat niet enkel pagina X maar ook de gelinkte pagina's geïndexeerd moeten worden, via eLynx (een DOS SEO tool) bekeken of elke pagina bereikbaar is (100% score), alle (meta-) data gechecked, Canonicals ingesteld, etc...
In principe zou Google dan toch gewoon - na verloop van tijd - ook die 80.000 artikelen moeten indexeren?

Voorbeeldje van de site... je zoekt op iets en in grafieken krijg je allemaal statistieken én de bijbehorende artikelen terug.

DOS SEO check... alles is bereikbaar (geen javascript, css, etc... nodig).

Artikelen zijn bereikbaar onder een eigen URL, alles is semantisch qua code - statistieken (locatie, coördinaten, publicatiedatum, leestijd, etc... worden per artikel dynamisch gegenereerd).
Alhoewel ik er verder niets mee doe, wilde ik testen of Google die 80.000 pagina's zelf zou gaan indexeren (en hoe, omdat ik ook veel JSON / SEO heb doorgevoerd, semantics, taxonomy, etc...).
Zo gezegd, zo gedaan - dus ik heb de site aangemeld bij de Search Console van Google, sitemap gegenereerd, etc...
Echter, zelfs na een maand blijft het aantal geïndexeerde hangen op iets van 4.000 stuks;
De sitemap zelf geeft aan dat een overzichtspagina elk uur ververst moet worden (omdat de database zichzelf uitbreid met iets van 75 nieuwe artikelen per dag).
Al die nieuwe artikelen zie ik wel, bijna real-time, terug in Google (1 hour ago, 6 hours ago, etc...) - dus het aantal geïndexeerde pagina's neemt wel toe met de nieuwe, maar het archief zelf (+/- 80.000) lijkt niet opgepikt te worden.
De overzichtspagina van het archief toont 50 artikelen (met link naar het artikel zelf) en heeft een pager (volgende / vorige) die via een parameter in de URL weer 50 nieuwe (of oude...) artikelen toont.
Toch lijkt het er op dat Google deze logica niet snapt... Ik heb alles gechecked, aangegeven dat niet enkel pagina X maar ook de gelinkte pagina's geïndexeerd moeten worden, via eLynx (een DOS SEO tool) bekeken of elke pagina bereikbaar is (100% score), alle (meta-) data gechecked, Canonicals ingesteld, etc...
In principe zou Google dan toch gewoon - na verloop van tijd - ook die 80.000 artikelen moeten indexeren?

Voorbeeldje van de site... je zoekt op iets en in grafieken krijg je allemaal statistieken én de bijbehorende artikelen terug.

DOS SEO check... alles is bereikbaar (geen javascript, css, etc... nodig).

Artikelen zijn bereikbaar onder een eigen URL, alles is semantisch qua code - statistieken (locatie, coördinaten, publicatiedatum, leestijd, etc... worden per artikel dynamisch gegenereerd).
[ Voor 9% gewijzigd door b2vjfvj75gjx7 op 05-07-2018 15:15 ]