[ SEO / INDEX ] Indexeert Google vanzelf alle pagina's?

Pagina: 1
Acties:

Vraag


Acties:
  • 0 Henk 'm!

  • b2vjfvj75gjx7
  • Registratie: Maart 2009
  • Niet online
Ik heb - als hobby project - een zoekmachine geschreven die kan zoeken in een, zelf aangelegde, database van meer dan 80.000 artikelen (over een zeer specifiek onderwerp).

Alhoewel ik er verder niets mee doe, wilde ik testen of Google die 80.000 pagina's zelf zou gaan indexeren (en hoe, omdat ik ook veel JSON / SEO heb doorgevoerd, semantics, taxonomy, etc...).

Zo gezegd, zo gedaan - dus ik heb de site aangemeld bij de Search Console van Google, sitemap gegenereerd, etc...

Echter, zelfs na een maand blijft het aantal geïndexeerde hangen op iets van 4.000 stuks;

De sitemap zelf geeft aan dat een overzichtspagina elk uur ververst moet worden (omdat de database zichzelf uitbreid met iets van 75 nieuwe artikelen per dag).

Al die nieuwe artikelen zie ik wel, bijna real-time, terug in Google (1 hour ago, 6 hours ago, etc...) - dus het aantal geïndexeerde pagina's neemt wel toe met de nieuwe, maar het archief zelf (+/- 80.000) lijkt niet opgepikt te worden.

De overzichtspagina van het archief toont 50 artikelen (met link naar het artikel zelf) en heeft een pager (volgende / vorige) die via een parameter in de URL weer 50 nieuwe (of oude...) artikelen toont.

Toch lijkt het er op dat Google deze logica niet snapt... Ik heb alles gechecked, aangegeven dat niet enkel pagina X maar ook de gelinkte pagina's geïndexeerd moeten worden, via eLynx (een DOS SEO tool) bekeken of elke pagina bereikbaar is (100% score), alle (meta-) data gechecked, Canonicals ingesteld, etc...

In principe zou Google dan toch gewoon - na verloop van tijd - ook die 80.000 artikelen moeten indexeren?

Afbeeldingslocatie: https://i.imgur.com/zpLCMPb.png

Voorbeeldje van de site... je zoekt op iets en in grafieken krijg je allemaal statistieken én de bijbehorende artikelen terug.

Afbeeldingslocatie: https://i.imgur.com/Hi6VcBd.png

DOS SEO check... alles is bereikbaar (geen javascript, css, etc... nodig).

Afbeeldingslocatie: https://i.imgur.com/ylZR98F.png

Artikelen zijn bereikbaar onder een eigen URL, alles is semantisch qua code - statistieken (locatie, coördinaten, publicatiedatum, leestijd, etc... worden per artikel dynamisch gegenereerd).

[ Voor 9% gewijzigd door b2vjfvj75gjx7 op 05-07-2018 15:15 ]

Alle reacties


Acties:
  • +1 Henk 'm!

  • noevra
  • Registratie: Mei 2018
  • Laatst online: 29-07-2022
Ik vermoed (heb even de titel gegoogled om te controleren). Dat weinig van de content op je website en in je database uniek is.

Gezien de datums van de oude berichten, zullen ze minder relevant zijn voor de zoekmachine om mee te nemen in de resultaten gezien hier al met de zelfde tekstuele content al berichten bestaan.

Acties:
  • +1 Henk 'm!

Verwijderd

Eens met @noevra: Ik heb een paar teksten uit je screenshot gegoogled, en al deze berichten staan in letterlijke vorm al elders op het internet.

Dat betekent dat Google je inschat als website die geen nieuwe of unieke content leverd, en daarmee zal de index prioriteit zeer laag zijn. Het is eigenlijk verspilde moeite voor de Google bot als je geen nieuwe content aanbied, slechts bestaande content kopieerd.