Google WMT: Gecrawld - momenteel niet geïndexeerd

Pagina: 1
Acties:

Onderwerpen

Vraag


Acties:
  • 0 Henk 'm!

Anoniem: 1188628

Topicstarter
Goedenavond,

Ik heb een SEO probleempje, hopelijk zitten hier de experts die me wat op weg kunnen helpen.

Onlangs heb ik een gedeelte van het subdomein van mijn webshop gewijzigd.

www.webshop/ dit gedeelte / pagina123.htm

Het gaat om "dit gedeelte". Ik heb veranderd naar een term die relevanter is om zodoende een betere URL structuur te krijgen.

Dit heb ik zo'n twee weken geleden gedaan. Daarna ben ik bezig met alle pagina's die daaronder vallen On Page Seo te optimaliseren.

Het vervelende alleen is dat Google ineens na mijn url-structuur wijziging heeft besloten heel wat pagina's niet meer te indexeren. In Google WMT onder "dekking" vallen deze onder de twee categorieën:

1. Gecrawld - momenteel niet geïndexeerd Status: Uitgesloten
2. Dubbele pagina, ingediende URL niet geselecteerd als canoniek Status: Uitgesloten

Ik snap alleen niet waarom. Ik heb geen dubbele pagina's. Het zijn categorieën en productpagina's van een webshop die Google nu uitsluit. Maar waarom exact staat er niet bij.

Heeft iemand enig idee hoe dit komt en wat het verband mogelijk is met de door mij gewijzigde url structuur?
En natuurlijk... hoe los ik dit op? Want zonder indexering kan ik wel stoppen :'(

Ik heb bewust de echte url niet vermeld, omdat ik niet spammy wil overkomen. Als iemand hem graag wil zien dan kan ik hem altijd pb-en of vermelden natuurlijk.

In ieder geval alvast bedankt voor de hulp.

Gr Johnny

Beste antwoord (via Anoniem: 1188628 op 06-03-2019 22:18)


  • Tuur_vG
  • Registratie: December 2012
  • Laatst online: 27-12-2021
Anoniem: 1188628 schreef op woensdag 6 maart 2019 @ 20:45:
Ik heb inderdaad de URL structuur gewijzigd met daarbij direct 301-redirects en een gewijzigde XML sitemap geupload naar WMT. Dus ik had al precies gedaan wat jullie zeggen.

(Alle interne urls moet ik wel nog even bij langslopen, bedankt voor die tip!)

Zal het dan gewoon even tijd kosten?
Ja, mits er geen andere variabelen zijn geïntroduceerd met de wijziging, zoals een noindex of blokkade in de robots.txt.

zie: https://support.google.com/webmasters/answer/7440203?hl=nl

Uitgesloten: De pagina is niet opgenomen in de index om redenen waarop je gewoonlijk geen invloed hebt. De pagina bevindt zich mogelijk in een tussenfase van het indexeringsproces of is bewust door jou uitgesloten (bijvoorbeeld door een noindex-instructie). In dit laatste geval reageert de pagina zoals verwacht.

De snelheid waarmee wordt gecrawld en geïndexeerd varieert nogal per website. Google kiest zelf hoeveel servercapaciteit een website krijgt op basis van een hoop variabelen dus daarvan ben je afhankelijk. Maar als het goed is moet je wel een stijgende lijn zien in het aantal geïndexeerde nieuwe URL's en een afname in fouten. Zolang die trend zichtbaar is en doorzet is het gewoon een kwestie van afwachten.

Alle reacties


Acties:
  • 0 Henk 'm!

  • Reptile209
  • Registratie: Juni 2001
  • Laatst online: 22:41

Reptile209

- gers -

Heb geen specifieke SEO kennis, maar mijn idee: Google ziet nu dezelfde pagina op een andere plek. Concludeert: kloon en geeft je een straf op je ranking.

Misschien te voorkomen/herstellen door op de oude URLs een 301 (permanent redirect) te geven naar de nieuwe url. Dan gaat het volgens mij 'organisch' in elkaar over en kan je over een tijd de oude url's helemaal weghalen.

Zo scherp als een voetbal!


Acties:
  • 0 Henk 'm!

  • Tuur_vG
  • Registratie: December 2012
  • Laatst online: 27-12-2021
Door je URL's te wijzigen heb je je bestaande content verhuisd en moet Google dit opnieuw beoordelen voordat het wordt opgenomen in de index. De oude URL's blijven nog wel even 'hangen' waardoor je dit soort meldingen van duplicate content kan krijgen als zowel de oude als de nieuwe URL is gevonden.

Ik hoop dat je de oude URL's een 301 redirect hebt gegeven naar de nieuwe URL? Zo niet dan zullende de oude URL's waarschijnlijk een 404 geven, dit moet je z.s.m. repareren. Dan weet Google dat de pagina is verhuisd en kan de nieuwe URL de plaats van de oude innemen.

Daarnaast kun je een up-to-date sitemap in Google Search Console opgeven, dan krijg je over elke ingediende URL informatie over de indexeringsstatus. En kan Google de pagina's sneller vinden.

Vervolgens zul je ook moeten nakijken of je intern alle links ook hebt geupdated naar de nieuwe URL's. Want met een 301 stap ertussen moet Google extra moeite doen om bij de uiteindelijke pagina te komen, waardoor er per keer dat Google langs komt minder effectief wordt gecrawld.

Dit alles moet je z.s.m.repareren om meer schade te voorkomen. En voor een volgende keer: dit soort aanpassing vergen kennis en een gedegen planning voor een soepele overgang. En dan nog is een (tijdelijke) dip nooit helemaal te voorkomen.

En vergeet de Bing webmaster tools niet als je daar ook belang hebt bij een goede indexering.

[ Voor 3% gewijzigd door Tuur_vG op 06-03-2019 20:03 ]


Acties:
  • 0 Henk 'm!

Anoniem: 1188628

Topicstarter
Ik heb inderdaad de URL structuur gewijzigd met daarbij direct 301-redirects en een gewijzigde XML sitemap geupload naar WMT. Dus ik had al precies gedaan wat jullie zeggen.

(Alle interne urls moet ik wel nog even bij langslopen, bedankt voor die tip!)

Zal het dan gewoon even tijd kosten?

Acties:
  • Beste antwoord
  • 0 Henk 'm!

  • Tuur_vG
  • Registratie: December 2012
  • Laatst online: 27-12-2021
Anoniem: 1188628 schreef op woensdag 6 maart 2019 @ 20:45:
Ik heb inderdaad de URL structuur gewijzigd met daarbij direct 301-redirects en een gewijzigde XML sitemap geupload naar WMT. Dus ik had al precies gedaan wat jullie zeggen.

(Alle interne urls moet ik wel nog even bij langslopen, bedankt voor die tip!)

Zal het dan gewoon even tijd kosten?
Ja, mits er geen andere variabelen zijn geïntroduceerd met de wijziging, zoals een noindex of blokkade in de robots.txt.

zie: https://support.google.com/webmasters/answer/7440203?hl=nl

Uitgesloten: De pagina is niet opgenomen in de index om redenen waarop je gewoonlijk geen invloed hebt. De pagina bevindt zich mogelijk in een tussenfase van het indexeringsproces of is bewust door jou uitgesloten (bijvoorbeeld door een noindex-instructie). In dit laatste geval reageert de pagina zoals verwacht.

De snelheid waarmee wordt gecrawld en geïndexeerd varieert nogal per website. Google kiest zelf hoeveel servercapaciteit een website krijgt op basis van een hoop variabelen dus daarvan ben je afhankelijk. Maar als het goed is moet je wel een stijgende lijn zien in het aantal geïndexeerde nieuwe URL's en een afname in fouten. Zolang die trend zichtbaar is en doorzet is het gewoon een kwestie van afwachten.