[Redirects] Dubbel in Google

Pagina: 1
Acties:

  • JorzoR
  • Registratie: Juni 2005
  • Laatst online: 13-11 17:39
Hallo,

Ik zal het zo duidelijk mogelijk proberen uit te leggen.

Ik heb een website, met momenteel 150 berichten. Gister heb ik de structuur van mijn website een beetje verandert.
/nieuws/sub1/bericht.html is geworden: /sub1/bericht.html
/nieuws/sub2/bericht.html is gworden: /sub2/bericht.html
etc...

De oude urls worden dus ook netjes met een 301 doorverwezen naar de nieuwe url. Echter, de Googlebot komt nu weer langs, en neemt dus de nieuwe pagina's op, maar verwijdert niet de oude pagina's.
Momenteel zijn er al een paar berichten die dubbel in de index staan. :'(

Ik heb al wel een beetje een idee hoe dat komt, want bijna nergens op mijn site staat de oude url, dus de Googlebot ziet de redirect niet.
Alleen op andere sites en in de google index staan de 'oude' urls nog.

Is er een oplossing voor dit probleem? O-)

[ Voor 8% gewijzigd door JorzoR op 21-05-2008 09:58 ]


  • TeeDee
  • Registratie: Februari 2001
  • Laatst online: 23:16

TeeDee

CQB 241

Ja.

1. Google sitemaps gebruiken en handmatig het e.e.a. verwijderen.
2. Even wachten. Komt wel goed. Zo niet, zie 1.

[ Voor 7% gewijzigd door TeeDee op 21-05-2008 10:47 ]

Heart..pumps blood.Has nothing to do with emotion! Bored


  • Bosmonster
  • Registratie: Juni 2001
  • Laatst online: 11-11 10:24

Bosmonster

*zucht*

Handmatig verwijderen is wel een hoop werk met veel pagina's, want je moet per pagina een aanvraag doen. Of je kunt alles in 1x verwijderen. De site wordt daarna weer opnieuw gespiderd.

  • Frash
  • Registratie: Mei 2002
  • Laatst online: 17-11 08:48
Bosmonster schreef op woensdag 21 mei 2008 @ 11:01:
Handmatig verwijderen is wel een hoop werk met veel pagina's, want je moet per pagina een aanvraag doen. Of je kunt alles in 1x verwijderen. De site wordt daarna weer opnieuw gespiderd.
Je kan evt. ook een robots.txt opstellen of laten genereren met een PHP scrippie. Het domein met het robots.txt bestand kun je vervolgens opgeven in de webpage removal request tool en Google zal de desbetreffende pagina's met spoed verwijderen.

[ Voor 15% gewijzigd door Frash op 21-05-2008 11:08 ]


  • JorzoR
  • Registratie: Juni 2005
  • Laatst online: 13-11 17:39
Ik gebruik een sitemap ja, de nieuwe urls staan daar nu ook allemaal in.

Ik heb wel eens eerder wat verwijdert via die Google Webmaster removal tool, alleen je pagina moet echt verwijdert zijn en een 404 gegeven. Anders zegt ie gewoon dat de pagina nog bestaat.
Ik kan nu niet zomaar een 404 aan een pagina geven, want dan loop ik ongeloofelijk veel bezoekers mis.

Maar als je een url voor verwijderen opgeeft, gaat de Googlebot automatisch naar die url? En kijkt wat ermee aan de hand is?
Dus dat betekend dat ie dan ook die redirect ziet?

Alvast bedankt voor de antwoorden :)

[ Voor 5% gewijzigd door JorzoR op 21-05-2008 11:34 ]


  • Bosmonster
  • Registratie: Juni 2001
  • Laatst online: 11-11 10:24

Bosmonster

*zucht*

Stuur je wel een 301 Moved Permanently header mee met je redirect? Dan lost het zich mogelijk sneller op. Want in jouw geval is er verder niet zoveel aan te doen als een 404 geen optie is (waar ik me goed in kan vinden).

Combineer dat met een sitemap en een goede robots.txt en het wordt een kwestie van even wachten tot google het goed oppikt.

[ Voor 22% gewijzigd door Bosmonster op 21-05-2008 11:40 ]


  • JorzoR
  • Registratie: Juni 2005
  • Laatst online: 13-11 17:39
Bosmonster schreef op woensdag 21 mei 2008 @ 11:39:
Stuur je wel een 301 Moved Permanently header mee met je redirect? Dan lost het zich mogelijk sneller op. Want in jouw geval is er verder niet zoveel aan te doen als een 404 geen optie is (waar ik me goed in kan vinden).

Combineer dat met een sitemap en een goede robots.txt en het wordt een kwestie van even wachten tot google het goed oppikt.
Ja het is een 301 Moved Permanently header.
Ik zie al wel dat een paar van de 'nieuwe' pagina's BOVEN de 'oude' pagina's staan. Dat gaat dus in ieder geval wel goed. Alleen de 'oude' pagina's zijn nog niet verwijdert.

Ik heb een paar 'oude' urls toegevoegd (die niet meer bezocht worden) aan dat url verwijder programma van Google, kijken wat het resultaat daarvan wordt. ;)

Ik wacht het in ieder geval even af :)

[ Voor 6% gewijzigd door JorzoR op 21-05-2008 12:02 ]


  • André
  • Registratie: Maart 2002
  • Laatst online: 13-11 13:40

André

Analytics dude

Ga de urls in ieder geval niet blokkeren zoals door anderen aangegeven wordt. Dan zal Google nooit meer de redirects kunnen oppakken, hierdoor wordt de opgebouwde leeftijd/relevantie/populariteit weggegooid.

Geef het gewoon wat tijd, helemaal voor dieper gelegen url's, Google zal na verloop van tijd wel langskomen. Als extra hulpmiddel zou je een XML sitemap kunnen submitten met daarin alleen je oude url's. Of dit helpt is ook afwachten, soms versnelt het iets en soms ook niet.

Als jij je redirects goed geregeld hebt komt het vanzelf goed, ga niets handmatig verwijderen.

  • JorzoR
  • Registratie: Juni 2005
  • Laatst online: 13-11 17:39
André schreef op woensdag 21 mei 2008 @ 11:49:

Als extra hulpmiddel zou je een XML sitemap kunnen submitten met daarin alleen je oude url's. Of dit helpt is ook afwachten, soms versnelt het iets en soms ook niet.
Daar zat ik ook nog over na te denken

Kijken of dat werkt

Bedankt :)

[ Voor 37% gewijzigd door JorzoR op 21-05-2008 11:51 ]


  • JorzoR
  • Registratie: Juni 2005
  • Laatst online: 13-11 17:39
Inmiddels kan ik melden dat bijna alle dubbele resultaten bij Google eruit zijn :)
Op een paar enkele dieper gelegen links/content na.

Vorige week had ik een sitemap met de oude links toegevoegd aan Google Webmasters, maar een paar dagen later bleek toch dat Google er niet mee om kon gaan, omdat ie de URL's niet kon vinden (404) terwijl alles gewoon word ge-redirect (permanent 301), beetje vreemd...

Anywayz, nog bedankt voor jullie moeite ;)
Pagina: 1