Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

  • Swerfer
  • Registratie: Mei 2003
  • Laatst online: 30-11 10:16
Elke keer als op mijn webserver de sitemap.xls wordt opgevraagd (door searchengines ed.) wordt de sitemap dynamisch gegenereerd met alle links van mijn website random erin.

Het gaat dan om zo'n 270 links. Ik merk dat Google elke dag meerdere malen de sitemap download, en ook ruim 800 links bezoekt. Dus de meeste links 2 of meer keer.

Ik begin nu te twijfelen of die random sitemap wel een goed idee is.

Ik merk (nog) geen nadelige gevolgen in de zoekresultaten, maar ik blijf het wel in de gaten houden.

Ik heb gekozen voor een random sitemap 'on the fly' juist om searchengines wat vaker langs elke link te laten gaan, maar ik weet nu dus niet of dat (op den duur) nadelige gevolgen heeft. De links zijn overigens redelijk statisch, op de homepage na. Die wijzigt na elk bezoek. (15 Random items op de homepage)

Ook weet ik niet of het uberhaupt wel zin heeft, een random sitemap. Heeft iemand hier ervaring met frequent wijzigende sitemaps?

Home Assistant | Unifi | LG 51MR.U44 | Volvo EX30 SMER+ Vapour Grey, trekhaak | SmartEVSE V3 | Cronos Crypto.com


  • RobIII
  • Registratie: December 2001
  • Niet online

RobIII

Admin Devschuur®

^ Romeinse Ⅲ ja!

(overleden)
Nou ken ik de internals van zoekmachines natuurlijk niet, maar als ik er één moest bouwen dan was elke url een "unieke key" die een te indexeren pagina representeert. In welke volgorde ze in je sitemap voor zouden komen zou dan niet roesten en het lijkt me dan ook stug dat zoekmachines daar voor- of nadelen van zouden ondervinden. Sterker: het zou alleen maar meer werk betekenen om een 'vorige sitemap' langs de 'huidige sitemap' te houden bij elke ronde van indexeren om vervolgens de verschillen te bepalen blablabla terwijl, uiteindelijk, de url's gewoon allemaal toch op 'tzelfde neerkomen behalve de positie in de sitemap. Boeie.
Swerfer schreef op donderdag 21 juli 2011 @ 16:38:
Ik heb gekozen voor een random sitemap 'on the fly' juist om searchengines wat vaker langs elke link te laten gaan
Op basis waarvan :? Heb je een bron die beweert dat dat zo is of zou zijn?
Swerfer schreef op donderdag 21 juli 2011 @ 16:38:
maar ik weet nu dus niet of dat (op den duur) nadelige gevolgen heeft
Zoals aangegeven: ook daar geloof ik weinig van. Heb je ondersteunend bewijs of een bron :?
Swerfer schreef op donderdag 21 juli 2011 @ 16:38:
Heeft iemand hier ervaring met frequent wijzigende sitemaps?
Definieer "wijzigend". Als je het puur over de positie van (telkens) dezelfde URL's in de sitemap hebt dan zou ik namelijk niet spreken over "wijzigend". Het bestand is "fysiek" misschien anders, wat het representeert (een lijstje van URL's) blijft hetzelfde.
Het wordt natuurlijk een ander verhaal als de url's in de sitemap steeds veranderen.

Zie het zo: Als ik een boodschappenlijstje voor je maak met daarop appels, peren, bananen en rijstepap ( :9 ) en ik stuur je er 3x op uit met diezelfde lijst met als enige verschil de volgorde van de boodschappen. Wat is dan het netto verschil, behalve je route door de supermarkt misschien, als je thuis komt?

[ Voor 55% gewijzigd door RobIII op 21-07-2011 17:30 ]

There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.

Je eigen tweaker.me redirect

Over mij


  • Swerfer
  • Registratie: Mei 2003
  • Laatst online: 30-11 10:16
Ik heb geen bron of zo, maar meer een gevoel.

Dat ik mijn website voor het eerst voorzien had van een sitemap, merkte ik dat vooral de eerste urls in die sitemap in Google werden opgenomen. Dat kwam er op neer dat in het begin voornamelijk urls uit het begin van het alfabet zichtbaar werden.

Sinds ik de sitemap random heb merk ik dat Google meerdere keren per dag de sitemap binnenhaald, en de urls meerdere keren per dag bezoekt. Kan natuurlijk zijn dat mijn website nu langer online is, en ik meer backlinks heb, dat dat de reden is van de frequentere bezoeken van Googlebot.

Ik zal de sitemap eens een weekje statisch maken, en kijken of ik verschil merk...

Home Assistant | Unifi | LG 51MR.U44 | Volvo EX30 SMER+ Vapour Grey, trekhaak | SmartEVSE V3 | Cronos Crypto.com


  • MueR
  • Registratie: Januari 2004
  • Nu online

MueR

Admin Devschuur® & Discord

is niet lief

Ik kan me uberhaupt niet voorstellen dat een fatsoenlijke spider zich iets aantrekt van een sitemap. Het is heel handig voor lastig indexeerbare sites, of voor nieuwe sites, maar verder? Het doel van de sitemap is het vergemakkelijken van de taak van de spider: paginas vinden. Als zo'n pagina eenmaal geindexeerd is zou een sitemap er helemaal niet meer toe moeten doen.

Anyone who gets in between me and my morning coffee should be insecure.