[SEO] Tips & Trucs

Pagina: 1 ... 9 ... 38 Laatste
Acties:
  • 192.160 views sinds 30-01-2008
  • Reageer

Acties:
  • 0 Henk 'm!

  • SysRq
  • Registratie: December 2001
  • Laatst online: 17:47
TeeDee schreef op vrijdag 06 oktober 2006 @ 09:31:
Maar de crux zit 'm hierin: mijn kennis is op een aantal keywords als eerste hit te vinden.

Hoe gaat google ermee om als ik de site verherbouw, maar dezelfde content blijf gebruiken? Ik wil natuurlijk niet dat deze kennis straks niet meer te vinden is op 'onverklaarbare' wijze.
Zorg in ieder geval dat de site ook nog op de oude urls te benaderen is, eventueel via een redirect naar de nieuwe pagina's toe.

[ Voor 60% gewijzigd door SysRq op 06-10-2006 11:27 ]

-


Acties:
  • 0 Henk 'm!

  • RobIII
  • Registratie: December 2001
  • Niet online

RobIII

Admin Devschuur®

^ Romeinse Ⅲ ja!

(overleden)
Ik kan er niet veel meer op zeggen dan dat mijn voorgangers al zeiden. "Betere" HTML is in principe beter voor Google, maar je weet nooit of je misschien wel "gekort" wordt in je "rank" omdat je misschien wel té nette HTML hebt (ok, stug, maar je weet het nooit zeker).
Wel is het zo dat als je het 180 graden omgooit dat je zowieso moet rekenen op een (tijdelijke) daling/stijging in je rankings, het zal zowieso "effect" hebben (is mijn ervaring). Maar als je nu 1 ranked op een aantal keywords dan zijn ze waarschijnlijk dusdanig specifiek (of dusdanig weinig "concurrentie" op die keywords) dat, als de strekking van de pagina's hetzelfde blijft, die plek wel behouden kan worden.

There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.

Je eigen tweaker.me redirect

Over mij


Acties:
  • 0 Henk 'm!

  • Victor
  • Registratie: November 2003
  • Niet online
Het herschrijven van de templates voor een aantal webshops van mijn werkgever was ook tricky, aangezien we afhankelijk zijn van hoe we scoren in de zoekresultaten. Uiteindelijk is er weinig veranderd qua ranking, behalve dan dat de beschrijvingen van de hits beter kloppen.

Het kwam nog wel eens voor dat de footer als beschrijving van de pagina werd gebruikt, wat natuurlijk een ongewenste situatie is. Nu wordt veel beter herkend wat nu precies de content van de pagina is.

Acties:
  • 0 Henk 'm!

  • Fuzzillogic
  • Registratie: November 2001
  • Laatst online: 01-07 22:34
Het ligt er misschien ook maar net aan hoe Google zijn index bijhoudt. Als alleen de tekst wordt gebruikt voor de zoekfunctionaliteit, dan zal een andere template (met gelijkblijvende tekst) mogelijk erg weinig effect hebben; Google "ziet" dan immers weinig verandering.

Acties:
  • 0 Henk 'm!

  • bartvb
  • Registratie: Oktober 1999
  • Laatst online: 08-09 13:47
Ik heb net een stukje code gemaakt dat de URLs van mijn forum ombouwd naar 301 redirect voor de bots. Iets als:

viewtopic.php?t=1234&sid=d41d8cd98f00b204e9800998ecf8427e
wordt
viewtopic.php?t=1234

viewtopic.php?p=654321 (post 654321)
wordt
viewtopic.php?t=1234&start=25 (pagina 2 van topic 1234 waar post 654321 staat)

en zo nog wat meer kleine dingetjes. Heeft iemand enig idee hoe blij de AdSense bot hier mee is? De content die opgehaald wordt is vrijwel exact hetzelfde alleen is het nu zo dat er voor 1 pagina van een topic maar 1 URL gebruikt wordt in plaats van een stuk of 30 verschillende. Dit zou voor betere AdSense resultaten moeten zorgen (AdSense weet na de eerste bezoeker al wat er op die pagina staat) en voor minder verkeer (crawlers doen zo'n 2 pageviews per seconde op mijn site). Alleen weet ik niet hoe blij Google hier mee is want in wezen is het een soort van cloaking, de normale user krijgt die 301 namelijk niet.

Acties:
  • 0 Henk 'm!

  • megamuch
  • Registratie: Februari 2001
  • Laatst online: 08-12-2024

megamuch

Tring Tring!

frickY schreef op vrijdag 29 september 2006 @ 17:24:
Zonde. Je verspilt het gewicht van de trefwooden op je index, door meteen naar een lager niveau door te verwijzen.
Ik ben hier nog een beetje mee doorgegaan.

De huidige situatie:

- Spider land op url.com
- Spider heeft geen cookie, dus we gaan default taal uitleveren
- redirect (header:location == 302 found) naar juiste url
- spider komt op url.com/taal/
- in url.com/taal komt spider een rel="alternate" hreflang="andere taal" tegen

In feite is dit niet heel veel anders dan de huidige situatie, waarbij ik nu niet redirect maar url.com en url.com/standaardtaal duplicate zijn. (Geen penalty voor gekregen overigens).

Aantal vraagjes:

Ik heb wat bijgelezen over de 302 headers. Er is dus hijjack mogelijk met 302 headers. (info hier)

1. Wat gaat het effect van mijn redirect acties opleveren? Iemand hier enig inzicht in? Is een 301 wellicht beter?

2. Huidige PR is 5 op url.com en url.com/standaardtaal. PR 4 op alternate taal. Iemand enig idee wat een 302 daar aan gaat veranderen?

WebmasterWorld al redelijk door gespit, maar nog geen echte conclusies/ aanbevelingen kunnen vinden.

Verstand van Voip? Ik heb een leuke baan voor je!


Acties:
  • 0 Henk 'm!

  • Blaise
  • Registratie: Juni 2001
  • Niet online
@bartvb: als Google een andere URI ziet dan de user heb je natuurlijk nog steeds dat Adsense niet al gecacht is. Daarnaast wordt de variabele sid volgens mij zowieso al genegeerd door Google.

Verder lijkt me dat meer eenduidigheid in URI's altijd beter is, voor zowel users als zoekmachines.

Acties:
  • 0 Henk 'm!

  • André
  • Registratie: Maart 2002
  • Laatst online: 12-09 14:32

André

Analytics dude

Over die hijack met een 302: dat is leuk als dat gebeurd :9

In het kort: plaats een meta-googlebot-noindex op je pagina, verwijder de url die hijacked, haal daarna die tag weer weg en de betreffende site is minimaal een half jaar uit Google verwijderd. Meer info.

Acties:
  • 0 Henk 'm!

  • CrashOne
  • Registratie: Juli 2000
  • Niet online

CrashOne

oOoOoOoOoOoOoOoOoOo

Heeft iemand ervaring met site als http://www.eigenstart.nl/ of http://www.goedbegin.nl/in SEO opzicht?
Het zijn eigenlijk persoonlijke link pagina's, maar ik (en een klant) vraag me af of het nuttig is om dit te gaan gebruiken.

Mij lijkt het niet echt nuttig, maar ik heb er nog geen onderzoek naar gedaan.

Huur mij in als freelance SEO consultant!


Acties:
  • 0 Henk 'm!

  • André
  • Registratie: Maart 2002
  • Laatst online: 12-09 14:32

André

Analytics dude

Je kunt op een relevante pagina een link laten plaatsen, daar houdt het nut ook op. Je zult geen positieven invloed op je PR krijgen maar wellicht wel relevante traffic.

Acties:
  • 0 Henk 'm!

  • BtM909
  • Registratie: Juni 2000
  • Niet online

BtM909

Watch out Guys...

Je wilt het gaan gebruiken als linkfarm? Zonder te vertellen wat je doel is met dat soort sites, wordt het natuurlijk lastig te bepalen ;)

Ace of Base vs Charli XCX - All That She Boom Claps (RMT) | Clean Bandit vs Galantis - I'd Rather Be You (RMT)
You've moved up on my notch-list. You have 1 notch
I have a black belt in Kung Flu.


Acties:
  • 0 Henk 'm!

  • CrashOne
  • Registratie: Juli 2000
  • Niet online

CrashOne

oOoOoOoOoOoOoOoOoOo

Het idee is een linkfarm, maar wel naar relevante pagina's op de site van een klant.
Nu zegt het woord linkfarm eigenlijk al genoeg.

Ik ben het niet van plan, een klant is dat van plan. ;)

Huur mij in als freelance SEO consultant!


Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
frickY schreef op maandag 02 oktober 2006 @ 09:08:
Nog even over Sitelinks trouwens.
Hoevaak zou Google die moeten refreshen?

Bijna een half jaar geleden heb ik een nieuwssite in een nieuw jasje gestoken, waarbij ook de hele linkstructuur is veranderd. In de Sitelinks staan echter nog steeds links van de oude site.
In de nieuwe site zijn die braaf geredirect naar de bijbehorende pagina, maar ze zijn nou niet echt meer de meest belangrijke links.

Refreshed Google die dingen niet omdat ze nogsteeds functioneren, via die redirect?
Is het slim die redirect tijdelijk uit te schakelen, of ben ik dan de sitelinks kwijt ipv dat hij nieuwe opzoekt?
Zoe zojuist dat de Sitelinks zijn vernieuwd, en deze nu URL's in het nieuwe formaat en ook naar relevantere pagina's bevatten :*) 8)

Acties:
  • 0 Henk 'm!

  • PaulZ
  • Registratie: Augustus 2004
  • Laatst online: 21-05-2024
Je kan in een link een rel-attribuut meegeven met als waarde 'nofollow'. Bij sommige links heb ik dit aangevuld met 'external' (daar doe ik ook nog wat mee intern), dus dat wordt dan 'nofollow external'.
Heeft iemand een idee of die 'nofollow' nou nog werkt?

[ Voor 0% gewijzigd door PaulZ op 12-10-2006 11:34 . Reden: typo ]

Vlinders moet je volgen, niet vangen...


Acties:
  • 0 Henk 'm!

Verwijderd

hoi, ik vraag me het volgende af:

Stel ik maak een website die bestaat uit meerdere html-pagina's. De pagina's zijn onderling uiteraard wel aan elkaar gelinkt. Eén van deze pagina's optimaliseer ik voor de woorden: vos, kip

Maakt het nu voor de zoekmachinepositie van de geoptimaliseerde pagina iets uit of de woorden vos en kip ook terugkomen op de andere html-pagina's die bij dezelfde website horen?

Acties:
  • 0 Henk 'm!

  • CrashOne
  • Registratie: Juli 2000
  • Niet online

CrashOne

oOoOoOoOoOoOoOoOoOo

PaulZ schreef op donderdag 12 oktober 2006 @ 11:31:
Je kan in een link een rel-attribuut meegeven met als waarde 'nofollow'. Bij sommige links heb ik dit aangevuld met 'external' (daar doe ik ook nog wat mee intern), dus dat wordt dan 'nofollow external'.
Heeft iemand een idee of die 'nofollow' nou nog werkt?
This attribute describes the relationship from the current document to the anchor specified by the href attribute. The value of this attribute is a space-separated list of link types.
Volgens de specs moet het kunnen, of de robots er mee om kunnen gaan is een tweede.

Huur mij in als freelance SEO consultant!


Acties:
  • 0 Henk 'm!

  • André
  • Registratie: Maart 2002
  • Laatst online: 12-09 14:32

André

Analytics dude

De nofollow op een link tag werkt wel, alleen is het niet zo dat hij de link niet volgt. Nofollow op een link betekent eigenlijk novote.

Acties:
  • 0 Henk 'm!

  • Fuzzillogic
  • Registratie: November 2001
  • Laatst online: 01-07 22:34
Ons CMS genereert leesbare URIs, dus a la http://example.com/een/twee/file.html. Met een simpele regex vervangen we alle non-word, non-decimal characters door -.

Nou hebben het Duits en Frans vaak te maken met accenttekens, é, ü e.d. In de huidige situatie zetten we deze om naar HTML-entities in de HTML-code, ipv 'gewoon' als UTF-8/Latin-1 encoded. Maar weet iemand hoe zoekmachines met deze HTML-entities omgaan? Als een woord als "nouveautés" als <a href="http://example.com/nouveaut&eacute;s/services.html">link</a> in de HTML staat, wordt het dan überhaupt nog herkent als er op "nouveautés" gezocht wordt?

Acties:
  • 0 Henk 'm!

  • Coju
  • Registratie: Oktober 2000
  • Niet online
Nexxennium schreef op vrijdag 13 oktober 2006 @ 12:51:
Ons CMS genereert leesbare URIs, dus a la http://example.com/een/twee/file.html. Met een simpele regex vervangen we alle non-word, non-decimal characters door -.

Nou hebben het Duits en Frans vaak te maken met accenttekens, é, ü e.d. In de huidige situatie zetten we deze om naar HTML-entities in de HTML-code, ipv 'gewoon' als UTF-8/Latin-1 encoded. Maar weet iemand hoe zoekmachines met deze HTML-entities omgaan? Als een woord als "nouveautés" als <a href="http://example.com/nouveaut&eacute;s/services.html">link</a> in de HTML staat, wordt het dan überhaupt nog herkent als er op "nouveautés" gezocht wordt?
Google heeft daar niet zo lang geleden een mooi stukje tekst over geschreven. http://googlewebmastercen...-may-differ-based-on.html

Acties:
  • 0 Henk 'm!

  • RaZ
  • Registratie: November 2000
  • Niet online

RaZ

Funky Cold Medina

André schreef op vrijdag 13 oktober 2006 @ 09:51:
De nofollow op een link tag werkt wel, alleen is het niet zo dat hij de link niet volgt. Nofollow op een link betekent eigenlijk novote.
Dat was toch een Google-Only tag? Althans, ik heb het tot dusver nog niet op guideline pagina's gezien van andere search engines.

We weten inmiddels allemaal dat informatie op pagina's zetten in noscript en in noframes die keyword density verhogen NOT-DONE is.

Cloaking gebruiken om keywords toetevoegen is ook niet iets waar search engines op zitten te wachten. Maar wat als cloaking gebruikt wordt om niet relevante informatie niet te toen? Dus informatie die je niet geindexeerd wil hebben?

Fok gebruikt bijvoorbeeld javascript om de comments te laten zien, en dat wordt dus niet geindexeerd. Maar dat is voor accessibility weer niet een positief iets.

Als je bijvoorbeeld gaat kijken naar CMS'en, waar je dus met blokken content werkt. Navigatie blokken, header/footer/comments eventueel. De tekst die in de navigatie staat hebben niets met een artikel te maken, comments werkt ook keyword density verlagend.
Ik zat dus te denken, om te kijken wat de useragent is, en op basis daarvan enkel de pagina te serveren zonder header/footer/comments.

Om die manier voer je de zoekmachines alleen de content die je geindexeerd wil hebben, maar wil naturlijk geen ban/penalty krijgen :P

Ey!! Macarena \o/


Acties:
  • 0 Henk 'm!

  • Fuzzillogic
  • Registratie: November 2001
  • Laatst online: 01-07 22:34
Coju schreef op vrijdag 13 oktober 2006 @ 13:24:
[...]


Google heeft daar niet zo lang geleden een mooi stukje tekst over geschreven. http://googlewebmastercen...-may-differ-based-on.html
Bedankt voor de link. Geeft iig aan dat het niet wenselijk is om bijv. é te vervangen door e. Maar mag ik ervan uitgaan dat SE's netjes met HTML-entities om kunnen gaan?

Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
frickY schreef op maandag 25 september 2006 @ 15:36:
Kom net weer zo een grapjas tegen. In de website staan wat transparante gifjes met een a-href eromheen waarin een trefwoord wordt meegegeven. Dat trefwoord wordt vervolgens op een paar plaatsen in die pagina geïnjecteerd, zodat een mooie keyword density ontstaat. Een voorbeeld link (waarvan ik ten harte hoop dat hij wordt geindexeert >:) ); [url maar weggehaald] :9 Om over XSS nog maar te zwijgen.
En dank je wel GoT; hxttp://www.google.nl/search?num=100&hl=nl&q=zoekmachines+breda&meta= >:)

[ Voor 23% gewijzigd door André op 23-10-2006 09:25 ]


Acties:
  • 0 Henk 'm!

  • Dutch_guy
  • Registratie: September 2001
  • Laatst online: 12:06

Dutch_guy

WYSIWYG

Geweldig ! _/-\o_

[ Voor 82% gewijzigd door Dutch_guy op 23-10-2006 09:54 ]

Pay peanuts get monkeys !


Acties:
  • 0 Henk 'm!

Verwijderd

haha heel strak gedaan!

Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
Volgens mij is het grizzlymarketing geweest die deze manier van SEO heeft geïmplementeerd. Buiten dat het in ieder geval onetisch is, is het mijns inziens ook wel een stukje over de grens van het toelaatbare.

[ Voor 5% gewijzigd door frickY op 23-10-2006 09:06 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Geen idee waar ik dit moest plaatsen, dus dan maar hier, omdat dit me de meest geschikte plek leek.

Als je met google op bijv 'volkskrant' zoekt, dan zie je bij het eerste resultaat een aantal extra links bij het resultaat staan.. Hoe krijg je dit voor elkaar?? Moet je daarvoor betalen, en zo ja, waarom komen de 'betaalde' zoekreultaten in het 'niet-betaalde' overzicht??

Acties:
  • 0 Henk 'm!

  • Wacky
  • Registratie: Januari 2000
  • Laatst online: 05-09 21:19

Wacky

Dr. Lektroluv \o/

Dat onderwerp is al heeeeeel vaak behandelt in dit topic, lees het hele topic maar eens vluchtig door :P

Nu ook met Flickr account


Acties:
  • 0 Henk 'm!

Verwijderd

andrescholten.nl dacht ik heeft daar ook wat over op zijn site staan.

Acties:
  • 0 Henk 'm!

Verwijderd

ok relaxed.. kon het ook niet zo snel vinden, maar dat komt ook meer omdat ik totaal niet wist op wat voor naam (voor zover dit een speciale naam heeft) die had en dan wordt zoeken lastig.. ;)

Desalniettemin: erg bedankt!

Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
@acsnaterse
Die links worden "Sitelinks" genoemt. Daarmee zul je wel het een en ander kunnen vinden binnen dit topic en daarbuiten.

Acties:
  • 0 Henk 'm!

  • André
  • Registratie: Maart 2002
  • Laatst online: 12-09 14:32

André

Analytics dude

Verwijderd schreef op maandag 16 oktober 2006 @ 10:02:
andrescholten.nl dacht ik heeft daar ook wat over op zijn site staan.
Goeie site O-)

Acties:
  • 0 Henk 'm!

Verwijderd


Acties:
  • 0 Henk 'm!

  • SysRq
  • Registratie: December 2001
  • Laatst online: 17:47
offtopic:
Mja, ze beschuldigen zomaar reclamebureau's zonder echte reden...
:*

-


Acties:
  • 0 Henk 'm!

Verwijderd

SysRq schreef op maandag 16 oktober 2006 @ 17:05:
[...]

offtopic:
Mja, ze beschuldigen zomaar reclamebureau's zonder echte reden...
:*
offtopic:
had het gelezen ja :D

nee serieus, kom er wel regelmatig op zijn weblog. Leuke dingen staan er wel op!

Acties:
  • 0 Henk 'm!

  • BtM909
  • Registratie: Juni 2000
  • Niet online

BtM909

Watch out Guys...

Ok, iedereen die veer uit Dré z'n r**t, dan we kunnen we weer verder ontopic :*

Ace of Base vs Charli XCX - All That She Boom Claps (RMT) | Clean Bandit vs Galantis - I'd Rather Be You (RMT)
You've moved up on my notch-list. You have 1 notch
I have a black belt in Kung Flu.


Acties:
  • 0 Henk 'm!

  • André
  • Registratie: Maart 2002
  • Laatst online: 12-09 14:32

André

Analytics dude

Misschien even leuk om te melden: Ilse heeft een nieuwe zoekmachine gelanceerd:
http://qa.ilse.nl

Let op, het is in beta status. Suggesties leveren kan op hun weglog: http://ilse.web-log.nl/ilse/

Acties:
  • 0 Henk 'm!

  • Coju
  • Registratie: Oktober 2000
  • Niet online
Vandaag via een RSSfeed dit gevonden: http://googlewebmastercen...-googlebots-crawl-of.html

Nieuwe functionaliteit voor Google Webmaster Tools. O.a. grafieken van Googlebot die je site crawlt en een instelbare crawlrate. Ook iets wat me niet helemaal duidelijk is maar het kan de image search van Google verbeteren.

Je kan nu ook zien hoeveel URLs je hebt gesubmit via Sitemaps.

Ik moet zeggen dat de Googlebot grafieken erg geinig zijn om te zien, ook het instellen van de crawlrate met betrekking tot bandbreedte/datalimieten is erg leuk.

Acties:
  • 0 Henk 'm!

  • CrashOne
  • Registratie: Juli 2000
  • Niet online

CrashOne

oOoOoOoOoOoOoOoOoOo

Ik vraag me af of Crawl Rate ook daadwerkelijk wat zal veranderen aan het gedrag van de googlebot. Als de informatie niet veranderd, dan is het ook niet intressant om veel langs te gaan komen.
De grafiekjes zijn natuurlijk super om te zien, leuk dat google hier steeds meer inzicht in geeft.

Huur mij in als freelance SEO consultant!


Acties:
  • 0 Henk 'm!

  • bartvb
  • Registratie: Oktober 1999
  • Laatst online: 08-09 13:47
Erg nuttige info wat mij betreft. Vooral dit:
We've detected that Googlebot is limiting the rate at which it crawls pages on your site to ensure it doesn't use too much of your server's resources. If your server can handle additional Googlebot traffic, we recommend that you choose Faster below.
Maar eens kijken waar dat vandaan komt. Op dit moment gemiddeld 60.000 pagina's per dag. Dat is gemiddeld iets van 1 pagina per 1.4 seconde.

Acties:
  • 0 Henk 'm!

Verwijderd

bartvb schreef op woensdag 18 oktober 2006 @ 14:15:
Erg nuttige info wat mij betreft. Vooral dit:


[...]


Maar eens kijken waar dat vandaan komt. Op dit moment gemiddeld 60.000 pagina's per dag. Dat is gemiddeld iets van 1 pagina per 1.4 seconde.
Overigens kan ik hem niet op Faster zetten, deze optie is disabled. Is dit bij jullie ook?

Acties:
  • 0 Henk 'm!

  • Coju
  • Registratie: Oktober 2000
  • Niet online
Verwijderd schreef op donderdag 19 oktober 2006 @ 11:26:
[...]


Overigens kan ik hem niet op Faster zetten, deze optie is disabled. Is dit bij jullie ook?
Bij mij werkt het gewoon, na 90 dagen schakelt het zichzelf weer uit. Google kijkt wel of je server de extra load aan kan, dus misschien ligt het daaraan.

Acties:
  • 0 Henk 'm!

  • bartvb
  • Registratie: Oktober 1999
  • Laatst online: 08-09 13:47
Iedereen met een redelijk grote site (60.000 pagina's per dag en meer) hebben dat "your site can't handle it" verhaal er staan samen met die Faster knop.

Op het eerste oog lijkt het er op dat dit Faster verhaal niet heel erg veel verschil maakt. Grafiekje maar eens in de gaten houden de komende dagen.

Acties:
  • 0 Henk 'm!

  • André
  • Registratie: Maart 2002
  • Laatst online: 12-09 14:32

André

Analytics dude

Verwijderd schreef op donderdag 19 oktober 2006 @ 11:26:
[...]


Overigens kan ik hem niet op Faster zetten, deze optie is disabled. Is dit bij jullie ook?
Je site moet aan een aantal criteria voldoen voor je hem sneller kunt zetten.

Acties:
  • 0 Henk 'm!

  • CrashOne
  • Registratie: Juli 2000
  • Niet online

CrashOne

oOoOoOoOoOoOoOoOoOo

Ik heb twee site's in google sitemaps staan, bij de ene kan ik wel voor faster kiezen, bij de ander niet, daar staat deze melding:
The rate at which Googlebot crawls is based on many factors. At this time, crawl rate is not a factor in your site's crawl. If it becomes a factor, the Faster option below will become available.
Ik heb sowieso niet het idee dat het voor veel site's er nuttig is om nog meer te spideren dan er standaard wordt gedaan.

Huur mij in als freelance SEO consultant!


Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
Ik wil een tooltje maken waar in een URL in kan gooien en waar de pagerank uit komt rollen. Hetzelfde als al tientallen bestaande sites doen dus alleen wil ik niet afhankelijk zijn van die sites.

Bij Google kan ik echter niets vinden over het ergens kunnen uitlezen van de PR, ook niet via bijv. de API's. Is het toegestaan om een programma te schrijven welke zich voordoet als de Google toolbar? En dus dat ik even utizoek hoe die toolbar aan zijn info komt en dat nabouw in een eigen programma?

Acties:
  • 0 Henk 'm!

  • CrashOne
  • Registratie: Juli 2000
  • Niet online

CrashOne

oOoOoOoOoOoOoOoOoOo

Als je er op googlet heb je het zo gevonden:

PHP:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
<?php

//header("Content-Type: text/plain; charset=utf-8");
define('GOOGLE_MAGIC', 0xE6359A60);

//unsigned shift right
function zeroFill($a, $b)
{
    $z = hexdec(80000000);
        if ($z & $a)
        {
            $a = ($a>>1);
            $a &= (~$z);
            $a |= 0x40000000;
            $a = ($a>>($b-1));
        }
        else
        {
            $a = ($a>>$b);
        }
        return $a;
}


function mix($a,$b,$c) {
  $a -= $b; $a -= $c; $a ^= (zeroFill($c,13));
  $b -= $c; $b -= $a; $b ^= ($a<<8);
  $c -= $a; $c -= $b; $c ^= (zeroFill($b,13));
  $a -= $b; $a -= $c; $a ^= (zeroFill($c,12));
  $b -= $c; $b -= $a; $b ^= ($a<<16);
  $c -= $a; $c -= $b; $c ^= (zeroFill($b,5));
  $a -= $b; $a -= $c; $a ^= (zeroFill($c,3));
  $b -= $c; $b -= $a; $b ^= ($a<<10);
  $c -= $a; $c -= $b; $c ^= (zeroFill($b,15));

  return array($a,$b,$c);
}

function GoogleCH($url, $length=null, $init=GOOGLE_MAGIC) {
    if(is_null($length)) {
        $length = sizeof($url);
    }
    $a = $b = 0x9E3779B9;
    $c = $init;
    $k = 0;
    $len = $length;
    while($len >= 12) {
        $a += ($url[$k+0] +($url[$k+1]<<8) +($url[$k+2]<<16) +($url[$k+3]<<24));
        $b += ($url[$k+4] +($url[$k+5]<<8) +($url[$k+6]<<16) +($url[$k+7]<<24));
        $c += ($url[$k+8] +($url[$k+9]<<8) +($url[$k+10]<<16)+($url[$k+11]<<24));
        $mix = mix($a,$b,$c);
        $a = $mix[0]; $b = $mix[1]; $c = $mix[2];
        $k += 12;
        $len -= 12;
    }

    $c += $length;
    switch($len)              /* all the case statements fall through */
    {
        case 11: $c+=($url[$k+10]<<24);
        case 10: $c+=($url[$k+9]<<16);
        case 9 : $c+=($url[$k+8]<<8);
          /* the first byte of c is reserved for the length */
        case 8 : $b+=($url[$k+7]<<24);
        case 7 : $b+=($url[$k+6]<<16);
        case 6 : $b+=($url[$k+5]<<8);
        case 5 : $b+=($url[$k+4]);
        case 4 : $a+=($url[$k+3]<<24);
        case 3 : $a+=($url[$k+2]<<16);
        case 2 : $a+=($url[$k+1]<<8);
        case 1 : $a+=($url[$k+0]);
         /* case 0: nothing left to add */
    }
    $mix = mix($a,$b,$c);
    /*-------------------------------------------- report the result */
    return $mix[2];
}

//converts a string into an array of integers containing the numeric value of the char
function strord($string) {
    for($i=0;$i<strlen($string);$i++) {
        $result[$i] = ord($string{$i});
    }
    return $result;
}

function getrank($url) {
    $url = 'info:'.$url;
    $ch = GoogleCH(strord($url));
    $file = "http://www.google.com/search?client=navclient-auto&ch=6$ch&features=Rank&q=$url";
    $data = file($file);
    $rankarray = explode (':', $data[2]);
    $rank = $rankarray[2];
    return $rank;
}

echo 'PageRank: '.getrank($url).'';

?>

Huur mij in als freelance SEO consultant!


Acties:
  • 0 Henk 'm!

  • André
  • Registratie: Maart 2002
  • Laatst online: 12-09 14:32

André

Analytics dude

Ik heb zelf deze gemaakt, is voor meerdere urls en maakt gebruik van dezelfde server als de Google toolbar:

HTML:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
<html>
  <head>
    <title>PR tool</title>
    <script type="text/javascript">
      function c32to8bit(arr32)
      {
        var arr8 = new Array();
        for(i = 0; i < arr32.length; i++)
        {
          for (bitOrder = i * 4; bitOrder <= i * 4 + 3; bitOrder++)
          {
            arr8[bitOrder] = arr32[i] & 255;
            arr32[i] = zeroFill(arr32[i], 8);
          }
        }
        return arr8;
      }

      function myfmod(x,y)
      {
        var i = Math.floor(x/y);
        return (x - i * y);
      }

      function hexdec(str)
      {
        return parseInt(str, 16);
      }

      function zeroFill(a,b)
      {
        var z = hexdec(80000000);
        if (z & a)
        {
          a = a >> 1;
          a &= ~z;
          a |= 0x40000000;
          a = a >> (b - 1);
        }
        else
        {
          a = a >> b;
        }
        return (a);
      }

      function mix(a,b,c)
      {
        a -= b; a -= c; a ^= (zeroFill(c, 13));
        b -= c; b -= a; b ^= (a << 8);
        c -= a; c -= b; c ^= (zeroFill(b, 13));
        a -= b; a -= c; a ^= (zeroFill(c, 12));
        b -= c; b -= a; b ^= (a << 16);
        c -= a; c -= b; c ^= (zeroFill(b, 5));
        a -= b; a -= c; a ^= (zeroFill(c, 3));
        b -= c; b -= a; b ^= (a << 10);
        c -= a; c -= b; c ^= (zeroFill(b, 15));
        var ret = new Array((a),(b),(c));
        return ret;
      }

      function strord(string)
      {
        var result = new Array();
        for(i = 0; i < string.length; i++)
        {
          result[i] = string.substr(i, 1).charCodeAt(0);
        }
        return result;
      }

      function URLencode(sStr)
      {
        return escape(sStr).replace(/\+/g, '%2B').replace(/[ ]/g,'+').replace(/\//g,'%2F');
      }

      function GoogleCH(url,length)
      {
        var init = 0xE6359A60;
        if (arguments.length == 1)
        {
          length = url.length;
        }
        var a = 0x9E3779B9;
        var b = 0x9E3779B9;
        var c = 0xE6359A60;
        var k = 0;
        var len = length;
        var mixo = new Array();
        while(len >= 12)
        {
          a += (url[k + 0] + (url[k + 1] << 8) + (url[k + 2] << 16) + (url[k + 3] << 24));
          b += (url[k + 4] + (url[k + 5] << 8) + (url[k + 6] << 16) + (url[k + 7] << 24));
          c += (url[k + 8] + (url[k + 9] << 8) + (url[k + 10] << 16)+ (url[k + 11] << 24));
          mixo = mix(a, b, c);
          a = mixo[0]; b = mixo[1]; c = mixo[2];
          k += 12;
          len -= 12;
        }
        c += length;
        switch(len)
        {
          case 11: c += url[k + 10] << 24;
          case 10: c += url[k + 9] << 16;
          case 9 : c += url[k + 8] << 8;
          case 8 : b += (url[k + 7] << 24);
          case 7 : b += (url[k + 6] << 16);
          case 6 : b += (url[k + 5] << 8);
          case 5 : b += (url[k + 4]);
          case 4 : a += (url[k + 3] << 24);
          case 3 : a += (url[k + 2] << 16);
          case 2 : a += (url[k + 1] << 8);
          case 1 : a += (url[k + 0]);
        }
        mixo = mix(a,b,c);
        
        if (mixo[2] < 0) { return (0x100000000 + mixo[2]); } else { return mixo[2]; }
      }

      function GoogleNewCh(ch)
      {
        ch = (((ch/7) << 2) | ((myfmod(ch, 13)) & 7));

        prbuf = new Array();
        prbuf[0] = ch;
        for(i = 1; i < 20; i++)
        {
          prbuf[i] = prbuf[i - 1] - 9;
        }
        ch = GoogleCH(c32to8bit(prbuf), 80);
        return ch;
      }

      var gXMLHttpRequest;
      var gch = 0;
      var gstate = 1;

      function setPagerankStatus()
      {
        if(gXMLHttpRequest.readyState == 4)
        {
          if(gXMLHttpRequest.status == 200)
          {
            var temp = gXMLHttpRequest.responseText;
            var foo = temp.match(/Rank_.*?:.*?:(\d+)/i);
            
            var pr = (foo) ? foo[1] : "-1";
            foo = temp.match(/FVN_.*?:.*?:(?:Top\/)?([^\s]+)/i);
            
            addline(lines[act], pr);
            
            act++;
            if (act < lines.length - 1)
            {
              time = 10;
              if (act % 10 == 0) { time = Math.random() * 5000; }
              alert(time);
              setTimeout("initPagerankStatus('" + lines[act] + "')", time);
            }
          }
        }
      }
      
      function addline(url, pr)
      {
        p = document.createElement("br");
        t = document.createTextNode(url + ", " + pr);
        
        document.getElementById("results").appendChild(t);
        document.getElementById("results").appendChild(p);
      }

      function initPagerankStatus(url)
      {
        url = url.replace(/\?.*$/g,'?');

        var reqgr = "info:" + url;
        var reqgre = "info:" + URLencode(url);
        gch = GoogleCH(strord(reqgr));
        gch = "6" + GoogleNewCh(gch);

        var querystring = "http://toolbarqueries.google.com/search?client=navclient-auto&ch=" + gch + "&ie=UTF-8&oe=UTF-8&features=Rank:FVN&q=" + reqgre;
        var patern = /^http:/;
        var patern2 = /^http:\/\/.*google\..*\/(search|images|groups|news).*/;
        var patern3 = /^http:\/\/localhost.*/;
        var patern4 = /^http:\/\/(127\.|10\.|172\.16|192\.168).*/; //local ip

        if (!patern.test(url) || patern2.test(url) || patern3.test(url) || patern4.test(url))
        {
          addline(url, "n/a");
        }
        else
        {
          try { // Voor Firefox
            netscape.security.PrivilegeManager.enablePrivilege("UniversalBrowserRead");
          } catch (e) { }
          
          if(navigator.appName == "Netscape")
          {
            gXMLHttpRequest = new XMLHttpRequest();
          } else if (navigator.appName == "Microsoft Internet Explorer") {
            try
            {
              gXMLHttpRequest = new ActiveXObject("Msxml2.XMLHTTP");
            } catch(e) {
              gXMLHttpRequest = new ActiveXObject("Microsoft.XMLHTTP");
            }
          }
          gXMLHttpRequest.onreadystatechange = setPagerankStatus;
          gXMLHttpRequest.open("GET", querystring);
          gXMLHttpRequest.setRequestHeader("User-Agent","Mozilla/4.0 (compatible; GoogleToolbar 2.0.114-big; Windows XP 5.1)");
          gXMLHttpRequest.send(null);
        }
      }
      
      var lines;
      var act = 0;
      
      function startPR()
      {
        area = document.getElementById("urls").value;
        lines = area.split("\n");
        initPagerankStatus(lines[act]);
      }
      
    </script>
    <style type="text/css">
      * {
        font-family: verdana;
        font-size: 12px;
      }
    </style>
  </head>
  <body>
    Let op: na elke 10 adressen volgt er een time-out tussen de 0 en 5 seconden.
    <form name="test" action="">
      <textarea id="urls" cols="100" rows="20"></textarea>
      <input type="button" value="Bereken PR" onclick="startPR()">
    </form>
    <div id="results"></div>
  </body>
</html>

Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
CrashOne schreef op vrijdag 20 oktober 2006 @ 10:20:
Als je er op googlet heb je het zo gevonden:
Ik zei dan ook niet dat ik geen code kon vinden, mij vraag was of het is toegestaan.
Ik meen namelijk dat het tegen de ToS van Google is om de server achter de toolbar aan te spreken. Maar heb geen alternatieve methode kunnen vinden die wél is toegestaan.

@Andre
Ziet er netjes uit, maar waarom in godsnaam in Javascript? :D

[ Voor 8% gewijzigd door frickY op 20-10-2006 15:30 ]


Acties:
  • 0 Henk 'm!

  • André
  • Registratie: Maart 2002
  • Laatst online: 12-09 14:32

André

Analytics dude

frickY schreef op vrijdag 20 oktober 2006 @ 15:29:
[...]

Ik zei dan ook niet dat ik geen code kon vinden, mij vraag was of het is toegestaan.
Ik meen namelijk dat het tegen de ToS van Google is om de server achter de toolbar aan te spreken. Maar heb geen alternatieve methode kunnen vinden die wél is toegestaan.
Je doet hetzelfde als de Google Toolbar, dus dat is niet verkeerd.
@Andre
Ziet er netjes uit, maar waarom in godsnaam in Javascript? :D
Omdat dat overal werkt en je dus geen webserver nodig hebt :)

Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
offtopic:
@Dutch_guy: Zou je deze post willen editten? Zo lullig als ze GoT de schuld geven van hun nieuwe top-keyword


Ik meen uit de ToS opgemaakt te hebben dat het niet is toegestaan hetzelfde de toen als de toolbar. Zal wel een concurrentie-iets zijn. Neemt niet weg dat er honderden sites zijn die dit wel doen.. maar ik hou ze het liefst te vriend :9

Acties:
  • 0 Henk 'm!

  • Dutch_guy
  • Registratie: September 2001
  • Laatst online: 12:06

Dutch_guy

WYSIWYG

offtopic:
Done !


Volgens Google is onze site op 20 oktober voor het laatst bezocht door de Googlebot, dit klopt ook aangezien de omschrijving die ik nu te zien krijg in Google de meest recente is. Echter de site is verder nog niet geindexeerd.

Ik weet 100% zeker dat de site goed te indexeren is, maar toch is dit nog niet gebeurt. Iemand enig idee ? Of indexeert Google niet meteen al je pagina's ? Enige pagina's die nu bij Google bekend zijn, zijn oude pagina's van de vorige site.

[ Voor 89% gewijzigd door Dutch_guy op 23-10-2006 10:03 ]

Pay peanuts get monkeys !


Acties:
  • 0 Henk 'm!

  • André
  • Registratie: Maart 2002
  • Laatst online: 12-09 14:32

André

Analytics dude

Google indexeert vaak in lagen: eerst de homepage, dan de onderliggende pagina's, enz :)

Acties:
  • 0 Henk 'm!

  • Dutch_guy
  • Registratie: September 2001
  • Laatst online: 12:06

Dutch_guy

WYSIWYG

Hmm, toch vreemd. Als ik kijk in het webmasterhulpprogramma van Google dan zie ik bij "Crawlsnelheid" dat er op die dag 149 pagina's geindexeerd zijn ?

Er was toch ook iets van een cache server van Google waar je kon kijken hoe je echt geindexeerd stond ? Welke was dit ?

Pay peanuts get monkeys !


Acties:
  • 0 Henk 'm!

  • CrashOne
  • Registratie: Juli 2000
  • Niet online

CrashOne

oOoOoOoOoOoOoOoOoOo

Ik denk dat je last hebt van het "sandbox" effect. Het duurt even voordat je pagina's ook in de resultaten zullen verschijnen als het om een nieuwe site gaat.

Huur mij in als freelance SEO consultant!


Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
Volgens mij is er onderscheid in crawlen en indexeren.
Één crawler verzamelt alle links op je site, en bepaald misschien of een pagina wel of niet is aangepast. Een andere crawler zal die pagina's vervolgens gaan indexeren. Weer een andere crawler neemt pagina's op in zijn cache. Etc.
Of gebeurd dat allemaal tijdens één en hetzelfde request?

Om een pagina uit de cache te zien kun je de [url=cache:http://tweakers.net/]cache:[/url] parameter gebruiken.
André schreef op maandag 23 oktober 2006 @ 10:16:
Google indexeert vaak in lagen: eerst de homepage, dan de onderliggende pagina's, enz :)
Heeft dat ook niet te maken met de pagerank van die pagina's?

[ Voor 8% gewijzigd door frickY op 23-10-2006 14:52 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Zeer interessant topic dit. Heb afgelopen vrijdag het Google Webmaster hulpprogramma ontdekt, en dat ziet er toch wel erg netjes uit.

Moet nu voor een klant een compleet nieuwe website vanaf de grond opzetten en ben van plan zoveel mogelijk SEO erin te verwerken, dus je zal me nog wel terugvinden in dit topic. Tot een maand geleden wist ik nog niet bijster veel van het onderwerp af.

Maar ik heb wel een vraagje waar één van jullie misschien meer over weet. Ik heb op 31 augustus een compleet nieuwe website online gezet, maar Google heeft de site al sinds 14 augustus niet meer opnieuw geindexeerd. Voorheen stond er een statische pagina in html, die ik (ongeveer) begin augustus heb vervangen door een tijdelijke "we krijgen een nieuwe site" pagina. Deze laatste staat nu dus geindexeerd en dat moet zo snel mogelijk vervangen worden door de nieuwe, dynamische content van de site. Ik heb het volgende al gedaan:

• Aangemeld op Google webmasterprogramma
• Sitemap geupload (178 links)
• Robots.txt geplaatst (weet niet of dat nut heeft, maar kan sowieso geen kwaad)
• Crawl-index op "Sneller" gezet (geldt voor de komende 3 maanden)

Heeft iemand nog andere tips/ideeën waarmee ik de indexering kan versnellen? Of ligt dit gewoon 100% buiten mijn macht en moet ik rustig gaan slapen?

Acties:
  • 0 Henk 'm!

  • André
  • Registratie: Maart 2002
  • Laatst online: 12-09 14:32

André

Analytics dude

Ga maar lekker slapen ;)

Zorg dat je goede inkomende links krijgt, en hoe populairder je wordt hoe vaker je gespiderd word. Niet van wakkerliggen, komt vanzelf wel.

Acties:
  • 0 Henk 'm!

  • Dutch_guy
  • Registratie: September 2001
  • Laatst online: 12:06

Dutch_guy

WYSIWYG

Nou, ik had dus precies hetzelfde met een "we krijgen een nieuwe site" pagina. Die was dus geindexeerd.

Ik denk dat een ieder er verstandig aan doet om zo een dergelijke pagina niet te plaatsen, of in ieder geval de 1e tekst te vervangen door iets logischer.

Pay peanuts get monkeys !


Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
Moet je sowieso afvragen wat de waarde van een dergelojke pagina is voor je bezoekers.
De meeste zal het weinig uitmaken dat je een nieuwe site krijgt, en willen tot die tijd gewoon van de oude gebruik blijven maken.

Acties:
  • 0 Henk 'm!

  • CrashOne
  • Registratie: Juli 2000
  • Niet online

CrashOne

oOoOoOoOoOoOoOoOoOo

Je moet die betreffende pagina gewoon in je robots.txt zetten, probleem op gelost.

Huur mij in als freelance SEO consultant!


Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
Je moet die hele pagina gewoon achterwege laten, en je oude site laten staan ;)

Acties:
  • 0 Henk 'm!

  • AtleX
  • Registratie: Maart 2003
  • Niet online

AtleX

Tyrannosaurus Lex 🦖

Ik heb weleens gehad dat een nieuwe site een vertraging had terwijl de bekendmakingen en persberichten al verspreid waren. Toen hebben we ook een tijdelijke pagina erop gezet met uitleg, voor de zekerheid ook alle user agents geblocked in een robots.txt en 5 uur later de eigenlijke website erop gezet. Beter dat dan een pagina waarop bezoekers mogelijk stapels errors kregen.

Sole survivor of the Chicxulub asteroid impact.


Acties:
  • 0 Henk 'm!

Verwijderd

André schreef op maandag 23 oktober 2006 @ 15:47:
Ga maar lekker slapen ;)

Zorg dat je goede inkomende links krijgt, en hoe populairder je wordt hoe vaker je gespiderd word. Niet van wakkerliggen, komt vanzelf wel.
offtopic:
Ga jij is wat nieuwe logjes schrijven op je site ;)

Acties:
  • 0 Henk 'm!

  • bartvb
  • Registratie: Oktober 1999
  • Laatst online: 08-09 13:47
Die Crawl Rate stats bij Google Sitemaps zijn leuk maar het lijkt er op dat deze sinds de introductie niet geupdate zijn? Ik zie bij mijn site iig geen verandering. Is dit bij meer mensen zo of is er iets raars aan de hand voor mijn site?

Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
Mijn grafiek lijkt op 1 oktober te eindigen, terwijl deze op ongeveer 5 juli begint.

Acties:
  • 0 Henk 'm!

  • bartvb
  • Registratie: Oktober 1999
  • Laatst online: 08-09 13:47
Ik gok dat je half oktober bedoeld, er staan hele dunne grijze lijntjes tussen de maanden. Die van mij ziet er iig zo uit:

Afbeeldingslocatie: http://www.typo.nl/misc/google_crawl_0610.png

Het lijkt er op dat het al een tijd niet meer geupdate is, lijkt ergens rond 16 oktober ofzo op te houden.

Acties:
  • 0 Henk 'm!

Verwijderd

Is het jullie trouwens ook opgevallen dat Sitemaps niet langer in het Nederlands is? Een aantal maanden geleden werkte Sitemaps ineens ook in het Nederlands (hoewel de vertalingen hier en daar een beetje vreemd waren), wat nu niet langer het geval is.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op donderdag 26 oktober 2006 @ 16:14:
Is het jullie trouwens ook opgevallen dat Sitemaps niet langer in het Nederlands is? Een aantal maanden geleden werkte Sitemaps ineens ook in het Nederlands (hoewel de vertalingen hier en daar een beetje vreemd waren), wat nu niet langer het geval is.
Verander google.com in google.nl, dan is hij wel gewoon Nederlands :)

Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
@bartvb
Je hebt gelijkt. De naam van de maand staat in het midden van het blok. Mijn grafiek ziet er het zelfde uit (maar dan een stukje lager :P).

Acties:
  • 0 Henk 'm!

  • CrashOne
  • Registratie: Juli 2000
  • Niet online

CrashOne

oOoOoOoOoOoOoOoOoOo

Is er een manier om te voorkomen dat een <noscript> blok niet geindexeerd wordt? Ik heb hier namelijk een echte waarschuwing in staan voor het missen van (extra) functionaliteit, alleen indexeerd google dat als gewone tekst, wat ik dus helemaal niet wil.
Het weg halen van de tag met inhoud wil ik ook niet, ik vind dat je bezoekers daarover moet informeren.

Huur mij in als freelance SEO consultant!


Acties:
  • 0 Henk 'm!

  • Fuzzillogic
  • Registratie: November 2001
  • Laatst online: 01-07 22:34
CrashOne schreef op vrijdag 27 oktober 2006 @ 10:42:
Is er een manier om te voorkomen dat een <noscript> blok niet geindexeerd wordt?
Zou mooi zijn als er een attribuut zou zijn om ook andere elementen op die manier te kunnen negeren. Ik denk hierbij aan menu's en footers e.d.
HTML:
1
2
3
<ul index="noindex">
...
</ul>

XHTML 2.0/HTML 5 bieden hier wel meer controle over, maar een 'unofficial' methode lijkt me nu toch ook al wenselijk.

Acties:
  • 0 Henk 'm!

  • djluc
  • Registratie: Oktober 2002
  • Laatst online: 16:51
Zorgen dat er genoeg nuttige tekst staat? Dan zal Google die wel laten zien toch?

Acties:
  • 0 Henk 'm!

  • Fuzzillogic
  • Registratie: November 2001
  • Laatst online: 01-07 22:34
Het gaat ook om eventuele 'vervuiling' van je tekst te minimaliseren. In mijn site bevat elke pagina de complete menustructuur, hetgeen weer barst van de keywords. Ik heb niet het idee dat dat de zoekresultaten nou direct positief beinvloedt.

Misschien dat google en cornuiten zelf wel snappen dat een (geneste) ul met daarin enkel linkjes een menu moet voorstellen, maar toch heb ik het liever zelf in de hand.

Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
Zou dan een ideale manier zijn om trefwoorden te spammen. Vergeet maar dat dat zal komen :)
Kun je je tekst niet in een afbeelding zetten?

Acties:
  • 0 Henk 'm!

  • CrashOne
  • Registratie: Juli 2000
  • Niet online

CrashOne

oOoOoOoOoOoOoOoOoOo

frickY schreef op zondag 29 oktober 2006 @ 20:44:
Zou dan een ideale manier zijn om trefwoorden te spammen. Vergeet maar dat dat zal komen :)
Kun je je tekst niet in een afbeelding zetten?
Hij wil een tag die aangeeft dat een bepaald element niet geindexeerd hoeft te worden, dat heeft toch niks met spammen te maken?

Huur mij in als freelance SEO consultant!


Acties:
  • 0 Henk 'm!

  • RaZ
  • Registratie: November 2000
  • Niet online

RaZ

Funky Cold Medina

CrashOne schreef op maandag 30 oktober 2006 @ 06:50:
[...]


Hij wil een tag die aangeeft dat een bepaald element niet geindexeerd hoeft te worden, dat heeft toch niks met spammen te maken?
En frickY geeft aan, dat als je net zoals met Adsense het kan sturen, het ook misbruikt kan worden.

De woorden die in navigatie-menu's staan, of bijvoorbeeld reacties zoals in de frontpage, die te negeren voor indexeren.
code:
1
2
3
4
5
header, navigatie
<!-- Index_start -->
Content voor de zoekmachines
<!-- Index_stop -->
blokken links en recht en footer

Dit kan je dus ook gewoon misbruiken door zoiets om een lading keywords heen te mikken.

Ik kwam trouwens tot m'n verbazing dat ik gewoon erg hoog in de results kwam met diverse keywords, alleen erg jammer dat het m'n RSS feed betrof. Alle hits op die keywords kwamen naar m'n feed.

Als ik er html-code in zet dat spiders de urls wel moeten volgen, maar niet indexeren, valideerd m'n feed niet meer.. Naatje

Ey!! Macarena \o/


Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
Dat ligt er een beetje aan hoe het geimplementeerd zou worden. Maar wat ik zei klopt inderdaad niet helemaal, bedenk ik me nu :|

@RaZ
Als je geen meta-tag geeft dat robots links moeten volgen, dan volgen zij ze standaard. Eigenlijk heb je alleen wat aan die metatag om noindex of nofollow te geven.
RSS-feeds scoren vaak hoger vanwege een goede keyword density. Er zitten geen verbodige tags in en dergelijke.
Met behulp van google sitemaps kun je je RS-feed een lagere prioriteit geven dan je daadwerkelijke content pagina's. Misschen dat je daarmee je content boven je RSS kunt krijgen.

[ Voor 64% gewijzigd door frickY op 30-10-2006 07:41 ]


Acties:
  • 0 Henk 'm!

  • Spleasure
  • Registratie: Juli 2001
  • Laatst online: 13-08 08:13

Spleasure

Ik hier?

Onder welke content-type wordt je RSS feed aangeboden? Ik kan me voorstellen dat als je een Content-type: text/html header voor je RSS feed hebt (perongeluk) dat Google denkt dat het HTML is. Ik denk dat als je er text/xml of een rss specifieke content-type voor gebruikt dat Google hem niet zal weergeven, het kan toch niet de bedoeling zijn dat er RSS feeds in de zoekresultaten komen.

Acties:
  • 0 Henk 'm!

  • RaZ
  • Registratie: November 2000
  • Niet online

RaZ

Funky Cold Medina

PHP:
1
header("Content-Type: text/xml; charset=ISO-8859-1");

Staat lijkt mij gewoon goed dus. Ik voer bij googlesitemaps wel die feed aan als sitemap bestand. Misschien toch maar die handel naar het sitemap protocol ombouwen. Dan nog, ik heb 3 feeds op z'n site staan: RSS2.0, RDF en ATOM1.0. Deze staan in de header, als alternate links, en op elke pagina ook vermeld. Op elke pagina zijn die links dus aanwezig.

Ey!! Macarena \o/


Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
text/xml geeft geen RSS-feed aan, maar een algemeen XML bestand.
Ikzelf gebruik
PHP:
1
header("Content-Type: application/rss+xml; charset=iso-8859-1");

Dat werkt prima, en komt ook niet terug in Google.
Nadeel hiervan is dat niet alle browsers dit snappen, mocht iemand op die pagina errecht komen zonder newsreader. Daarom geef ik wel de text/xml-header indien de HTTP_USER_AGENT "mozilla" bevat, dan is iedereen er blij mee.
PHP:
1
2
3
4
5
if(!empty($_SERVER['HTTP_USER_AGENT']) && strpos($_SERVER['HTTP_USER_AGENT'], "Mozilla") !== false) {
    header("Content-Type: text/xml; charset=iso-8859-1");
} else {
    header("Content-Type: application/rss+xml; charset=iso-8859-1");
}

[ Voor 39% gewijzigd door frickY op 30-10-2006 14:38 ]


Acties:
  • 0 Henk 'm!

  • RaZ
  • Registratie: November 2000
  • Niet online

RaZ

Funky Cold Medina

Heb die in m'n RSS & RDF feed gezet. Bij de ATOM feed heb ik application/atom+xml als type gezet. (Die waardes kom ik vaker tegen als ik sources van pagina's check, dus hoop dat het zo klopt)
Ik ben benieuwd wat de results zullen zijn over een paar dagen. Ze valideren alle 3 nog in iedergeval.

Ik ben overigens ook wel eens paginas tegen gekomen waar de RDF in de HTM-pagina zit. Wordt gewoon als comments erin verwerkt: <!-- *meuk RDF* --> Ik kan de templates van m'n gebruikte CMS dusdanig aanpassen dat dit ook vrij eenvouding te doen is. Maar heeft het meerwaarde/nut?

Ey!! Macarena \o/


Acties:
  • 0 Henk 'm!

  • Fuzzillogic
  • Registratie: November 2001
  • Laatst online: 01-07 22:34
Daarom geef ik wel de text/xml-header indien de HTTP_USER_AGENT "mozilla" bevat, dan is iedereen er blij mee.
Opera o.a. stuurt geen Mozilla mee. Waarom ook? Ik hoop dat Safari, Konqueror, zoekmachines en (haha yeah right) IE ook ooit eens stoppen met die flauwekul.

Bij moderne browser kun je veel beter gaan luisteren naar de accept-header. Voor verouderde browsers zoals IE6/7 zul je idd (weer) een work-around moeten maken, door bijv. te checken op Mozilla/4.0. IE stuurt namelijk doorleuk: accept: */*. :(

Beperk browsersniffing zoveel mogelijk.

Acties:
  • 0 Henk 'm!

  • Spleasure
  • Registratie: Juli 2001
  • Laatst online: 13-08 08:13

Spleasure

Ik hier?

Nexxennium schreef op maandag 30 oktober 2006 @ 15:43:
[...]

Opera o.a. stuurt geen Mozilla mee. Waarom ook? Ik hoop dat Safari, Konqueror, zoekmachines en (haha yeah right) IE ook ooit eens stoppen met die flauwekul.

Bij moderne browser kun je veel beter gaan luisteren naar de accept-header. Voor verouderde browsers zoals IE6/7 zul je idd (weer) een work-around moeten maken, door bijv. te checken op Mozilla/4.0. IE stuurt namelijk doorleuk: accept: */*. :(

Beperk browsersniffing zoveel mogelijk.
In principe klopt dat, IE accepteert alle content types. Hij geeft ze alleen niet allemaal weer, maar IE sluit bij voorbaat niets uit. Kweenie of dat helemaal volgens de specs is, maar ik snap het wel.

Acties:
  • 0 Henk 'm!

  • Fuzzillogic
  • Registratie: November 2001
  • Laatst online: 01-07 22:34
Spleasure schreef op maandag 30 oktober 2006 @ 15:49:
[...]


In principe klopt dat, IE accepteert alle content types. Hij geeft ze alleen niet allemaal weer, maar IE sluit bij voorbaat niets uit. Kweenie of dat helemaal volgens de specs is, maar ik snap het wel.
Ik snap het niet. Met accept: */* zegt IE dat-ie ALLES snapt. Nu en in de toekomst. Dat is gewoon plain stupid.

Zo serveer ik mijn websites als application/xhtml+xml aan clients die claimen dat te kunnen. En je mag raden wat IE ermee doet :/

Maar is het sowieso een probleem? IE6 kan standaard toch niet overweg met RSS en heeft daar een externe tool voor nodig. Geeft application/rss+xml dan problemen? Je krijgt standaard toch een "save as/open with" dialoogje ofzo?

Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
Ik gok dat IE hem ter download aanbied als "Onbekend bestandstype", zoals hij dat met alle bestandstypen doet die hij niet kent :)

@Nexxennium
Deze header hoeft alleen maar IE gebruikers af te vangen. FF, en volgens mij Opera en Safari ook, gaan prima om met de application/rss+xml header. Alleen IE krijgt het bestand dan niet meer weergegeven.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb dit topic grotendeels doorgelezen maar blijf nog met een vraag zitten.

Er zijn verschillende bedrijven die verwijzen naar onze website maar dit gebeurd dan via een specifieke map, bijvoorbeeld bedrijf A verwijst naar ons.
Deze krijgt dan op onze site een map die te bereiken is via www.site.nl/bedrijfA/.

Volgens sommige mensen is deze manier van werken slecht pagerank van de site (hoofdpagina).

Iemand hier enige ervaring mee?

Acties:
  • 0 Henk 'm!

  • RobIII
  • Registratie: December 2001
  • Niet online

RobIII

Admin Devschuur®

^ Romeinse Ⅲ ja!

(overleden)
Verwijderd schreef op dinsdag 31 oktober 2006 @ 16:47:
Ik heb dit topic grotendeels doorgelezen maar blijf nog met een vraag zitten.

Er zijn verschillende bedrijven die verwijzen naar onze website maar dit gebeurd dan via een specifieke map, bijvoorbeeld bedrijf A verwijst naar ons.
Deze krijgt dan op onze site een map die te bereiken is via www.site.nl/bedrijfA/.

Volgens sommige mensen is deze manier van werken slecht pagerank van de site (hoofdpagina).

Iemand hier enige ervaring mee?
Waarschijnlijk is het beter voor de pagerank van je root als ze linken zonder "bedrijfA". Anderzijds is het wel weer beter voor de PR van "bedrijfA"... En een "stukje" van die PR zal wel weer doorwegen op je "root" dus... tja...
Ik zou zelf opteren om ze naar de root te laten verwizen als je daar een hogere PR wil.

There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.

Je eigen tweaker.me redirect

Over mij


Acties:
  • 0 Henk 'm!

  • André
  • Registratie: Maart 2002
  • Laatst online: 12-09 14:32

André

Analytics dude

Je krijgt op die manier een hoop pagina's die allemaal 1 inkomende link hebben, niet echt waardevol dus. Helemaal als die pagina's ook nog hetzelfde zijn, dat is het helemaal waardeloos vanwege de duplicate content.

Acties:
  • 0 Henk 'm!

Verwijderd

Bedankt voor de reacties.
Eigenlijk nog vergeten te melden maar het enige wat gedaan wordt in de map bedrijfA is het setten van een cookie(referer + eventuele korting) en daarna doorverwijzen naar een 'normale' pagina op de website.

Acties:
  • 0 Henk 'm!

  • Coju
  • Registratie: Oktober 2000
  • Niet online
Nog een link vraag. Stel ik heb een soort van overzichtspagina waarin bedrijven vermeld staan. Zij staan vermeld onder bijvoorbeeld: Nederland/Zuid-Holland/Rotterdam en Nederland/Zuid-Holland/Den Haag

Via een database is het record van het bedrijf echter steeds hetzelfde doordat het uit een database wordt gehaald. Als de bezoeker via de pagina Den Haag naar een bedrijfspagina gaat is wordt dit duidelijk uit de url en de inhoud, in de bovenhoek staat dan immers Nederland / Zuid-Holland / Den Haag ipv bijvoorbeeld Rotterdam.
Behalve de url en die bovenhoek is de pagina hetzelfde. Hoe gaat Google hier mee om? Wordt de pagina als duplicate gezien?

Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
@Bigniels
Indien je dit doorverwijzen met een 301 Moved Permanently header doet, zou de 'stem' op die /bedrijfA pagina doorgegeven moeten worden naar je root.
Het zou echter mijn voorkeurhebben te verwijzen naar de root en bedrijfA als parameter in de query-string mee te geven (/index.php?ref=bedrijfA).

[ Voor 31% gewijzigd door frickY op 31-10-2006 18:37 ]


Acties:
  • 0 Henk 'm!

Verwijderd

ok nu heb ik het gehad
op www. webdesignersgids .nl

kwam ik mijn link tegem, mijn site heeft een pagerank 1. Er zijn 2 webdesign 'bedrijfjes' die een pagerank hoger hebben dan ik.. allebei 3.

Nu kijk ik bijv bij msn
link:urlwebsite beide

En nu zie ik dat msn maar bij beide ongeveer 3 results heeft... zoek ik met link:eigenurl dan komen er echt ongeveer 50 results.

Heb toch ook een paar goede links op sites staan met aantal pr 5 en pr 3.

Wat doe ik fout? die 2 sites die hoger zijn, zijn ook afgrijselijk en niet eens geoptimaliseerd voor google of what ever :P

grr frustrating

Acties:
  • 0 Henk 'm!

  • Spleasure
  • Registratie: Juli 2001
  • Laatst online: 13-08 08:13

Spleasure

Ik hier?

Nexxennium schreef op maandag 30 oktober 2006 @ 16:06:
[...]

Ik snap het niet. Met accept: */* zegt IE dat-ie ALLES snapt. Nu en in de toekomst. Dat is gewoon plain stupid.

Zo serveer ik mijn websites als application/xhtml+xml aan clients die claimen dat te kunnen. En je mag raden wat IE ermee doet :/

Maar is het sowieso een probleem? IE6 kan standaard toch niet overweg met RSS en heeft daar een externe tool voor nodig. Geeft application/rss+xml dan problemen? Je krijgt standaard toch een "save as/open with" dialoogje ofzo?
Uit de RFC:
The Accept request-header field can be used to specify certain media types which are acceptable for the response.
IE slikt alles. Hij geeft alleen niet alles weer, maar de webserver mag alles toesturen wat de webserver maar wil.
Het is idd een beetje lomp van IE, en ik zou ook liever zien dat ze normaal XHTML ondersteunen ....

[ Voor 5% gewijzigd door Spleasure op 31-10-2006 21:05 ]


Acties:
  • 0 Henk 'm!

Verwijderd

hmm nog eens een link popularity check gedaan.. en ook daar krijgen die 2 sites gewoon pr 3... en ze hebben totaal geen backlinks :S

Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
@Kvdzanden
Ik snap werkelijk niets van je verhaal.

Acties:
  • 0 Henk 'm!

  • CrashOne
  • Registratie: Juli 2000
  • Niet online

CrashOne

oOoOoOoOoOoOoOoOoOo

* CrashOne vroeg zich al af of hij de enige was...

Je hebt een PR6 site, en maakt je druk om PR3 sites?

En backlinks krijg je bij google niet allemaal te zien he ;)

Huur mij in als freelance SEO consultant!


Acties:
  • 0 Henk 'm!

  • André
  • Registratie: Maart 2002
  • Laatst online: 12-09 14:32

André

Analytics dude

Er zijn duizenden factoren, niet alleen je inkomende links en pagerank geven de doorslag. Wat dacht je van de waarde van de inkomende links: een nietszeggende link van een PR6 site is lang niet zo goed als een goede link vanuit een gerelateerde site met een PR2 :)

Acties:
  • 0 Henk 'm!

Verwijderd

CrashOne schreef op woensdag 01 november 2006 @ 09:15:
* CrashOne vroeg zich al af of hij de enige was...

Je hebt een PR6 site, en maakt je druk om PR3 sites?

En backlinks krijg je bij google niet allemaal te zien he ;)
wooow nee excuses, ik heb een pagerank 2. Enorme typos gister.

Maar goed het klopt gewoon niet 8)7

Acties:
  • 0 Henk 'm!

  • AtleX
  • Registratie: Maart 2003
  • Niet online

AtleX

Tyrannosaurus Lex 🦖

Een sitemap submitten is wel hèt recept voor meer traffic. Ik heb er 1 gesubmit voor http://atlex.nl/ op 22 oktober, sinds 25 oktober is het verkeer afkomstig van Google zoekopdrachten bijna verdrievoudigd, maar helaas doet Google elke dag ook eventjes ±15.000 hits op de 174 gesubmitte URL's. :X Ik neem aan dat ik inmiddels wel geïndexeerd ben na ongeveer 135000 bezoekjes van de Googlebot en nog een paar duizend afkomstig van hetzelfde IP als de Googlebot maar dan met dezelfde UA string als IE6. Weet iemand of dit normaal is en het dus vanzelf stopt? Op dit moment kom ik nog niet de problemen qua traffic (shared hosting :)), maar het moet natuurlijk niet een maand lang zo door gaan.

[ Voor 11% gewijzigd door AtleX op 01-11-2006 10:36 ]

Sole survivor of the Chicxulub asteroid impact.


Acties:
  • 0 Henk 'm!

  • frickY
  • Registratie: Juli 2001
  • Laatst online: 15:10
Google Sitemaps (of eigenlijk de Webmaster Tools waar dit onderdeel van is) is onlangs nog geupdate met de mogelijkheid de crawl-snelheid in te stellen. Je kutn dus aangeven dat de bot wel iets rustiger aan mag doen ;) Zie het onderste blok met opties in de linker navigatie.

[ Voor 12% gewijzigd door frickY op 01-11-2006 10:41 ]

Pagina: 1 ... 9 ... 38 Laatste