Zou het trouwens nog veel nut hebben om 'metatag title' op een Wordpress weblog neer te gooien en eventueel een php-scriptje dat automatisch een 'metatag keywords' lijstje genereerd van mijn site?
Ik moest laatst eens een pagina opzoeken in de geschiedenis van mijn browser, ik had een pagina bezocht en wist vaag de domeinnaam. Daar ga je dan als dat domein de titels voor het domein heeft staan in de title of mischien helemaal niets herkenbaars in de title gebruikt verder. Je zoekt je een ongeluk tussen een ongeordende hoeveelheid links, die als de domeinnaam of een afkorting ervoor staat netjes gesorteerd bij elkaar zouden staan.Nexxennium schreef op dinsdag 05 september 2006 @ 20:25:
Los van de SEO, ik ben zelf laatst van domein - titel naar titel - domein gegaan. Als mensen meerdere tabjes open hebben, dan zijn ze niet geinteresseerd in mijn domeinnaam, maar in het artikel. Maar dat is dus puur vanwege gebruiksvriendelijkheid. En dat komt toch nog voor SEO!
offtopic:
(ja firefox heeft een search box erboven, het gaat mij om het idee).
(ja firefox heeft een search box erboven, het gaat mij om het idee).
Hier op het forum hebben veel van de pagina's het heerlijk korte 'GoT' voor de title staan behalve de topics zelf. Op zich is dit best een gemis als je toevallig een topic op GoT opzoekt in de geschiedenis van je browser (mocht je er niet in gepost hebben en hem niet gebookmarked hebben
Ik zou persoonlijk dus toch de voorkeur geven voor een bepaalde tekst die altijd als eerste in de title staat, mits deze zo kort is dat het niet storend is in tabjes. Want in tabjes hoor je natuurlijk gewoon te kijken naar het favicon van een site
Verwijderd
Het klinkt misschien een beetje raar, maar het lijkt alsof google mijn site niet wil indexeren. Ik heb um 2 weken geleden toegevoegd bij de addurl + sitemaps van google, maar mijn site staat er dus nog niet in.
Ik verwacht dat het misschien komt omdat ik een TE dynamische pagina heb. Voor 90% bestaat mijn pagina uit een lijst van 50 activiteiten die ongeveer om de 3 uur vervallen en waarvoor dan nieuwe activiteiten in de plaats komen. Dus er is eigenlijk geen echte vaste content.
Is het mogelijk dat ie daarom nog niet is geindexeerd?
Misschien is het duidelijker als je de site ziet. Ik hoop dat het niet als spam gezien wordt, mocht dit wel zo zijn kan een admin de link zsm verwijderen.
Ik verwacht dat het misschien komt omdat ik een TE dynamische pagina heb. Voor 90% bestaat mijn pagina uit een lijst van 50 activiteiten die ongeveer om de 3 uur vervallen en waarvoor dan nieuwe activiteiten in de plaats komen. Dus er is eigenlijk geen echte vaste content.
Is het mogelijk dat ie daarom nog niet is geindexeerd?
Misschien is het duidelijker als je de site ziet. Ik hoop dat het niet als spam gezien wordt, mocht dit wel zo zijn kan een admin de link zsm verwijderen.
Verwijderd
Ik zie steeds vaker bedrijven/instellingen met de volgende resultaten komen,
het gaat hierbij om de tekst waarbij verschillende links van de pagina nog eens
afzonderlijk worden weergegeven. Heeft dit met adwords te maken?
het gaat hierbij om de tekst waarbij verschillende links van de pagina nog eens
afzonderlijk worden weergegeven. Heeft dit met adwords te maken?
code:
1
2
3
4
5
6
7
8
9
10
| Nederlandse Hartstichting - 0:09 Informatie en advies van de Nederlandse Hartstichting. www.hartstichting.nl/ - 64k - In cache - Gelijkwaardige pagina's brochures - http://www.hartstichting.nl/webshop/index.aspx zorgverleners - http://www.hartstichting.nl/zorgverleners/ Begrippen - http://www.hartstichting.nl/go/default.asp?mID=5577 Herken een beroerte - http://www.hartstichting.nl/fast/ Meer resultaten van www.hartstichting.nl » |
Ik denk dat Google eerder een probleem heeft met je gebruik van een listbox i.c.m. Javascript en een POST form voor de navigatie. Aangezien een crawler nooit een POST zal uitvoeren, zal alleen je voorpagina geïndexeerd kunnen worden.Verwijderd schreef op dinsdag 05 september 2006 @ 22:38:Ik verwacht dat het misschien komt omdat ik een TE dynamische pagina heb.
Waarom vervang je de listbox niet door een Suckerfish dropdown menu? Die bevat normale hyperlinks en die kan de Google crawler wel volgen.
Of je leest de draad effeVerwijderd schreef op woensdag 06 september 2006 @ 10:22:
Ik zie steeds vaker bedrijven/instellingen met de volgende resultaten komen,
het gaat hierbij om de tekst waarbij verschillende links van de pagina nog eens
afzonderlijk worden weergegeven. Heeft dit met adwords te maken?
code:
1 2 3 4 5 6 7 8 9 10 Nederlandse Hartstichting - 0:09 Informatie en advies van de Nederlandse Hartstichting. www.hartstichting.nl/ - 64k - In cache - Gelijkwaardige pagina's brochures - http://www.hartstichting.nl/webshop/index.aspx zorgverleners - http://www.hartstichting.nl/zorgverleners/ Begrippen - http://www.hartstichting.nl/go/default.asp?mID=5577 Herken een beroerte - http://www.hartstichting.nl/fast/ Meer resultaten van www.hartstichting.nl »
RobIII in "[SEO] Tips & Trucs"
Elvis56 in "[SEO] Tips & Trucs"
[ Voor 3% gewijzigd door RobIII op 06-09-2006 10:29 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Echte links maken met een <a> tag inderdaad. Verder zou je aan wat meer inleidende tekst en additionele pagina's met uitleg kunnen denken. Dan heeft google wat meer tekst om te indexeren.Verwijderd schreef op dinsdag 05 september 2006 @ 22:38:
Het klinkt misschien een beetje raar, maar het lijkt alsof google mijn site niet wil indexeren. Ik heb um 2 weken geleden toegevoegd bij de addurl + sitemaps van google, maar mijn site staat er dus nog niet in.
Naast het feit dat twee weken wel redelijk kort is om omgenomen te worden in de indexVerwijderd schreef op dinsdag 05 september 2006 @ 22:38:
Het klinkt misschien een beetje raar, maar het lijkt alsof google mijn site niet wil indexeren. Ik heb um 2 weken geleden toegevoegd bij de addurl + sitemaps van google, maar mijn site staat er dus nog niet in.
Ik verwacht dat het misschien komt omdat ik een TE dynamische pagina heb. Voor 90% bestaat mijn pagina uit een lijst van 50 activiteiten die ongeveer om de 3 uur vervallen en waarvoor dan nieuwe activiteiten in de plaats komen. Dus er is eigenlijk geen echte vaste content.
Is het mogelijk dat ie daarom nog niet is geindexeerd?
Heb je hetzelfde probleem ook op de test servers van google?
Ace of Base vs Charli XCX - All That She Boom Claps (RMT) | Clean Bandit vs Galantis - I'd Rather Be You (RMT)
You've moved up on my notch-list. You have 1 notch
I have a black belt in Kung Flu.
Welke test servers van googleBtM909 schreef op woensdag 06 september 2006 @ 11:35:
[...]
Naast het feit dat twee weken wel redelijk kort is om omgenomen te worden in de index
Heb je hetzelfde probleem ook op de test servers van google?
Als ik nu hamer op de results blijft ie constant op 507 links staan. M'n sitemap heeft net iets meer dan 250 links. Het lijkt er bijna op dat Google z'n filters oid heeft aangepast. Er staan op m'n site een lading bullshit links, maar daar kan ik weinig aan doen omdat het een CMS pakket is.RaZ schreef op dinsdag 05 september 2006 @ 14:05:
[..]
Als ik zoek op m'n site, en gebruik ik site: en ik hamer even, dan zie ik als laagste 1740 links, en als hoogste 2590 links.
[..]
Dat een pagina met een aantal links naar andere sites op 10 verschillende manier te laten zien is, blijft de content vrij wel gelijk. Sorteren op naam, datum, aantal hits, of zelfs op punten die gezet kunnen worden, de content veranderd dus niet, het komt alleen in een andere volgorde. Zou een hoop verklaren.
Bij het weblog en het forum zitten overal links naar printer templates, deze werden dus ook geindexeerd. Die templates heb ik ook allemaal aangepst door de de meta-tag voor de robots op noindex te zetten. Het verbaasde me dat deze pagina's in de results hoger scoorde dan de pagina's die volledig in in website zitten. Als iemand op content zoekt, wil je natuurlijk dat ze de site zien, en niet een blanco pagina die print-vriendelijk is waar dus geen lay-out in zit.
Al om al, het is wel een gigatische drop van hoeveel links google van me had.
Ey!! Macarena \o/
Zo vreemd is dat niet. Doordat in die printer-friendly pagina's vaak alle overbodige balast (navigatie, banners, etc.) weg is gelaten, ligt de keyword density hoger. Hierdoor komt de pagina dus hoger in de ranking.RaZ schreef op woensdag 06 september 2006 @ 12:08:
Bij het weblog en het forum zitten overal links naar printer templates, deze werden dus ook geindexeerd.
...
Het verbaasde me dat deze pagina's in de results hoger scoorde dan de pagina's die volledig in in website zitten.
Ah... da's logica van het hoogste plankArjen Tempel schreef op woensdag 06 september 2006 @ 12:34:
[...]
Zo vreemd is dat niet. Doordat in die printer-friendly pagina's vaak alle overbodige balast (navigatie, banners, etc.) weg is gelaten, ligt de keyword density hoger. Hierdoor komt de pagina dus hoger in de ranking.
Dus als ik m'n navigatie op basis van de useragent uitzet, zal een spider die dus niet zien. Elke een link naar de sitemap op die pagina's, en dan zal het wel goed moeten komen lijkt me.
Er staan penalties op hidden content, die users niet zien, maar de spiders wel, zouden er penalties staan op dingen juist verbergen voor spiders? Volgens mij zou ik met een aantal aanpassingen wel templates kunnen maken voor spiders, waar dus de navigatie en andere 'overbodige ballast' zijn verwijderd.
Ey!! Macarena \o/
Dat is iets dat ik ook al een tijdje van plan ben voor mijn site. Het gaat voornamelijk om een forum en iedere post heeft daar een link (net als op GoT) b.v.:
Eigenlijk wil je niet dat Google die links ziet, die dingen indexeren levert 25 keer dezelfde content op voor een topic met 25 posts. Verder nog een hoop andere onzinnige links/tekst die voor een spider helemaal niet boeiend is. Als je de dingen echter strikt bekijkt ben je bezig met cloaking als je die links/content gaat verbergen.
Wel heb ik heel sterk het idee dat de cloaking regel er vooral is om keyword spam e.d. tegen te gaan en dat men het op zich wel op prijs stelt als je de spider een beetje helpt. Ik kwam daar laatst nog een artikel over tegen, kan dat alleen zo snel niet vinden :\
code:
1
| http://gathering.tweakers.net/forum/list_message/26436781#26436781 |
Eigenlijk wil je niet dat Google die links ziet, die dingen indexeren levert 25 keer dezelfde content op voor een topic met 25 posts. Verder nog een hoop andere onzinnige links/tekst die voor een spider helemaal niet boeiend is. Als je de dingen echter strikt bekijkt ben je bezig met cloaking als je die links/content gaat verbergen.
Wel heb ik heel sterk het idee dat de cloaking regel er vooral is om keyword spam e.d. tegen te gaan en dat men het op zich wel op prijs stelt als je de spider een beetje helpt. Ik kwam daar laatst nog een artikel over tegen, kan dat alleen zo snel niet vinden :\
Op een forum, ja, daar krijg je een lading content verzieking in natuurlijk. Maar kan ook pagerank verhogend werken, als je dus links in je signature zet. Het heeft zo z'n voor en nadelen.
Maar ik draai dus een CMS, met een forum erin. De template voor het forum heeft ook de navigatie, en dat zijn natuurlijk links en teksten die dan ook geindexeerd wordt. Zelfde geld voor een blog-artikel, ook daar staat een rij met links voor navigatie doeleinden.
Ik gebruik zelf op alle pagina's de noarchive tag, zodat ik niet gecached word. Door content hidden te maken voor spiders, wijkt de cache in de zoekmachine natuurlijk af van wat de user moet gaan zien.
Misschien een idee, dat je bijvoorbeeld dmv van tags, wat je nu ook kan doen voor adsense, content excluden voor keywords. Dus dat je kan bepalen op een pagina welke content wel of niet geindexeerd moet worden.
Edit:
Ben nu even bezig met een test, als je zoekt op 'chat statistieken' kom ik op plek 2 in google. Nu vang ik op pagina af of er een 'tit' var in de url staat. Is die niet gevuld, of staat de titel van de pagina er niet in, geef ik een 301, en redirect ik naar de url waar 'tit' wel gevuld is. Hierdoor komen dus ook de keywords in de url, en dat werkt dacht ik ook voor de plaats waar je wordt weergegeven. De woorden 'chat' & 'statistieken' komen dus in de url te staan. Eens kijken of ik over een tijdje op plek 1 sta met die keywords, if so, heb ik heel wat aan te passen op de rest van m'n site
Maar ik draai dus een CMS, met een forum erin. De template voor het forum heeft ook de navigatie, en dat zijn natuurlijk links en teksten die dan ook geindexeerd wordt. Zelfde geld voor een blog-artikel, ook daar staat een rij met links voor navigatie doeleinden.
Ik gebruik zelf op alle pagina's de noarchive tag, zodat ik niet gecached word. Door content hidden te maken voor spiders, wijkt de cache in de zoekmachine natuurlijk af van wat de user moet gaan zien.
Misschien een idee, dat je bijvoorbeeld dmv van tags, wat je nu ook kan doen voor adsense, content excluden voor keywords. Dus dat je kan bepalen op een pagina welke content wel of niet geindexeerd moet worden.
Edit:
Ben nu even bezig met een test, als je zoekt op 'chat statistieken' kom ik op plek 2 in google. Nu vang ik op pagina af of er een 'tit' var in de url staat. Is die niet gevuld, of staat de titel van de pagina er niet in, geef ik een 301, en redirect ik naar de url waar 'tit' wel gevuld is. Hierdoor komen dus ook de keywords in de url, en dat werkt dacht ik ook voor de plaats waar je wordt weergegeven. De woorden 'chat' & 'statistieken' komen dus in de url te staan. Eens kijken of ik over een tijdje op plek 1 sta met die keywords, if so, heb ik heel wat aan te passen op de rest van m'n site
[ Voor 25% gewijzigd door RaZ op 06-09-2006 13:53 ]
Ey!! Macarena \o/
Verwijderd
Nog wat extra info.Verwijderd schreef op dinsdag 05 september 2006 @ 22:38:
Het klinkt misschien een beetje raar, maar het lijkt alsof google mijn site niet wil indexeren. Ik heb um 2 weken geleden toegevoegd bij de addurl + sitemaps van google, maar mijn site staat er dus nog niet in.
Ik verwacht dat het misschien komt omdat ik een TE dynamische pagina heb. Voor 90% bestaat mijn pagina uit een lijst van 50 activiteiten die ongeveer om de 3 uur vervallen en waarvoor dan nieuwe activiteiten in de plaats komen. Dus er is eigenlijk geen echte vaste content.
Is het mogelijk dat ie daarom nog niet is geindexeerd?
Misschien is het duidelijker als je de site ziet. Ik hoop dat het niet als spam gezien wordt, mocht dit wel zo zijn kan een admin de link zsm verwijderen.
Volgens Webalizer is de google bot is al 62 keer op mijn site geweest:
code:
1
| 61 13.68% Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com) |
Maar ik sta nog steeds niet in de database. Zullen ze mij dan toch om de een of andere manier weren??
Ik heb overigens wel <a>'s in mijn code staan, voor elke tabel regel namelijk...
Ben je op de hoogte van de robots.txt mogelijkheid waarmee je heel eenvoudig delen van je site kunt afschermen van indexering ?bartvb schreef op woensdag 06 september 2006 @ 13:26:
Dat is iets dat ik ook al een tijdje van plan ben voor mijn site. Het gaat voornamelijk om een forum en iedere post heeft daar een link (net als op GoT) b.v.:
code:
1 http://gathering.tweakers.net/forum/list_message/26436781#26436781
Eigenlijk wil je niet dat Google die links ziet, die dingen indexeren levert 25 keer dezelfde content op voor een topic met 25 posts. Verder nog een hoop andere onzinnige links/tekst die voor een spider helemaal niet boeiend is. Als je de dingen echter strikt bekijkt ben je bezig met cloaking als je die links/content gaat verbergen.
op GoT is in die robots.txt file dan ook het volgende opgenomen: Disallow: /forum/list_message/
Dus waarom cloaking toepassen hiervoor, als het zo ontzettend simpel opgelost kan worden
Sorry hoor, maar de gehele HTML van die tabel is een gedrocht. Als je beter gevonden wil worden, maar ook wil dat mensen normaal kunnen navigeren op je site, begin dan maar door eerst al dat wazige onMouseOver, onMouseOut en onClick gedoe weg te halen.Verwijderd schreef op woensdag 06 september 2006 @ 16:57:
[...]
Nog wat extra info.
Volgens Webalizer is de google bot is al 62 keer op mijn site geweest:
code:
1 61 13.68% Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com)
Maar ik sta nog steeds niet in de database. Zullen ze mij dan toch om de een of andere manier weren??
Ik heb overigens wel <a>'s in mijn code staan, voor elke tabel regel namelijk...
Ik wil zien waar een link heen gaat, en jouw constructie zorgt ervoor dat ik niet onderin mijn browser het doel van een link te zien krijg. Ik ben dan al gauw weg van je site en wellicht andere mensen ook. Wat mij betreft heeft googlebot ook groot gelijk.
{signature}
Verwijderd
@Voutloos:
Hoe maak jij dan altijd een cel/rij clickable(en zorg je er voor dat ie on mouse over van kleur veranderd? Naar mijn weten werkt td.naam:a niet in IE)?
Hoe maak jij dan altijd een cel/rij clickable(en zorg je er voor dat ie on mouse over van kleur veranderd? Naar mijn weten werkt td.naam:a niet in IE)?
http://www.xs4all.nl/~peterned/csshover.htmlVerwijderd schreef op woensdag 06 september 2006 @ 18:59:
@Voutloos:
Hoe maak jij dan altijd een cel/rij clickable(en zorg je er voor dat ie on mouse over van kleur veranderd? Naar mijn weten werkt td.naam:a niet in IE)?
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Ja hoor, het FAQ voorbeeld komt niet overeen met mijn situatie. Daarin is een topic:Civil schreef op woensdag 06 september 2006 @ 18:46:
[...]
Ben je op de hoogte van de robots.txt mogelijkheid waarmee je heel eenvoudig delen van je site kunt afschermen van indexering ?
viewtopic.php?t=1234
en een individuele post:
viewtopic.php?p=123456#p123456
robots.txt haalt dan dus weinig uit... Daarnaast staat er veel meer zooi op een pagina waar een spider helemaal niets aan heeft dus ook wat bandbreedte betreft is cloaking interessant.
Ik ben bezig de site van een redelijk grote organisatie opnieuw op te zetten. We gaan de hele site verdelen in sub-sites voor iedere sub-organisatie (voor het gemak nu ff jongeren, kids en ouderen). Het grootste gedeelte van de site moet in vier talen op de site staan en sommigen maar in 1 taal.
De huidige situatie is een erg kleine site met voor iedere organisatie 1 pagina. Er bestaan ongeveer 30 domeinen die allemaal dezelfde inhoud hebben. Ik begrijp dat SE's dat zien als sitekopieen en daar niet echt happig op zijn.
Nu moeten we een paar design-beslissingen gaan maken. Wat zijn is nu de beste manier:
1. Alles onder 1 domein samenbrengen en de volgende url's gebruiken: kids.organisatie.org/taal/
de andere url's kunnen we dan met een 301 naar het goede subdomein laten verwijzen
2. Alles onder 1 domein samenbrengen en de volgende url's gebruiken: taal.organisatie.org/kids/ en weer 301's voor de andere domeinen
3. Alles onder 1 domein: organisatie.org/kids/taal (of taal/kids) en 301's voor de andere domeinen
4. iedere suborganisatie zijn eigen domein.
Wij denken zelf dat #1 het handigst is, maar is dat voor SEO gezien ook zo? Gelden bijvoorbeeld links naar de andere domeinen wel als 'stemmen voor de pagerank' van het hoofddomein? Of moeten we dan iedereen gaan vragen hun links aan te passen naar de goede url.
Zoiezo, moeten we 301's gebruiken of gewoon normale redirects?
De huidige situatie is een erg kleine site met voor iedere organisatie 1 pagina. Er bestaan ongeveer 30 domeinen die allemaal dezelfde inhoud hebben. Ik begrijp dat SE's dat zien als sitekopieen en daar niet echt happig op zijn.
Nu moeten we een paar design-beslissingen gaan maken. Wat zijn is nu de beste manier:
1. Alles onder 1 domein samenbrengen en de volgende url's gebruiken: kids.organisatie.org/taal/
de andere url's kunnen we dan met een 301 naar het goede subdomein laten verwijzen
2. Alles onder 1 domein samenbrengen en de volgende url's gebruiken: taal.organisatie.org/kids/ en weer 301's voor de andere domeinen
3. Alles onder 1 domein: organisatie.org/kids/taal (of taal/kids) en 301's voor de andere domeinen
4. iedere suborganisatie zijn eigen domein.
Wij denken zelf dat #1 het handigst is, maar is dat voor SEO gezien ook zo? Gelden bijvoorbeeld links naar de andere domeinen wel als 'stemmen voor de pagerank' van het hoofddomein? Of moeten we dan iedereen gaan vragen hun links aan te passen naar de goede url.
Zoiezo, moeten we 301's gebruiken of gewoon normale redirects?
Als je voor subdomeinen gaat maak je eigenlijk meerdere sites. In sommige gevallen kan dat handig zijn maar in dit geval zou ik alles op 1 domein houden. Dus optie 3 zou ik in eerste instantie kiezen.
Mochten de sites in de toekomst nou verschrikkelijk groot worden kun je altijd nog afsplitsen.
De links van andere sites hoeven niet veranderd te worden, als je ze goed redirect wordt de 'stem' gewoon meegenomen.
En 301's zijn normale redirects
Mochten de sites in de toekomst nou verschrikkelijk groot worden kun je altijd nog afsplitsen.
De links van andere sites hoeven niet veranderd te worden, als je ze goed redirect wordt de 'stem' gewoon meegenomen.
En 301's zijn normale redirects
[ Voor 20% gewijzigd door André op 14-09-2006 23:12 ]
Wat is verschrikkelijk groot? Ik denk dat we nu 25 suborganisaties hebben en dat iedere suborganisatie een site krijgt van een 40 pagina's + agenda/fotoalbum en dat meestal vertaalt in 4 talen (dus totaal denk een 2500 pags met tekst en nog een heleboel anderzins dynamische pagina's)?
En als je het wel met 1 domein doet, is dan organisatie.org/kids/taal of organisatie.org/taal/kids het best?
En als je het wel met 1 domein doet, is dan organisatie.org/kids/taal of organisatie.org/taal/kids het best?
Het mooiste is het als je site zo slim is dat deze zelf de info samen kan stellen. Dus als je naar org.com/kids gaat krijg je alles voor kids te zien en als je naar org.com/taal gaat kan je kiezen tussen kids/ouders.phsmit schreef op vrijdag 15 september 2006 @ 10:46:
[...]
En als je het wel met 1 domein doet, is dan organisatie.org/kids/taal of organisatie.org/taal/kids het best?
Ik heb een Flash intro op de beginpagina. Ik gebruik daarvoor onderstaand script.
In de code staat een stukje <!--url's used in the movie-->
Worden deze links die in de Flash staan dan door Google geindexeerd?
In de code staat een stukje <!--url's used in the movie-->
Worden deze links die in de Flash staan dan door Google geindexeerd?
HTML:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
| <!--url's used in the movie--> <a href="http://www.test.nl/nl"></a> <a href="http://www.test.nl/en"></a> <a href="http://www.test.nl/de"></a> <a href="http://www.test.nl/fr"></a> <div align="center"> <script type="text/javascript"> AC_FL_RunContent('codebase','http://download.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#version=7,0,19,0','width','700','height','350','src','swf/intro','quality','high','pluginspage','http://www.macromedia.com/go/getflashplayer','movie','swf/intro' ); //end AC code </script> <noscript> <object classid="clsid:D27CDB6E-AE6D-11cf-96B8-444553540000" codebase="http://download.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#version=7,0,19,0" width="700" height="350"> <param name="movie" value="swf/intro.swf" /> <param name="quality" value="high" /> <embed src="swf/intro.swf" quality="high" pluginspage="http://www.macromedia.com/go/getflashplayer" type="application/x-shockwave-flash" width="700" height="350"> </embed> </object> </noscript> </div> <!--text used in the movie--> <!-- saved from url=(0013)about:internet --> |
In feite wel want ze staan niet in de Flash maar daarbuiten. Ik zou wel tekst in de links plaatsen, anders zeggen de links niets over de achterliggende pagina's.
Een klant wilt in zee gaan met http://www. g r i z z l y m a r k e t i n g .nl , die van alles beloven over vindbaarheid en gegarandeerde positionering op1 voor een zelf gekozen keyword.
Ik heb even gekeken wat ze bij hun eigen site doen en dat is niet al te fris. Veel dubbele pagina's die naar elkaar linken en met slechts een paar woorden verschil erin.
Ik heb ze dus ook aangegeven bij Google.
Zijn er mensen die ervaring hebben met dit bedrijf en/of hun aanpak?
Ik heb even gekeken wat ze bij hun eigen site doen en dat is niet al te fris. Veel dubbele pagina's die naar elkaar linken en met slechts een paar woorden verschil erin.
Ik heb ze dus ook aangegeven bij Google.
Zijn er mensen die ervaring hebben met dit bedrijf en/of hun aanpak?
[ Voor 1% gewijzigd door CrashOne op 21-09-2006 21:40 . Reden: link niet indexeerbaar gemaakt ]
Ik heb geen ervaring met ze, maar dit soort code als index pagina wordt ik niet blij van:
Je wordt direct geredirect met een meta redirect, en die link naar /positionering/ krijg je dus niet te zien.
Daarbij dit: je kunt NOOIT garanties geven voor een positionering. Veel SEO guru's waarschuwen ook voor bedrijven die dit toch doen.
HTML:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
| <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN"> <html> <head> <title>GRIZZLY new MARKETING - direct marketing,interactieve marketing,online promotie,een op een e-business,bedrijven</title> <meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1"> <meta http-equiv="refresh" content="0;URL=nl/index.php"> </head> <body> <table width="760" height="100%" border="0"> <tr> <td> </td> </tr> </table> <a href="/positionering/">positionering</a> <a href="/ranking/">Ranking</a></a> <script src="http://www.google-analytics.com/urchin.js" type="text/javascript"> </script> <script type="text/javascript"> _uacct = "UA-482083-1"; urchinTracker(); </script></body> </html> |
Je wordt direct geredirect met een meta redirect, en die link naar /positionering/ krijg je dus niet te zien.
Daarbij dit: je kunt NOOIT garanties geven voor een positionering. Veel SEO guru's waarschuwen ook voor bedrijven die dit toch doen.
[ Voor 10% gewijzigd door André op 21-09-2006 16:08 ]
Ja, dat begrijp ik. Nu kan ik helaas niet bij het (gratis) eerste gesprek, maar ik ga ze wel afraden om ooit met zo'n soort bedrijf in zee te gaan.
De pagina's die ze nu hebben zijn al goed geoptimaliseerd, alleen wel op een nette manier.
De pagina's die ze nu hebben zijn al goed geoptimaliseerd, alleen wel op een nette manier.
Ik heb wel ervaring met grizzly (we gebruiken het nu nog) maar ik kan je 1 ding vertellen: Het is dat ik er niet over ga, want ik had ze vierkant buiten geschopt. De resultaten zijn waardeloos, de code die ze leveren bagger en de methode die ze gebruiken "op het randje" en tegen het linkfarm en dat soort flauwekul aan (of erger). En het kost (IMHO) klauwen met geld...
Ze hebben (om er even KORT op in te gaan) een "save page" (in IE volgens mij) gedaan van de site hoe die op dat moment was, 'm daarna godsvreselijk vernacheld (bestanden met .htm extensie waar css in staat (en dus origineel ook .css zijn), .swf waar html in staat, etc. etc., valid HTML vernacheld , keywords er in gefrot, meta's vol gestuffed enz.) en die meuk moesten we dan in een subdirectory plaatsen op onze site en er vanuit de homepage 1 link naar toe toevoegen (<a href="/meuk">meuk</a> zeg maar).
Resultaat: mensen "landen" nu op de grizzly pagina's in een subdirectory van onze site op een stel ranzige pagina's die sinds vorig jaar niet meer zijn bijgewerkt (dus oude meuk), google barst van de links die we helemaal niet "willen" hebben en ga zo maar door.
Ook ik kon indertijd helaas niet bij het gesprek zijn (man man, wat had ik die lui graag eens aan de tand gevoeld) en mijn werkgever heeft toen "buiten mij om" besloten om met ze in zee te gaan. Toen er een kruiwagen geld naar ze toe was konden we dus niet meer "terug", hoe graag ik dat ook wou.
Dit alles op persoonlijke noot en dus los van mijn werkgever...
Ze hebben (om er even KORT op in te gaan) een "save page" (in IE volgens mij) gedaan van de site hoe die op dat moment was, 'm daarna godsvreselijk vernacheld (bestanden met .htm extensie waar css in staat (en dus origineel ook .css zijn), .swf waar html in staat, etc. etc., valid HTML vernacheld , keywords er in gefrot, meta's vol gestuffed enz.) en die meuk moesten we dan in een subdirectory plaatsen op onze site en er vanuit de homepage 1 link naar toe toevoegen (<a href="/meuk">meuk</a> zeg maar).
Resultaat: mensen "landen" nu op de grizzly pagina's in een subdirectory van onze site op een stel ranzige pagina's die sinds vorig jaar niet meer zijn bijgewerkt (dus oude meuk), google barst van de links die we helemaal niet "willen" hebben en ga zo maar door.
Ook ik kon indertijd helaas niet bij het gesprek zijn (man man, wat had ik die lui graag eens aan de tand gevoeld) en mijn werkgever heeft toen "buiten mij om" besloten om met ze in zee te gaan. Toen er een kruiwagen geld naar ze toe was konden we dus niet meer "terug", hoe graag ik dat ook wou.
Dit alles op persoonlijke noot en dus los van mijn werkgever...
[ Voor 62% gewijzigd door RobIII op 21-09-2006 16:54 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Weet je wat het grappige is, ik heb het hier gehad over de site d r o o m h y p o t h e e k.nl om er vervolgens over te klagen en wat schetst mijn verbazing, die pagina's van dit topic zijn al geindexeerd.
Ben ik ze mooi aan het helpen met gratis links !
Zelfde zal wel gaan gelden voor Grizzly !
Ben ik ze mooi aan het helpen met gratis links !
Zelfde zal wel gaan gelden voor Grizzly !
Pay peanuts get monkeys !
Mooie leerervaring, toch? 
Maareh, misschien een idee om die link dan eens weg te halen door je oude bericht te editen...
Maareh, misschien een idee om die link dan eens weg te halen door je oude bericht te editen...
Cogito ergo dubito
Er moet eigenlijk de optie "nofollow" bij de externe links worden geplaatst, of het moet een optie zijn.
Zou wel handig zijn, ook voor andere topics.
Zou wel handig zijn, ook voor andere topics.
Altijd nofollow is ook niet ideaal. En als optie: als je er dan toch dus al van bewust bent dat het een link naar iets stoms is, maak dan gewoon geen echte link.
{signature}
Wij hebben ook klanten die in zee gaan met zulke bedrijven, en ook al vertel ik wel wat de nadelen zijn, veelal wordt er toch gebruik van gemaakt.. Ik weet niet hoe het bij de andere bedrijven is, maar het bedrijf waar onze klanten nog wel eens mee in zee gaan garandeerd een top10 positie in Google (dacht ik), op basis van niet goed, geld terug. Daar door doen veel klanten het, "want als 't niet werkt kost 't ook niets"..
Aangezien ook ik het niet voor 't zeggen heb, en vaak niet eens weet, is het best lastig om er iets aan te doen. Want ik zou het never nooit in zee gaan met zulke bedrijven; als je er een beetje verstand van hebt, weet je hoe je op een nette manier SEO moet doen. Ook deze reactie is btw, net als RobIII, van mij persoonlijk.
Aangezien ook ik het niet voor 't zeggen heb, en vaak niet eens weet, is het best lastig om er iets aan te doen. Want ik zou het never nooit in zee gaan met zulke bedrijven; als je er een beetje verstand van hebt, weet je hoe je op een nette manier SEO moet doen. Ook deze reactie is btw, net als RobIII, van mij persoonlijk.
“The best way to get the right answer on the Internet is not to ask a question, it's to post the wrong answer.”
QA Engineer walks into a bar. Orders a beer. Orders 0 beers. Orders 999999999 beers. Orders a lizard. Orders -1 beers.
Ik ben het met je eens dat er genoeg pruts-SEO bedrijven zijn, maar er zijn ook zeker veel goede SEO bedrijven die sites op een correcte manier naar boven weten te halen.. Waarom zou men er geen gebruik van moeten maken?
Goede SEO is niets anders dan het goed (semantisch corrent, valide css en html, ...) bouwen van een website, met voldoende en interessante informatie. Dat is een samenspel tussen de webdesigner en klant. Ik vraag me af wat een extern bedrijf dan verder kan doen, zonder smerige truc's, wat de pageranking zoveel verbeterd?
“The best way to get the right answer on the Internet is not to ask a question, it's to post the wrong answer.”
QA Engineer walks into a bar. Orders a beer. Orders 0 beers. Orders 999999999 beers. Orders a lizard. Orders -1 beers.
Verwijderd
Kijk je moet ook natuurlijk kijken wat je concurrenten doen. En daar je informatie op afstemmen. Als hun keyword beter gevonden zal worden in google doe je toch iets fout.OkkE schreef op vrijdag 22 september 2006 @ 11:26:
Goede SEO is niets anders dan het goed (semantisch corrent, valide css en html, ...) bouwen van een website, met voldoende en interessante informatie. Dat is een samenspel tussen de webdesigner en klant. Ik vraag me af wat een extern bedrijf dan verder kan doen, zonder smerige truc's, wat de pageranking zoveel verbeterd?
De gemiddelde webmaster (laat staan de klant in kwestie) heeft lang niet zoveel SEO kennis als een SEO-specialist (die dit zonder dirty tricks doet).
SEO is (voor mij) niet "zo hoog mogelijk scoren", maar "zoveel mogelijk gericht traffic krijgen". Vaak gaat dat samen, maar niet altijd (hoog scorende sites benutten vaak genoeg hun rankings niet optimaal, ze zouden er veel meer traffic uit kunnen krijgen).
Daarnaast is SEO niet alleen on-site, maar evengoed off-site. Met een aantal backlinks red je het niet, een (goede) SEOer kan duizenden goede backlinks vinden.
Om een voorbeeld te geven wat betreft ranking/traffic: Ik heb begin deze maand een site opgezet en ben begonnen met wat SEO (láng niet tevreden over, btw, site gaat "rebuild" krijgen). Site ranked nog niet (is op een veelgebruikt onderwerp, dus sowieso lastig om daar te ranken), maar desalniettemin krijgt ie zo'n 800 uniek per dag uit Google.. En dat was al na zo'n 2,5 week nadat de site online kwam.
Veel "standaard webmasters" halen dat niet
SEO is (voor mij) niet "zo hoog mogelijk scoren", maar "zoveel mogelijk gericht traffic krijgen". Vaak gaat dat samen, maar niet altijd (hoog scorende sites benutten vaak genoeg hun rankings niet optimaal, ze zouden er veel meer traffic uit kunnen krijgen).
Daarnaast is SEO niet alleen on-site, maar evengoed off-site. Met een aantal backlinks red je het niet, een (goede) SEOer kan duizenden goede backlinks vinden.
Om een voorbeeld te geven wat betreft ranking/traffic: Ik heb begin deze maand een site opgezet en ben begonnen met wat SEO (láng niet tevreden over, btw, site gaat "rebuild" krijgen). Site ranked nog niet (is op een veelgebruikt onderwerp, dus sowieso lastig om daar te ranken), maar desalniettemin krijgt ie zo'n 800 uniek per dag uit Google.. En dat was al na zo'n 2,5 week nadat de site online kwam.
Veel "standaard webmasters" halen dat niet
Verwijderd
En dat komt door je backlinks?wdekreij schreef op vrijdag 22 september 2006 @ 11:42:
De gemiddelde webmaster (laat staan de klant in kwestie) heeft lang niet zoveel SEO kennis als een SEO-specialist (die dit zonder dirty tricks doet).
SEO is (voor mij) niet "zo hoog mogelijk scoren", maar "zoveel mogelijk gericht traffic krijgen". Vaak gaat dat samen, maar niet altijd (hoog scorende sites benutten vaak genoeg hun rankings niet optimaal, ze zouden er veel meer traffic uit kunnen krijgen).
Daarnaast is SEO niet alleen on-site, maar evengoed off-site. Met een aantal backlinks red je het niet, een (goede) SEOer kan duizenden goede backlinks vinden.
Om een voorbeeld te geven wat betreft ranking/traffic: Ik heb begin deze maand een site opgezet en ben begonnen met wat SEO (láng niet tevreden over, btw, site gaat "rebuild" krijgen). Site ranked nog niet (is op een veelgebruikt onderwerp, dus sowieso lastig om daar te ranken), maar desalniettemin krijgt ie zo'n 800 uniek per dag uit Google.. En dat was al na zo'n 2,5 week nadat de site online kwam.
Veel "standaard webmasters" halen dat niet
Dat speelt (uiteraard) ook mee.
Het lijkt me leuk een wat meer uitgebreidere omschrijving van je werkzaamheden te krijgen, daar gaat dit topic natuurlijk over.
Niet perse. En dit is - imho - ook waar zoveel mensen de fout in gaan. Het kan inderdaad zijn dat je iets fout doet, maar het kan net zo goed zijn dat je concurrent gewoon meer en/of specifiekere informatie heeft. Of dat ie meer connecties heeft, met dus meer links op andere pagina's...Verwijderd schreef op vrijdag 22 september 2006 @ 11:29:
[...]
Kijk je moet ook natuurlijk kijken wat je concurrenten doen. En daar je informatie op afstemmen. Als hun keyword beter gevonden zal worden in google doe je toch iets fout.
In 't algemeen: er zijn imho nog teveel mensen die denken dat je "iets niet goed doet" als je niet op #1 staat bij Google. Het is Google z'n doel om de meest relevante website op #1 te zetten, als dat toevallig niet jouw website is, pech voor jou.
“The best way to get the right answer on the Internet is not to ask a question, it's to post the wrong answer.”
QA Engineer walks into a bar. Orders a beer. Orders 0 beers. Orders 999999999 beers. Orders a lizard. Orders -1 beers.
Heeft er iemand al een positieve ervaring met de Report Spam functionaliteit van Google?
Ik heb al diverse sites gerapporteerd, voornamelijk gecloakte ongein en doorways, maar ook na ruim een half jaar staan die sites er nog vrolijk in.
Kom net weer zo een grapjas tegen. In de website staan wat transparante gifjes met een a-href eromheen waarin een trefwoord wordt meegegeven. Dat trefwoord wordt vervolgens op een paar plaatsen in die pagina geïnjecteerd, zodat een mooie keyword density ontstaat.
Ik heb al diverse sites gerapporteerd, voornamelijk gecloakte ongein en doorways, maar ook na ruim een half jaar staan die sites er nog vrolijk in.
Kom net weer zo een grapjas tegen. In de website staan wat transparante gifjes met een a-href eromheen waarin een trefwoord wordt meegegeven. Dat trefwoord wordt vervolgens op een paar plaatsen in die pagina geïnjecteerd, zodat een mooie keyword density ontstaat.
[ Voor 59% gewijzigd door frickY op 15-10-2006 21:08 . Reden: Voorbeeld URL maar weggehaald ]
Ik maak geregeld gebruik van de Report Spam functionaliteit, alleen heb ik er ook nog nooit de resultaten van gezien.
Ik heb ook niet het idee dat het werkt.
Ik heb ook niet het idee dat het werkt.
Auw! Die is pijnlijk frickY...
Ik heb zelf btw geen ervaring met de Report Spam functie van Google, maar ik begreep uit wat topics op GoT dat het niet echt effectief is. Of er gebeurd niets mee, of pas na maanden.. helaas.
Ik heb zelf btw geen ervaring met de Report Spam functie van Google, maar ik begreep uit wat topics op GoT dat het niet echt effectief is. Of er gebeurd niets mee, of pas na maanden.. helaas.
“The best way to get the right answer on the Internet is not to ask a question, it's to post the wrong answer.”
QA Engineer walks into a bar. Orders a beer. Orders 0 beers. Orders 999999999 beers. Orders a lizard. Orders -1 beers.
Ik heb 100'en sites gerapporteerd en sommige zijn inderdaad helemaal uit de index verdwenen. Dit gebeurd alleen zelden omdat de rapporten gebruikt worden om het algoritme te updaten en niet om een rode ban-knop te hanteren.
Zoiets begreep ik inderdaad ook uit de FAQ's van Google. Er zit geen medewerker de reports na te pluizen, maar alles gaat geautomatiseerd.
Dat doet mij ook vermoeden dat een report uberhaupt pas in behandeling wordt genomen als er meerdere reports voor hetzelfde domein zijn gedaan.
Maar dergelijke onetische technieken blijven wel erg lucratief als je er toch niets tegen in kunt brengen
//Edit
Na wat surfen schijnt het inderdaad te helpen een site meerdere keren te reporten, bijv elke dag tot hij uit de index is verwijderd. Of het IP waarvan je dat doet nog van invloed is weet ik niet, maar lijkt me niet (want zowel dan zou men het wel via proxies gaan doen).
Jammer dat er nog geen "community" is waar je dergelijke links kunt aanmelden en iedereen die kunnen zien om spamreports te maken. Elkaar een beetje helpen dus.
Dat doet mij ook vermoeden dat een report uberhaupt pas in behandeling wordt genomen als er meerdere reports voor hetzelfde domein zijn gedaan.
Maar dergelijke onetische technieken blijven wel erg lucratief als je er toch niets tegen in kunt brengen
//Edit
Na wat surfen schijnt het inderdaad te helpen een site meerdere keren te reporten, bijv elke dag tot hij uit de index is verwijderd. Of het IP waarvan je dat doet nog van invloed is weet ik niet, maar lijkt me niet (want zowel dan zou men het wel via proxies gaan doen).
Jammer dat er nog geen "community" is waar je dergelijke links kunt aanmelden en iedereen die kunnen zien om spamreports te maken. Elkaar een beetje helpen dus.
[ Voor 36% gewijzigd door frickY op 26-09-2006 11:03 ]
Verwijderd
Ik ben behoorlijk nieuw in de 'SEO Wereld', dus flame me niet gelijk als deze vragen te n00bish zijn please. Maar omdat ik graag bijleer over het hele internetgebeuren heb ik wat vraagjes.
Een paar maanden terug bestond mijn site bijna alleen uit een Coppermine Gallery met daarin duizenden foto's, maar bijna geen text op de website.
Als ik 5 visitors per dag binnen kreeg via een search engine (Google) was het dus al veel.
Inmiddels heb ik wat andere pagina's aangemaakt met wat geschreven text erin en langzamerhand zijn er backlinks aan het ontstaan naar mijn site waardoor ik hoger opgemerkt begin te raken in Google.
Kortgezegd komen mijn vragen hierop neer:
-Als ik link:kuikens.com in Google intik kom ik maar 1 of 2 externe backlinks tegen terwijl MSN er 150+ geeft en als ik mijn bezoekers statistics bekijk het er vele honderden moeten zijn inmiddels.
Dit verklaard misschien ook dat ik maar een PR van 2 heb.
-Van mijn pagina's met eigengeschreven text valt het mij op dat er een aantal wel na een paar dagen in de index van Google te vinden zijn, maar anderen weer niet.
Dit check ik middels site:kuikens.com
Wat mij opvalt is dat een pagina met 1 of 2 regels text niet in de index verschijnt, maar uit hetzelfde rijtje links (kuikens.com/other.html) wel de pagina's met een lap text geïndexeerd worden.
Verder valt het me op dat uit de andere rij met links (kuikens.com/partylog.html) report 200608 niet in Google te vinden is, maar de anderen wel.
Nu hebben er in dat report een paar NL krachttermen gestaan die nu een beetje zijn aangepast, zou zoiets invloed kunnen hebben gehad en moet ik in dat geval de boel maar hernoemen naar 200608a zodat Google hem binnenkort wel weer vermeld, of blijft een eenmaal 'besmette' URL niet eeuwig op de shitlist staan zodat ie vanzelf weer terugkomt?
Overigens valt het me op dat MSN veel sneller mijn site indexeert en vroeger daar ook veel hoger rankte, maar aangezien meer dan 95% van de search engine bezoekers via Google komt boeit dat bijna niet.
Hopelijk heeft er iemand hier een antwoord wat de 'regels' zijn om een pagina in de Google index te laten verschijnen zodat iedereen er zijn voordeel mee kan doen, SEO toepassen op een pagina die niet in de index komt heeft weinig nut tenslotte
Een paar maanden terug bestond mijn site bijna alleen uit een Coppermine Gallery met daarin duizenden foto's, maar bijna geen text op de website.
Als ik 5 visitors per dag binnen kreeg via een search engine (Google) was het dus al veel.
Inmiddels heb ik wat andere pagina's aangemaakt met wat geschreven text erin en langzamerhand zijn er backlinks aan het ontstaan naar mijn site waardoor ik hoger opgemerkt begin te raken in Google.
Kortgezegd komen mijn vragen hierop neer:
-Als ik link:kuikens.com in Google intik kom ik maar 1 of 2 externe backlinks tegen terwijl MSN er 150+ geeft en als ik mijn bezoekers statistics bekijk het er vele honderden moeten zijn inmiddels.
Dit verklaard misschien ook dat ik maar een PR van 2 heb.
-Van mijn pagina's met eigengeschreven text valt het mij op dat er een aantal wel na een paar dagen in de index van Google te vinden zijn, maar anderen weer niet.
Dit check ik middels site:kuikens.com
Wat mij opvalt is dat een pagina met 1 of 2 regels text niet in de index verschijnt, maar uit hetzelfde rijtje links (kuikens.com/other.html) wel de pagina's met een lap text geïndexeerd worden.
Verder valt het me op dat uit de andere rij met links (kuikens.com/partylog.html) report 200608 niet in Google te vinden is, maar de anderen wel.
Nu hebben er in dat report een paar NL krachttermen gestaan die nu een beetje zijn aangepast, zou zoiets invloed kunnen hebben gehad en moet ik in dat geval de boel maar hernoemen naar 200608a zodat Google hem binnenkort wel weer vermeld, of blijft een eenmaal 'besmette' URL niet eeuwig op de shitlist staan zodat ie vanzelf weer terugkomt?
Overigens valt het me op dat MSN veel sneller mijn site indexeert en vroeger daar ook veel hoger rankte, maar aangezien meer dan 95% van de search engine bezoekers via Google komt boeit dat bijna niet.
Hopelijk heeft er iemand hier een antwoord wat de 'regels' zijn om een pagina in de Google index te laten verschijnen zodat iedereen er zijn voordeel mee kan doen, SEO toepassen op een pagina die niet in de index komt heeft weinig nut tenslotte
De zoekopdrachten met link: site: etcetera geven niet de gehele index van Google weer. Dit is slechts een beperkte indruk. Dat schijnen ze expres te doen om de werking van het algoritme te beschermen. In MSN en Yahoo zul je vaak meer backlinks vinden op deze wijze.
Dat een pagina met enkele regeltjes tekst niet word opgenomen kan best zijn. Ook heb je best kans dat hij wel wordt opgenomen, maar hij gewoon niet wordt terug gevonden door een te lage keyword density. Je kunt Google Sitemaps gebruiken om te zien of Google problemen heeft met het indexeren van bepaalde pagina's (als in 404, beperkt door robots.txt, etcetera).
Als Google je pagina het afgelopen half jaar regelmatig heeft gecrawlt, maar hij nooit was gewijzigd, kan het logisch zijn dat hij hem nu ook minder vaak crawlt. Indien de pagina grootschalig van content is veranderd is het niet onverstandig voor een andere paginanaam te kiezen.
Dat een pagina met enkele regeltjes tekst niet word opgenomen kan best zijn. Ook heb je best kans dat hij wel wordt opgenomen, maar hij gewoon niet wordt terug gevonden door een te lage keyword density. Je kunt Google Sitemaps gebruiken om te zien of Google problemen heeft met het indexeren van bepaalde pagina's (als in 404, beperkt door robots.txt, etcetera).
Als Google je pagina het afgelopen half jaar regelmatig heeft gecrawlt, maar hij nooit was gewijzigd, kan het logisch zijn dat hij hem nu ook minder vaak crawlt. Indien de pagina grootschalig van content is veranderd is het niet onverstandig voor een andere paginanaam te kiezen.
Ehm, vergeet je dan niet erbij te zeggen de oude pagina's te redirecten naar de nieuwe?frickY schreef op dinsdag 26 september 2006 @ 19:30:
.. is het niet onverstandig voor een andere paginanaam te kiezen.
Indien de content dusdanig verschilt dat je het in een nieuwe pagian zet, kun je de oude natuurlijk gewoon later staan
Als je de oude content vervangt met nieuwere informatie, kan dat gewoon in dezelfde pagina, of inderdaad de oude pagina redirecten naar de nieuwe.
Verwijderd
Hoe bouwen jullie altijd een titel op?
ik doe het tegenwoordig zo
page website | naam website
dus voorbeeld
Product pagina | Tweakers.net
Is dit duidelijk? of moet dit andersom?
edit:
en hog kan ik het best mijn files benoemen
product_info.php
of
product-info.php
of maakt dat ook niet uit?
ik doe het tegenwoordig zo
page website | naam website
dus voorbeeld
Product pagina | Tweakers.net
Is dit duidelijk? of moet dit andersom?
edit:
en hog kan ik het best mijn files benoemen
product_info.php
of
product-info.php
of maakt dat ook niet uit?
[ Voor 23% gewijzigd door Verwijderd op 27-09-2006 14:41 ]
Google ziet 'product_info' als één woord, en 'product-info' als twee (Bron: Dashes vs. Underscores). Dus aan jou de keus, hoe jij het liefst wil dat Google je opneemt. 
En de titel doe ik tegenwoordig ook altijd "<pagina-titel> | <website-naam>".
-- edit --
@frickY: Hmm, ik zie het. Wat me wel opvalt; twee keer staat die met het streepje boven die met de underscore. Of zou dat toeval (as in; die site staat sowieso hoger) zijn?
En de titel doe ik tegenwoordig ook altijd "<pagina-titel> | <website-naam>".
-- edit --
@frickY: Hmm, ik zie het. Wat me wel opvalt; twee keer staat die met het streepje boven die met de underscore. Of zou dat toeval (as in; die site staat sowieso hoger) zijn?
[ Voor 40% gewijzigd door OkkE op 27-09-2006 15:52 ]
“The best way to get the right answer on the Internet is not to ask a question, it's to post the wrong answer.”
QA Engineer walks into a bar. Orders a beer. Orders 0 beers. Orders 999999999 beers. Orders a lizard. Orders -1 beers.
Dat dacht ik ook, tot ik onlangs de volgende resultaten zag; http://www.google.nl/sear...internet+applicatie&meta=
Op de eerste hit is een gewoon streeje gebruikt, op de tweede een underscore. Bij beide is het woord gehighlight, dus hij snapt dat de underscore ook als spatie wordt gebruikt.
Dat wordt bevestigd als je de woorden omdraait (en even wat filters om dezelfde 2 resultaten te behouden)
http://www.google.nl/sear...ex+-jps+-freshheads&meta=
Desondanks gebruik ik zelf ook altijd streepjes, en zal dit ook blijven doen
Je vraag over de titel van de pagina is volgens mij op de vorige pagina nog besproken
Op de eerste hit is een gewoon streeje gebruikt, op de tweede een underscore. Bij beide is het woord gehighlight, dus hij snapt dat de underscore ook als spatie wordt gebruikt.
Dat wordt bevestigd als je de woorden omdraait (en even wat filters om dezelfde 2 resultaten te behouden)
http://www.google.nl/sear...ex+-jps+-freshheads&meta=
Desondanks gebruik ik zelf ook altijd streepjes, en zal dit ook blijven doen
Je vraag over de titel van de pagina is volgens mij op de vorige pagina nog besproken
[ Voor 18% gewijzigd door frickY op 27-09-2006 15:27 ]
Google highlight ook dingen als er geen spatie/underscore/streepje tussen woorden staat, bijv in de domeinnaam. Of Google ook delen van een woord highlight weet ik niet.
- We Are Borg
- Registratie: April 2000
- Laatst online: 21:44
Moderator Wonen & Mobiliteit / General Chat
/u/5360/crop65d3c045ca48f_cropped.png?f=community)
Kvdzanden: woorden vooraan in de <title> zijn belangrijker. Dus unieke woorden vooraan zetten, wat dus je pagina titel is; VB:
pagina titel | website naam. Website naam is minder belangrijk en je pagina titel is als het goed is steeds uniek, dus vooraan zetten die handel
pagina titel | website naam. Website naam is minder belangrijk en je pagina titel is als het goed is steeds uniek, dus vooraan zetten die handel
Daarnaast is het ook wel fijn voor gebruikers, dat ze niet 4 tabs zien met "Website ...", maar 4 verschillende, met 't begin van de titel.
“The best way to get the right answer on the Internet is not to ask a question, it's to post the wrong answer.”
QA Engineer walks into a bar. Orders a beer. Orders 0 beers. Orders 999999999 beers. Orders a lizard. Orders -1 beers.
Verwijderd
hoi, ik vroeg me nog het volgende af:
ik heb een (php)pagina waarin je op een bepaalde subpagina met een keuzelijst (dropdownbox) een aantal opties kan kiezen. Op basis van je keuze wordt er in de subpagina een bepaalde pagina (zeg maar sub-subpagina) geinclude en dus getoond. Deze sub-subpagina die geincude wordt bevat relevente tekst die ik graag geindexeerd zie door zoekmachines. Mijn vraag is nu of Google (en andere zoekm.) in staat is om de verschillende keuze's van het menu te volgen.
Als er een andere optie gekozen wordt dan wordt er via JS een post gedaan van het form met de keuzelijst en wordt op basis van de meegegeven parameter de juiste sub-subpagina geinclude. Kan Google hiermee omgaan of is het beter, of zelfs noodzakelijk, om een sitemap te maken waarin ik de links naar de verschillende sub-subpagina's opneem?
ik heb een (php)pagina waarin je op een bepaalde subpagina met een keuzelijst (dropdownbox) een aantal opties kan kiezen. Op basis van je keuze wordt er in de subpagina een bepaalde pagina (zeg maar sub-subpagina) geinclude en dus getoond. Deze sub-subpagina die geincude wordt bevat relevente tekst die ik graag geindexeerd zie door zoekmachines. Mijn vraag is nu of Google (en andere zoekm.) in staat is om de verschillende keuze's van het menu te volgen.
Als er een andere optie gekozen wordt dan wordt er via JS een post gedaan van het form met de keuzelijst en wordt op basis van de meegegeven parameter de juiste sub-subpagina geinclude. Kan Google hiermee omgaan of is het beter, of zelfs noodzakelijk, om een sitemap te maken waarin ik de links naar de verschillende sub-subpagina's opneem?
Google volgt a-hrefs bij het crawlen van je site. Javascript snapt hij niet.
Optie is om op de plek van je keuzelijst ook een ul te zetten met een link per li. Met een javascript kun je die door middel van CSS verbergen >
Indien de bezoeker (of webcrawler) javascript ondersteunt zal de ul verborgen worden en kan je dropdown worden gebruikt. Indien er geen javascript wordt ondersteund blijft de ul zichtbaar en kunnen die links worden gebruikt.
Optie is om op de plek van je keuzelijst ook een ul te zetten met een link per li. Met een javascript kun je die door middel van CSS verbergen >
Indien de bezoeker (of webcrawler) javascript ondersteunt zal de ul verborgen worden en kan je dropdown worden gebruikt. Indien er geen javascript wordt ondersteund blijft de ul zichtbaar en kunnen die links worden gebruikt.
Je navigatie volledig afhankelijk maken van javascript is sowieso not done, vanwege de toegankelijkheid. Je site dient zonder javascript tenminste te navigeren en te begrijpen zijn. Vaak is het zo, dat als je let op toegankelijkheid je gelijk ook al veel SEO-punten in orde hebt.
Dat ging idd over het onderdeel hoe je een simpele selectbox spiderbaar kunt maken door een <ul> constructie te herschrijven naar een <select>. Maar over het algemeen is voor veel soortgelijke situaties wel zoiets te bedenken.Verwijderd schreef op vrijdag 29 september 2006 @ 09:47:
Andre had daar leuk artikel over volgens mij op zijn weblog!
Ga uit van een kale spiderbare oplossing en enhance hem met JS. Zo krijgt iedereen (bezoekers, zoekmachines, mobile, enz) een werkbare site voor hun neus.
Klein vraagje over redirecten.
In m´n nieuwe systeem zit een mogelijkheid om de bezoeker via header:location naar $taal1 of $taal2 door te sturen.
User land op mysite.com en redirect naar mysite.com/en/ danwel mysite.com/es/
Iemand enig idee wat voor invloed dit heeft?
In m´n nieuwe systeem zit een mogelijkheid om de bezoeker via header:location naar $taal1 of $taal2 door te sturen.
User land op mysite.com en redirect naar mysite.com/en/ danwel mysite.com/es/
Iemand enig idee wat voor invloed dit heeft?
Verstand van Voip? Ik heb een leuke baan voor je!
Hangt er denk ik vanaf op basis waarvan die redirect uitgevoerd wordt. Hoe de redirect gedaan wordt (welke headers stuur je naar de browser). En of de twee talen ook direct te bezoeken zijn (waar 't wel op lijkt
).
“The best way to get the right answer on the Internet is not to ask a question, it's to post the wrong answer.”
QA Engineer walks into a bar. Orders a beer. Orders 0 beers. Orders 999999999 beers. Orders a lizard. Orders -1 beers.
Als ik het goed begrijp bepaald jij voor de gebruiker welke taal ze te zien krijgen.
Is je site opgebouwd dat de pagina's voor zowel /en/ als voor /es/ het zelfde zijn, dus elke pagina 2 talig aanwezig, kan je dus heel mooi met link-tags werken. dat er er een spider land op /en/some_page.php dat je vermeldt dat er ook een spaanse versie is, en die te vinden is op /es/some_page.php
Meer info: klik
Is je site opgebouwd dat de pagina's voor zowel /en/ als voor /es/ het zelfde zijn, dus elke pagina 2 talig aanwezig, kan je dus heel mooi met link-tags werken. dat er er een spider land op /en/some_page.php dat je vermeldt dat er ook een spaanse versie is, en die te vinden is op /es/some_page.php
Meer info: klik
Ey!! Macarena \o/
Zonde. Je verspilt het gewicht van de trefwooden op je index, door meteen naar een lager niveau door te verwijzen.
De relocation is nu niets meer dan een simpele PHP header:location aanroep. Geen extra headers. (Wel aan te passen natuurlijk).OkkE schreef op vrijdag 29 september 2006 @ 15:30:
Hangt er denk ik vanaf op basis waarvan die redirect uitgevoerd wordt. Hoe de redirect gedaan wordt (welke headers stuur je naar de browser). En of de twee talen ook direct te bezoeken zijn (waar 't wel op lijkt).
Thanks voor die info, en link tags kende ik vaag, maar nooit toegepast. Eens kijken of ik die alternate hreflang kan implementeren.RaZ schreef op vrijdag 29 september 2006 @ 15:36:
Als ik het goed begrijp bepaald jij voor de gebruiker welke taal ze te zien krijgen.
Is je site opgebouwd dat de pagina's voor zowel /en/ als voor /es/ het zelfde zijn, dus elke pagina 2 talig aanwezig, kan je dus heel mooi met link-tags werken. dat er er een spider land op /en/some_page.php dat je vermeldt dat er ook een spaanse versie is, en die te vinden is op /es/some_page.php
Meer info: klik
Is dat ook daadwerkelijk zo? Ik vraag het me af. Ik kan het namelijk nergens echt terug vinden.frickY schreef op vrijdag 29 september 2006 @ 17:24:
Zonde. Je verspilt het gewicht van de trefwooden op je index, door meteen naar een lager niveau door te verwijzen.
Verstand van Voip? Ik heb een leuke baan voor je!
Als andere sites naar jou linken, zal dat over het algemeen naar je index pagina gaan.
De index pagina heeft dan ook meestal de hoogste pagerank van de hele website.
als je dan daar geen trefwoorden hebt, lijkt me dat zonde.
De index pagina heeft dan ook meestal de hoogste pagerank van de hele website.
als je dan daar geen trefwoorden hebt, lijkt me dat zonde.
Hoe wil je dan één goede meertalige indexpagina maken? Mensen naar een taalafhankelijke indexpagina doorsturen adhv hun browserinstelling vind ik heel logisch eigenlijk. Waarom een Fransman gaan vervelen met Engels Duits en Nederlands? Mocht het een Duitse toerist in een Frans internetcafé zijn dan kan hij alsnog van taal switchen
Dus, je zet je standaard taal in de root en de overige talen in een submap 
Je kunt ook de taal in je paginanamen opnemen, ipv de url;
index.nl.html en index.de.html bijvoorbeeld.
Het is een beetje afhaneklijk of hetnodig is of een 301 redirect de 'stem' van de verwijsende pagina doorgeeft aan de doelpagina, dan zou je dat nog kunnen gebruiken.
Maar ik meen dat je met een kale Location redirect (welke dan volgens mij default naar een 302 Found?) die inkomende link verspilt.
Je kunt ook de taal in je paginanamen opnemen, ipv de url;
index.nl.html en index.de.html bijvoorbeeld.
Het is een beetje afhaneklijk of hetnodig is of een 301 redirect de 'stem' van de verwijsende pagina doorgeeft aan de doelpagina, dan zou je dat nog kunnen gebruiken.
Maar ik meen dat je met een kale Location redirect (welke dan volgens mij default naar een 302 Found?) die inkomende link verspilt.
[ Voor 45% gewijzigd door frickY op 29-09-2006 19:22 ]
Verwijderd
Grrrrr Ik baal echt als een stekker...
Loop ik 2 weken te wachten totdat een site lekker wordt opgenomen. Verander ik even heel snel in week 2 iets aan de site. Denk dat het in totaal in minuut moest duren. Waardoor er 1 minuut even een soort klein tekstje op de site kwam de staan. En heel toevallig is dan zeker in die minuut google langsgekomen en heeft die pagina in zijn cache opgenomen
Loop ik 2 weken te wachten totdat een site lekker wordt opgenomen. Verander ik even heel snel in week 2 iets aan de site. Denk dat het in totaal in minuut moest duren. Waardoor er 1 minuut even een soort klein tekstje op de site kwam de staan. En heel toevallig is dan zeker in die minuut google langsgekomen en heeft die pagina in zijn cache opgenomen

lolVerwijderd schreef op zaterdag 30 september 2006 @ 12:12:
Grrrrr Ik baal echt als een stekker...
Loop ik 2 weken te wachten totdat een site lekker wordt opgenomen. Verander ik even heel snel in week 2 iets aan de site. Denk dat het in totaal in minuut moest duren. Waardoor er 1 minuut even een soort klein tekstje op de site kwam de staan. En heel toevallig is dan zeker in die minuut google langsgekomen en heeft die pagina in zijn cache opgenomen
Hiep hoi voor dingen als:
header("HTTP/1.1 503 Service Unavailable");
header("HTTP/1.1 503 Service Unavailable");
Maar wat is de "standaardtaal"? Wat je zou kunnen doen is als de browser (SE's) geen taal meegeven dat je dan een korte inleidende tekst op de homepage kunt zetten, in elke taal, met linkjes naar het taalafhankelijke deel. Maar de vraag is idd of je dan niet een mengeling krijgt van inkomende links naar example.com en example.com/NL, example.com/EN, example.com/DE e.d.frickY schreef op vrijdag 29 september 2006 @ 19:20:
Dus, je zet je standaard taal in de root en de overige talen in een submap
Je kunt ook de taal in je paginanamen opnemen, ipv de url;
index.nl.html en index.de.html bijvoorbeeld.
Het is een beetje afhaneklijk of hetnodig is of een 301 redirect de 'stem' van de verwijsende pagina doorgeeft aan de doelpagina, dan zou je dat nog kunnen gebruiken.
Maar ik meen dat je met een kale Location redirect (welke dan volgens mij default naar een 302 Found?) die inkomende link verspilt.
Toch, je maakt websites niet voor SE's maar voor mensen. En vooralsnog vind ik dat je mensen het beste direct de taal kunt voorschotelen die ze hebben gekozen in hun browser. Ook al hebben ze dat niet bewust gedaan, (noeps met een Nederlandse Windows
Nog even over Sitelinks trouwens.
Hoevaak zou Google die moeten refreshen?
Bijna een half jaar geleden heb ik een nieuwssite in een nieuw jasje gestoken, waarbij ook de hele linkstructuur is veranderd. In de Sitelinks staan echter nog steeds links van de oude site.
In de nieuwe site zijn die braaf geredirect naar de bijbehorende pagina, maar ze zijn nou niet echt meer de meest belangrijke links.
Refreshed Google die dingen niet omdat ze nogsteeds functioneren, via die redirect?
Is het slim die redirect tijdelijk uit te schakelen, of ben ik dan de sitelinks kwijt ipv dat hij nieuwe opzoekt?
@Nexxennium
De "standaardtaal" vnid ik Engels. Mocht je geen Engelse versie hebben dan Nederlands.
Hoevaak zou Google die moeten refreshen?
Bijna een half jaar geleden heb ik een nieuwssite in een nieuw jasje gestoken, waarbij ook de hele linkstructuur is veranderd. In de Sitelinks staan echter nog steeds links van de oude site.
In de nieuwe site zijn die braaf geredirect naar de bijbehorende pagina, maar ze zijn nou niet echt meer de meest belangrijke links.
Refreshed Google die dingen niet omdat ze nogsteeds functioneren, via die redirect?
Is het slim die redirect tijdelijk uit te schakelen, of ben ik dan de sitelinks kwijt ipv dat hij nieuwe opzoekt?
@Nexxennium
De "standaardtaal" vnid ik Engels. Mocht je geen Engelse versie hebben dan Nederlands.
[ Voor 7% gewijzigd door frickY op 02-10-2006 09:09 ]
Hoe heb je je oude links 'geforward'?
Ace of Base vs Charli XCX - All That She Boom Claps (RMT) | Clean Bandit vs Galantis - I'd Rather Be You (RMT)
You've moved up on my notch-list. You have 1 notch
I have a black belt in Kung Flu.
Met een 301.
Ik zou dus verwachten dan de nieuwe URLs daar inmiddels wel zouden staan. Maar niet dus.
Ik zou dus verwachten dan de nieuwe URLs daar inmiddels wel zouden staan. Maar niet dus.
[ Voor 59% gewijzigd door frickY op 02-10-2006 10:05 ]
Misschien toch tijd voor wat "cloaking"? Google en zijn vriendjes een 410 geven en de normale browser met 301 redirecten.frickY schreef op maandag 02 oktober 2006 @ 10:05:
Met een 301.
Ik zou dus verwachten dan de nieuwe URLs daar inmiddels wel zouden staan. Maar niet dus.
Over de standaardtaal: dat hangt ook maar net af van de website en je doelgroep. Dan nog, de browser geeft netjes aan welke taal gewenst is. Waarom dat negeren en iemand een taal opdringen?
[ Voor 22% gewijzigd door Fuzzillogic op 02-10-2006 14:28 ]
Omdat een crawler geen standaard taal geeft, en daar hadden we het toch over?
Ben het ermee eens dat, je de Accept-Language header gebruikt wanneer deze beschikbaar is.
Ben het ermee eens dat, je de Accept-Language header gebruikt wanneer deze beschikbaar is.
Ah zo ja.frickY schreef op maandag 02 oktober 2006 @ 22:10:
Omdat een crawler geen standaard taal geeft, en daar hadden we het toch over?
Ben het ermee eens dat, je de Accept-Language header gebruikt wanneer deze beschikbaar is.

Ik heb een website die nog geen pagerank heeft, 0 dus. Deze is nu inmiddels voor de derde maand online en in google sitemaps zie ik dat hij een pagerank van 3 (heb nog een andere site met een balkje dat net zover is).
Hoelang duurt het nu nog om een officiele pagerank te krijgen, wat is jullie ervaring daarmee?
Hoelang duurt het nu nog om een officiele pagerank te krijgen, wat is jullie ervaring daarmee?
Die wordt op dit moment uitgerolt over de diverse datacenters, met een beetje geluk zie je hem elk moment.
Check deze tool maar eens: http://livepr.raketforskning.com
Check deze tool maar eens: http://livepr.raketforskning.com
Verwijderd
Mooie url André.
Bij mijn website schiet het nog niet echt op dus, sta bij Google nog op 2 en bij die 69 datacenters 34x op 2 en 35x op 3.
Benieuwd of ik alvast 1 stapje promoveer.
Tcoh snap ik er allemaal niet veel van, ik ken maten met een nieuwe website die onder inlinks en met 10 visitors per maand al op een PR van 3 zaten.
Bij mijn website schiet het nog niet echt op dus, sta bij Google nog op 2 en bij die 69 datacenters 34x op 2 en 35x op 3.
Benieuwd of ik alvast 1 stapje promoveer.
Tcoh snap ik er allemaal niet veel van, ik ken maten met een nieuwe website die onder inlinks en met 10 visitors per maand al op een PR van 3 zaten.
Wat vreemd, volgens die tool heb ik op een aantal DC's al een pagerank van 5 en dat terwijl ik één enkele pagina heb en het nou niet echt een high profile website is.
Is 5 de default waarde ofzo?
Is 5 de default waarde ofzo?
Mocht je willen
5 is een site met een redelijk aantal goeie inkomende links.
Helaas voor mij nog geen verschil, nog steeds een 0, maar dat zal vast nog wel komen.
Ik zie namelijk net dat die site is op genomen in dmoz, ik hoop dat dit ook een positief effect zal hebben op de PR.
Ik zie namelijk net dat die site is op genomen in dmoz, ik hoop dat dit ook een positief effect zal hebben op de PR.
Een beetje offtopic, maar om er nu een nieuw topic voor te openen...
Ik ben bezig met een nieuwe website, op een nieuw domein. Nu wil de persoon voor wie ik 'm maak dat er alvast een bericht "Binnenkort hier de website van..." komt. Of deze persoon wil dat zijn domein al wel geindexeerd wordt, weet ik niet.
Ik was van plan om dat bericht online te zetten met een .htaccess zodat die pagina niet opgenomen wordt. Je hebt er tenslotte niets aan als er nog geen nuttige content op staat. Of is er een andere, betere manier? Bijvoorbeeld een header() voor (nog) niet ingebruik..
De vragen:
1. Zetten jullie zulke pagina's online, met "Binnenkort hier"?
2a. Zo ja, gebruiken jullie .htacces, iets anders, of laten jullie 'm gewoon opnemen?
2b. Zo nee, waarom niet? Zitten er nadelen aan, en welke zijn dat dan?
Ik ben bezig met een nieuwe website, op een nieuw domein. Nu wil de persoon voor wie ik 'm maak dat er alvast een bericht "Binnenkort hier de website van..." komt. Of deze persoon wil dat zijn domein al wel geindexeerd wordt, weet ik niet.
Ik was van plan om dat bericht online te zetten met een .htaccess zodat die pagina niet opgenomen wordt. Je hebt er tenslotte niets aan als er nog geen nuttige content op staat. Of is er een andere, betere manier? Bijvoorbeeld een header() voor (nog) niet ingebruik..
De vragen:
1. Zetten jullie zulke pagina's online, met "Binnenkort hier"?
2a. Zo ja, gebruiken jullie .htacces, iets anders, of laten jullie 'm gewoon opnemen?
2b. Zo nee, waarom niet? Zitten er nadelen aan, en welke zijn dat dan?
“The best way to get the right answer on the Internet is not to ask a question, it's to post the wrong answer.”
QA Engineer walks into a bar. Orders a beer. Orders 0 beers. Orders 999999999 beers. Orders a lizard. Orders -1 beers.
1. Als ik lees "binnenkort hier.." dan denk ik "jaja, als pasen en pinksteren op 1 dag vallen." Zet er een streefdatum bij.
2. robots.txt is precies daarvoor bedoeld. Maar als je de tijdelijke pagina iig al voorziet van een korte tekst met wat er op de site gaat komen, met wat goede keywords, dan lijkt het mij wel handig om alvast te laten indexeren. Er is wel een nadeel: google geeft nieuwe pagina's een tijdelijke boost. Die ben je dan kwijt als de echte site live gaat. Maar als je het goed aanpakt qua SEO hoeft dat niet zo'n probleem te zijn.
2. robots.txt is precies daarvoor bedoeld. Maar als je de tijdelijke pagina iig al voorziet van een korte tekst met wat er op de site gaat komen, met wat goede keywords, dan lijkt het mij wel handig om alvast te laten indexeren. Er is wel een nadeel: google geeft nieuwe pagina's een tijdelijke boost. Die ben je dan kwijt als de echte site live gaat. Maar als je het goed aanpakt qua SEO hoeft dat niet zo'n probleem te zijn.
[ Voor 53% gewijzigd door Fuzzillogic op 04-10-2006 09:41 ]
Ik heb een probleem met verouderde nieuwsberichten die hoger in de resultaten verschijnen dan nieuwe nieuwsberichten met voor een groot deel dezelfde inhoud maar enkele belangrijke details die anders zijn.
Het probleem doet zich vooral voor met jaarlijkse evenementen, waarvan mensen zoeken naar de naam van het evenement waarbij ze eerst informatie en aankondigingen vinden over eerdere edities.
Deze oudere berichten mogen nog wel gewoon worden geindexeerd, maar ik wil wel aan de zoekmachine willen doorgeven dat ze na een bepaalde datum minder relevant zijn.
De HTTP-headers zoals 'Expires' gaan vooral over caching en worden volgens mij door zoekmachines genegeerd. Weet iemand hoe ik dit het beste zou kunnen aanpakken?
Het probleem doet zich vooral voor met jaarlijkse evenementen, waarvan mensen zoeken naar de naam van het evenement waarbij ze eerst informatie en aankondigingen vinden over eerdere edities.
Deze oudere berichten mogen nog wel gewoon worden geindexeerd, maar ik wil wel aan de zoekmachine willen doorgeven dat ze na een bepaalde datum minder relevant zijn.
De HTTP-headers zoals 'Expires' gaan vooral over caching en worden volgens mij door zoekmachines genegeerd. Weet iemand hoe ik dit het beste zou kunnen aanpakken?
Aan de inhoud van de bovenstaande tekst kunnen geen rechten worden ontleend, tenzij dit expliciet in dit bericht is verwoord.
Zal waarschijnlijk door de pagerank komen dat de oudere items hoger komen.
Met Google Sitemaps kun je aangeven dat je nieuwere evenementen belangrijker zijn dan de oude.
Ook zou je de oude pagina's kunnen renamen, en met een redirect naar je nieuwe pagina kunnen linken. Vanaf je nieuwe pagina kun je dan weer linken naar de nieuwe URLs van de oude items.
Met Google Sitemaps kun je aangeven dat je nieuwere evenementen belangrijker zijn dan de oude.
Ook zou je de oude pagina's kunnen renamen, en met een redirect naar je nieuwe pagina kunnen linken. Vanaf je nieuwe pagina kun je dan weer linken naar de nieuwe URLs van de oude items.
Ik zou op de oude pagina's een link maken naar de nieuwe, dan loop je een grote kans dat na verloop van tijd de nieuwere boven de oudere komt te staan. En tegelijk zien bezoekers dat de info verouderd is en er een nieuwe versie is.
Ja dat doe ik nu ook al voor enkele grotere evenementen, maar het handmatig blijven aanpassen van oudere berichten is niet echt mijn hobby, ik ga daarom maar eens even aan de slag met die sitemaps.André schreef op donderdag 05 oktober 2006 @ 20:20:
Ik zou op de oude pagina's een link maken naar de nieuwe, dan loop je een grote kans dat na verloop van tijd de nieuwere boven de oudere komt te staan. En tegelijk zien bezoekers dat de info verouderd is en er een nieuwe versie is.
Aan de inhoud van de bovenstaande tekst kunnen geen rechten worden ontleend, tenzij dit expliciet in dit bericht is verwoord.
Die sitemaps is ook niet echt een garantie, die wordt puur gebruikt ter ondersteuning zeggen ze zelf.
Daarbij zijn statische pagina's ook niet ideaal om in de natural search te promoten. Daar kun je beter mail/rss/adwords voor gebruiken
Daarbij zijn statische pagina's ook niet ideaal om in de natural search te promoten. Daar kun je beter mail/rss/adwords voor gebruiken
Een kennis vroeg mij of ik zijn website wilde verherbouwen. Met alle plezier natuurlijk. Alleen is de huidige site met schitterende tabellen e.d. opgebouwd. Dus dat wordt in ieder geval semantisch correct e.d.
Maar de crux zit 'm hierin: mijn kennis is op een aantal keywords als eerste hit te vinden.
Hoe gaat google ermee om als ik de site verherbouw, maar dezelfde content blijf gebruiken? Ik wil natuurlijk niet dat deze kennis straks niet meer te vinden is op 'onverklaarbare' wijze.
Maar de crux zit 'm hierin: mijn kennis is op een aantal keywords als eerste hit te vinden.
Hoe gaat google ermee om als ik de site verherbouw, maar dezelfde content blijf gebruiken? Ik wil natuurlijk niet dat deze kennis straks niet meer te vinden is op 'onverklaarbare' wijze.
Heart..pumps blood.Has nothing to do with emotion! Bored
Mjah, dat is niet helemaal te voorspellen, Google ziet natuurlijk dat de structuur van de pagina's anders is geworden. Maar over het algemeen levert een schonere code betere resultaten op, alleen garanties heb je nooit.
Okay, bedankt.André schreef op vrijdag 06 oktober 2006 @ 10:50:
Mjah, dat is niet helemaal te voorspellen, Google ziet natuurlijk dat de structuur van de pagina's anders is geworden. Maar over het algemeen levert een schonere code betere resultaten op, alleen garanties heb je nooit.
Wat betreft die garanties zal ik maar uit moeten leggen dat dat nooit 100% zeker is.
Heart..pumps blood.Has nothing to do with emotion! Bored