Weet ik, maar dan is het toch nog steeds vreemd dat hij de ene dag zegt dat hij er gisteren voor het laatst is geweest, en een dag later zegt ie dat het alweer 2 weken is geleden...André schreef op donderdag 22 juni 2006 @ 08:50:
Die datum gaat over de homepage niet over de hele site
Verwijderd
Dit gaat niet altijd op. Zoals ik net al zei geeft Google Sitemaps bij mij aan dat de website voor het laatst gespiderd is op 31 januari, in mei is een nieuwe website online gegaan en de nieuwe homepage is wel opgenomen in Google.André schreef op donderdag 22 juni 2006 @ 08:50:
Die datum gaat over de homepage niet over de hele site
Een handige nieuwe feature in Sitemaps is dat je nu je robots.txt kan analyseren en weer kan laten geven welke URLs dit bestand allemaal blokkeert. Zo heb je het een stuk sneller door als door een foute robots.txt je website niet wordt opgenomen in Google!
Hmm, dan gaat er dus iets fout bij hun internVerwijderd schreef op donderdag 22 juni 2006 @ 10:25:
[...]
Dit gaat niet altijd op. Zoals ik net al zei geeft Google Sitemaps bij mij aan dat de website voor het laatst gespiderd is op 31 januari, in mei is een nieuwe website online gegaan en de nieuwe homepage is wel opgenomen in Google.
Dat zit er al een flinke tijd inEen handige nieuwe feature in Sitemaps is dat je nu je robots.txt kan analyseren en weer kan laten geven welke URLs dit bestand allemaal blokkeert. Zo heb je het een stuk sneller door als door een foute robots.txt je website niet wordt opgenomen in Google!
Verwijderd
Hmm... Ik had al meermalen met die 'robots-pagina' gewerkt van de oude versie, maar meer informatie dan of de robots.txt gevonden was kreeg ik nooit.
Ik hoop overigens dat die interne fout snel wordt hersteld, want ook een aantal andere pagina's wordt verschrikkelijk onlogisch gespiderd: bijvoorbeeld wel individuele foto's, maar pagina's met de belangrijkste content niet. Gebruik je daar dan een sitemap voor...
Ik hoop overigens dat die interne fout snel wordt hersteld, want ook een aantal andere pagina's wordt verschrikkelijk onlogisch gespiderd: bijvoorbeeld wel individuele foto's, maar pagina's met de belangrijkste content niet. Gebruik je daar dan een sitemap voor...
Wij worden sinds een week of 2 a 3 ofzo echt ongelofelijk hard gespiderd* (gemiddeld zo'n 2000 hits per dag van 66.249.x.x, met pieken van 4000+ en 6000+ hits per dag). Maar het rare is dat we met onze site van ruim 150.000+ pagina's zijn teruggevallen naar 6.000, 3.000, 1.000 en de afgelopen paar dagen nog maar 500~600 links. Gezien het feit dat ruim 75% van onze bezoekers ons vindt via Google (we hebben gelukkig nog wat AdWords campagnes lopen) scheelt dat (merkbaar) in de omzet.
Uiteraard hebben we een sitemap ge-upload (om precies te zijn een Sitemap index met meerdere sitemaps) en die links worden allemaal volgens onze logfiles prima gespiderd. Hoewel we pas een aardige update hebben gehad van onze site zou het alleen maar beter geworden moeten zijn. Oude URL's worden gemapped naar nieuwe URLs (nee, geen redirect, de pagina wordt gewoon gegenereerd a.d.h.v. de oude URL).
Onze robots.txt bevat niks geks (en is in orde, ook bevestigd door het feit dat alle URL's gespiderd worden)...
Hoewel ik verwacht dat we binnen een aantal dagen wel weer omhoog klimmen qua aantal links, begin ik me toch een beetje zorgen te maken. Worden het er nog minder? Of gaat het weer oplopen? Zou er iets loos zijn met onze site? Of is Google oude meuk aan 't opruimen?
* Ter indicatie: 2409 hits van 0:00 middernacht tot 9:54 vanochtend enkel en alleen van 66.249.72.xxx....
Logje: Download
Uiteraard hebben we een sitemap ge-upload (om precies te zijn een Sitemap index met meerdere sitemaps) en die links worden allemaal volgens onze logfiles prima gespiderd. Hoewel we pas een aardige update hebben gehad van onze site zou het alleen maar beter geworden moeten zijn. Oude URL's worden gemapped naar nieuwe URLs (nee, geen redirect, de pagina wordt gewoon gegenereerd a.d.h.v. de oude URL).
Onze robots.txt bevat niks geks (en is in orde, ook bevestigd door het feit dat alle URL's gespiderd worden)...
Hoewel ik verwacht dat we binnen een aantal dagen wel weer omhoog klimmen qua aantal links, begin ik me toch een beetje zorgen te maken. Worden het er nog minder? Of gaat het weer oplopen? Zou er iets loos zijn met onze site? Of is Google oude meuk aan 't opruimen?
* Ter indicatie: 2409 hits van 0:00 middernacht tot 9:54 vanochtend enkel en alleen van 66.249.72.xxx....
Logje: Download
[ Voor 16% gewijzigd door RobIII op 22-06-2006 11:47 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Was mij ook al opgevallen. Ik hoop niet dat ze daar enge dingen aan het doen zijn...RobIII schreef op donderdag 22 juni 2006 @ 11:06:
Maar het rare is dat we met onze site van ruim 150.000+ pagina's zijn teruggevallen naar 6.000, 3.000, 1.000 en de afgelopen paar dagen nog maar 500~600 links
Vlinders moet je volgen, niet vangen...
Welke site als ik vragen mag? Kijken of ik overeenkomsten kan vinden die het "probleem" zouden kunnen verklaren...PaulZ schreef op donderdag 22 juni 2006 @ 11:51:
[...]
Was mij ook al opgevallen. Ik hoop niet dat ze daar enge dingen aan het doen zijn...
[ Voor 12% gewijzigd door RobIII op 22-06-2006 15:53 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Rob: de url is gemaild naar jouw devc mailadres..
Vlinders moet je volgen, niet vangen...
Ik durf niet direct te zeggen wat het probleem is maar ik zie bijvoorbeeld dit soort url's:RobIII schreef op donderdag 22 juni 2006 @ 12:18:
[...]
Welke site als ik vragen mag? Kijken of ik overeenkomsten kan vinden die het "probleem" zouden kunnen verklaren...
Meer dan 2 a 3 variabelen wordt sterk afgeraden
.com/?ln... en .com/index.asp?ln... geven beide dezelfde pagina, dus dubbele urls
Verder vind ik de linkstructuur niet optimaal.
Deze zaken kunnen heel goed met je spiderprobleem te maken hebben.
[ Voor 5% gewijzigd door André op 22-06-2006 12:37 ]
Helaas ontkom ik daar (voorlopig, er komt een geheel nieuwe site maar da's pas rond 2007André schreef op donderdag 22 juni 2006 @ 12:36:
[...]
Ik durf niet direct te zeggen wat het probleem is maar ik zie bijvoorbeeld dit soort url's:
[...]
Meer dan 2 a 3 variabelen wordt sterk afgeraden
.com/?ln... en .com/index.asp?ln... geven beide dezelfde pagina, dus dubbele urls
Verder vind ik de linkstructuur niet optimaal.
Die "index.asp" is nu grotendeels overal uit gesloopt sinds een weekje, dus dat zou weer recht moeten trekken...
Dat is 't 'm nou juist. Getuige mijn logs heb ik geen spiderprobleem maar wordt ik gewoon niet gevonden in de indexAndré schreef op donderdag 22 juni 2006 @ 12:36:
Deze zaken kunnen heel goed met je spiderprobleem te maken hebben.
[ Voor 49% gewijzigd door RobIII op 22-06-2006 15:53 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Mooie analyse, wellicht een beetje oppervlakkig, maar geeft goede richtlijnen terug. NiceWoudloper schreef op donderdag 15 juni 2006 @ 07:57:
Kwam de volgende website tegen en deze leek mij wel handig voor dit topic:Hiermee kan je controleren of je pagina voldoet aan bepaalde SEO kenmerken.
Ace of Base vs Charli XCX - All That She Boom Claps (RMT) | Clean Bandit vs Galantis - I'd Rather Be You (RMT)
You've moved up on my notch-list. You have 1 notch
I have a black belt in Kung Flu.
De average score is (volgens die site) 67, en wij scoren daar 65.BtM909 schreef op donderdag 22 juni 2006 @ 12:49:
[...]
Mooie analyse, wellicht een beetje oppervlakkig, maar geeft goede richtlijnen terug. Nice
Fijn, zeg dan ook effe wat die ene instance isObsolete & Deprecated HTMLWe have found 1 instances where your web page is using obsolete or deprecated HTML. The use of these HTML elements usually makes your web pages larger (which increases download time), and they are no longer used in modern web design. For optimal web design and search engine results, Sitening recommends only using a combination of validated XHTML and CSS — where all styles have been stripped from the XHTML and placed in the CSS.
Below is a list of obsolete or deprecated HTML. If an element is listed without an attribute, the element is considered obsolete or deprecated. If an element and attribute are shown together, the attribute is considered obsolete or deprecated.
<a target="">
<img align="">
<p align="">
<table align="">
<td width="">
<u>
Ik zie er zo al (veel) meer
[ Voor 71% gewijzigd door RobIII op 22-06-2006 15:53 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Ik had daar 1 keer een inline style gebruikt en weg score, had ik dan een class moeten plaatsen om de style in de CSS te definieren? Voor sommige zaken zijn inline styles prima te gebruiken dus ik ben het niet helemaal eens met de puntentelling.
Kan je toch niet beter een redirect met een Moved Permanently header doen? nu heb je blijkbaar dubbele content...RobIII schreef op donderdag 22 juni 2006 @ 11:06:
Oude URL's worden gemapped naar nieuwe URLs (nee, geen redirect, de pagina wordt gewoon gegenereerd a.d.h.v. de oude URL).
Intentionally left blank
Puntentelling is wat dat betreft inderdaad wat overdreven, maar de analyse doet hij wel volstrekt netjes. Ook het verkeerd om nesten van headers ontging hem niet.
Ondanks dat ik al dat soort sites met een korreltje site neem, ben ik wel tevreden met het aantal punten welke de startpagina van een recente site scoort; 90
Hij zeurt alleen over het gebruik van Flash, terwijl dit slechts een banner is.
Aanvulling @crisp
Dat lijkt mij inderdaad ook veel verstandiger.
Ondanks dat ik al dat soort sites met een korreltje site neem, ben ik wel tevreden met het aantal punten welke de startpagina van een recente site scoort; 90
Hij zeurt alleen over het gebruik van Flash, terwijl dit slechts een banner is.
Aanvulling @crisp
Dat lijkt mij inderdaad ook veel verstandiger.
[ Voor 9% gewijzigd door frickY op 22-06-2006 13:20 ]
Ik heb inderdaad 1 (conditionele, IE-only) inline style... Maar wat daar aan zou mankeren voor een searchengine ontgaat mij even...André schreef op donderdag 22 juni 2006 @ 12:58:
Ik had daar 1 keer een inline style gebruikt en weg score, had ik dan een class moeten plaatsen om de style in de CSS te definieren? Voor sommige zaken zijn inline styles prima te gebruiken dus ik ben het niet helemaal eens met de puntentelling.
HTML:
1
2
3
4
5
6
7
| <!--[if IE]> <style type="text/css" media="all"> body {behavior: url(js/csshover.htc);} #dvMenu ul li {float: left; width: 100%;} #dvMenu ul li a {height: 1%;} </style> <![endif]--> |
Tja, om daar nou punten voor af te trekken...
Los daarvan; die stond er "vroegah" ook in toen we wél goed in Google stonden...
Hmmmz, daar heb je misschien een punt ("dubbele content). Ware het niet dat alle oude URL's vervallen zijn en ze alleen nog worden gemapped op het moment dat iemand zo'n link nog in z'n favorieten heeft staan of als een andere site nog een een oude URL gebruikt om naar ons te linken. Wij zijn zelf helemaal van de oude URLs afgestapt... Dan zou Google dus nog alle oude URL's moeten hebben, maar dat is ook niet meer zo (blijkt uit a) de logs, Google spidert alleen nieuwe url's en b) er zijn geen oude URL's meer aanwezig in de index). Ook de aangeleverde sitemap(s) bevatten alleen nog nieuwe URL's.crisp schreef op donderdag 22 juni 2006 @ 13:04:
[...]
Kan je toch niet beter een redirect met een Moved Permanently header doen? nu heb je blijkbaar dubbele content...
Raar. Ik zal er eens een Moved Permanently op gooien als ik tijd heb vandaag (voor mijn weekend begint. 36-urige werkweek roeleert
[ Voor 64% gewijzigd door RobIII op 22-06-2006 15:53 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Ehm, die score is wmb niet heilig, maar sommige sites kan ik heel snel teckelen met de teruggegeven argumentenRobIII schreef op donderdag 22 juni 2006 @ 12:50:
[...]
De average score is (volgens die site) 67, en wij scoren daar 65.
[...]
Fijn, zeg dan ook effe wat die ene instance is
Ik zie er zo al (veel) meer
Het ging mij ook meer om de argumenten die gegeven worden. Sommige sites hebben lappen code en dan hoef je dat dus niet 1 2 3 door te spitten.André schreef op donderdag 22 juni 2006 @ 12:58:
Ik had daar 1 keer een inline style gebruikt en weg score, had ik dan een class moeten plaatsen om de style in de CSS te definieren? Voor sommige zaken zijn inline styles prima te gebruiken dus ik ben het niet helemaal eens met de puntentelling.
Nogmaals wmb is de score niet heilig, maar het geeft wel goede leidraden (
Ace of Base vs Charli XCX - All That She Boom Claps (RMT) | Clean Bandit vs Galantis - I'd Rather Be You (RMT)
You've moved up on my notch-list. You have 1 notch
I have a black belt in Kung Flu.
Oh, begrijp me niet verkeerd hoorBtM909 schreef op donderdag 22 juni 2006 @ 13:43:
Ehm, die score is wmb niet heilig, maar sommige sites kan ik heel snel teckelen met de teruggegeven argumenten
[ Voor 21% gewijzigd door RobIII op 22-06-2006 15:52 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Afgezien van die punten die ik genoemd heb zijn er wel meer zaken in je site aan te pakken. Het kan heel goed zijn dat Google de knoppen weer wat aangedraaid heeft waardoor je site nu niet meer zo goed geindexeerd word. Om dat te voorkomen zal je alles goed voor elkaar moeten hebben SEO technisch gezien. En als je zegt dat je omzet er best van afhankelijk is zou ik dat meer vaart in zetten dan te wachten op de nieuwe site
Alles wat er (in redelijke tijd) aan gedaan kan worden is er aan gedaan. Enkel het optimaliseren van de URL's (friendly URL's) is nog iets wat op mijn todo-lijstje staat. Voor de rest ben ik afhankelijk van gebruikers die rommelen in CMS-en (André schreef op donderdag 22 juni 2006 @ 13:54:
[...]
Afgezien van die punten die ik genoemd heb zijn er wel meer zaken in je site aan te pakken. Het kan heel goed zijn dat Google de knoppen weer wat aangedraaid heeft waardoor je site nu niet meer zo goed geindexeerd word. Om dat te voorkomen zal je alles goed voor elkaar moeten hebben SEO technisch gezien. En als je zegt dat je omzet er best van afhankelijk is zou ik dat meer vaart in zetten dan te wachten op de nieuwe site
Maar dan begrijp ik nog steeds niet waarom we afgelopen weken ruim 30.000 hits van google hebben gehad zonder er enig resultaat van te zien (behalve dat we er juist minder goed in staan). Er is niet zo heel veel spannends veranderd in de afgelopen update (eigenlijk allen maar wat tekst er bij en juist meta-tags dynamisch gegenereerd in plaats van vast) dat een drop in links zou moeten verklaren. Voor de rest is het hetzelfde gebleven. En ja, ik weet dat er nog tables in zitten voor layout en nog wel wat van die geintjes, maar ik heb ook weinig trek in allerlei CSS-browserhacks om dat weer netjes te krijgen en probeer ik gewoon een ontzettend breed browser-scala te ondersteunen. En los daarvan heb ik een aantal "eisen" liggen van mijn baas die toch wil dat bepaalde dingen op bepaalde manieren werken (en die zijn idd niet altijd even SEO vriendelijk (te maken))
Ik vind het maar raar. Maar ik wacht het nog even af. Je maakt mij niet wijs dat Google onze site niet kan spideren (en dat doet ie dus getuige de logs). Ik denk dat het wel weer bij trekt. Hoop ik
[ Voor 6% gewijzigd door RobIII op 22-06-2006 15:52 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Ik denk ook wel dat het bijtrekt omdat Google inderdaad wel door de site heen komt. Ik heb het wel eens vaker gezien dat een grote site tijdelijk slecht in de zoekmachines staat en later weer terugkomt. Maar soms komt hij ook niet terug omdat er echt wat aan de hand is.RobIII schreef op donderdag 22 juni 2006 @ 14:05:
Ik vind het maar raar. Maar ik wacht het nog even af. Je maakt mij niet wijs dat Google onze site niet kan spideren (en dat doet ie dus getuige de logs). Ik denk dat het wel weer bij trekt. Hoop ik
Heb je Google Sitemaps al eens bekeken? En dan niet om de sitemapfunctie maar om de crawlstats.
Dit zou ik voor de zekerheid ook uit je robots.txt halen:
User-agent: *
disallow:
[ Voor 9% gewijzigd door André op 22-06-2006 14:18 ]
Crawlstats zijn ook in orde (niks out-of-the-ordinary in ieder geval). Wel raar is dat in sitemaps (nog??) staat dat alles US-ASCII is terwijl we al een hele tijd serveren als ISO-8859-1 (HTTPheader én meta-tag):André schreef op donderdag 22 juni 2006 @ 14:11:
[...]
Ik denk ook wel dat het bijtrekt omdat Google inderdaad wel door de site heen komt. Ik heb het wel eens vaker gezien dat een grote site tijdelijk slecht in de zoekmachines staat en later weer terugkomt. Maar soms komt hij ook niet terug omdat er echt wat aan de hand is.
Heb je Google Sitemaps al eens bekeken? En dan niet om de sitemapfunctie maar om de crawlstats.
code:
1
2
3
4
5
6
7
8
9
10
11
12
| Date: Thu, 22 Jun 2006 12:14:18 GMT Server: Microsoft-IIS/6.0 X-Powered-By: ASP.NET Pragma: no-cache P3P: policyref="http://www.replacedirect.com/w3c/p3p.xml", CP="NOI DSP COR CURa ADMa DEVa TAIa OUR BUS IND UNI COM NAV INT" Content-Length: 36728 Content-Type: text/html; Charset=ISO-8859-1 Expires: Wed, 21 Jun 2006 12:14:18 GMT Set-Cookie: CartID=XXXXXXXX expires=Fri, 22-Jun-2007 12:14:18 GMT; path=/ Cache-Control: private, no-cache, must-revalidate 200 OK |
Verder een paar URL's die een "Network Unreachable" hebben (stuk of 10, tijdens een "outage" van een paar minuten) en wat urls (stuk of 20) die dankzij robots.txt niet gespiderd zijn. Everything else seems fine
Done. Zou het?André schreef op donderdag 22 juni 2006 @ 14:11:
Dit zou ik voor de zekerheid ook uit je robots.txt halen:
[...]
Mocht iemand nog intresse hebben in onze sitemap: voila
Ook die voldoet aan alle regeltjes (max. 10Mb extracted e.d.) en is volgens Google ook Ok.
Schijt. Ik wacht nog een weekje en dan zie ik wel weer
[ Voor 30% gewijzigd door RobIII op 22-06-2006 15:51 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Wat is het beste scheidingsteken om te gebruiken voor spaties in 'vriendelijke' URLs?
Ik gebruik altijd streepjes om de spaties mee te vervangen. Maar in incidentele gevallen ben ik die vergeten, en maakt urlencode hier plus-tekentjes van. En juist die links met +-tekens zie ik hoger in de resultaten terug
Ook zie ik in Google Sitemaps bij de Crawlfouten honderden regels als "/39030/.html", terwijl dit iets zou moeten zijn als "/Type/39030/Titel-van-document.html". Waar haalt Google die 'beschadigde' links vandaan?
@RobIII
Wat doet die 'T' in je last-modified element?
Ik gebruik altijd streepjes om de spaties mee te vervangen. Maar in incidentele gevallen ben ik die vergeten, en maakt urlencode hier plus-tekentjes van. En juist die links met +-tekens zie ik hoger in de resultaten terug
Ook zie ik in Google Sitemaps bij de Crawlfouten honderden regels als "/39030/.html", terwijl dit iets zou moeten zijn als "/Type/39030/Titel-van-document.html". Waar haalt Google die 'beschadigde' links vandaan?
@RobIII
Wat doet die 'T' in je last-modified element?
[ Voor 150% gewijzigd door frickY op 23-06-2006 09:28 ]
Spaties kunnen het beste vervangen worden door - want die worden door Google gezien als spaties.frickY schreef op vrijdag 23 juni 2006 @ 09:14:
Wat is het beste scheidingsteken om te gebruiken voor spaties in 'vriendelijke' URLs?
Ik gebruik altijd streepjes om de spaties mee te vervangen. Maar in incidentele gevallen ben ik die vergeten, en maakt urlencode hier plus-tekentjes van. En juist die links met +-tekens zie ik hoger in de resultaten terug
Als ik een link vanaf mijn site naar een niet bestaande pagina in jouw site maakt krijg jij deze melding te zien. Als er veel van die foute links bestaan is het misschien handig een custom 404 in te stellen. Ook moet je proberen er achter te komen waar die foute links staan.Ook zie ik in Google Sitemaps bij de Crawlfouten honderden regels als "/39030/.html", terwijl dit iets zou moeten zijn als "/Type/39030/Titel-van-document.html". Waar haalt Google die 'beschadigde' links vandaan?
Dus toch streepje houden. Thanks 
Ik heb het probleem ook gevonden.
Een collega gebruikte een sessie-variabele in het script welke de 301 links verzorgde naar de nieuwe locaties
De afgelopen maand kreeg Google dus deze foutieve links voorgeschoteld bij het nalopen van zijn cache
Ik heb het probleem ook gevonden.
Een collega gebruikte een sessie-variabele in het script welke de 301 links verzorgde naar de nieuwe locaties
[ Voor 4% gewijzigd door frickY op 23-06-2006 09:51 ]
Verwijderd
Dank je. Dat is inderdaad een zeer handige link.Woudloper schreef op donderdag 15 juni 2006 @ 07:57:
Kwam de volgende website tegen en deze leek mij wel handig voor dit topic:Hiermee kan je controleren of je pagina voldoet aan bepaalde SEO kenmerken.
Kreeg een score van 100%, wat op zich best aardig is voor een aanbodsite van dieren :-)
Daarbij kreeg ik de volgende opmerkingen:
---------------------------------
Outgoing Links
Your web page doesn't appear to be using the rel="nofollow" anchor attribute. It's important to use this attribute for outgoing links that you cannot verify, are not related to the content of your web page, and/or link to untrusted spammy web pages. Otherwise, search engines may penalize your web page for links they deem to be untrustworthy and/or spammy.
Top Keywords
en
dieren
titelfotoprijsa
te
koop
---------------------------------
Dus daar moet ik wat aan doen. De top keywords kunnen beter en de outgoing links
Punten die ik nog wil doorvoeren:
- friendly urls
- benamingen plaatjes en de daarbij horende alt en title tags
- Verbeteren <title> per pagina. Geeft nu per pagina een title.. maar wil ze nog wat netter
- sitemap
- robots.txt
Dat is de ISO 8601 (en W3C) DateTime notatie.frickY schreef op vrijdag 23 juni 2006 @ 09:14:
@RobIII
Wat doet die 'T' in je last-modified element?
http://www.google.com/web.../protocol.html#lastmoddef
http://www.w3.org/TR/NOTE-datetime
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Ahh duidelijk. Ging er eigenlijk vanuit dat RFC822 gebruikt moest worden
[ Voor 161% gewijzigd door frickY op 23-06-2006 18:19 ]
Verwijderd
Wat is de invloed van verschillende meta-descriptions op de verschillende pagina's..
Is het verstandig om 1 description op alle pagina's te tonen of elk afzonderlijke pagina met andere specifiek voor die pagina geldende omschrijving.
Is het verstandig om 1 description op alle pagina's te tonen of elk afzonderlijke pagina met andere specifiek voor die pagina geldende omschrijving.
Elke pagina is toch een unieke pagina met een uniek onderwerp? Dan hoort de description dus ook uniek te zijn want die gaat over de pagina en niet over de hele site
Waarmee kan je een & het best vervangen?André schreef op vrijdag 23 juni 2006 @ 09:30:
[...]
Spaties kunnen het beste vervangen worden door - want die worden door Google gezien als spaties.
[...]
Als ik een link vanaf mijn site naar een niet bestaande pagina in jouw site maakt krijg jij deze melding te zien. Als er veel van die foute links bestaan is het misschien handig een custom 404 in te stellen. Ook moet je proberen er achter te komen waar die foute links staan.
Ik had nl eerst spatie vervangen door een _ en & door -, echter als ik de spaties ga vervangen door een - dan zou ik de & door iets anders moeten laten vervangen. Enig idee?
Vandaag wat onderhoud gehad, en wat blijkt?Woudloper schreef op donderdag 15 juni 2006 @ 07:57:
Kwam de volgende website tegen en deze leek mij wel handig voor dit topic:Hiermee kan je controleren of je pagina voldoet aan bepaalde SEO kenmerken.
We scoren nu op alle pagina's (tenzij ze uit het WYSIWYG CMS komen
Anyhow, ik heb er dus niet op "gemikt" maar gewoon mijn "TODO" lijstje afgewerkt. Et voila
Dan over onze Google situatie: Die is een beetje vreemd. Van de week hebben we er een dag ofzo met 150.000+ hits in gestaan. Maar dat viel de dag erna dus meteen weer terug
Ik heb een "export" van onze producten ge-submit bij Froogle. Wellicht dat dat nog wat helpt op de een of andere manier...
[ Voor 27% gewijzigd door RobIII op 06-07-2006 18:55 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Als een stukje software al miljoenen 3D berekeningen kan doen in een game, als een stukje software de beste schaker ter wereld kan verslaan dan moet hij ook wel een site kunnen beoordelenVerwijderd schreef op donderdag 06 juli 2006 @ 19:58:
Hoe kan een stukje software je website nou op semantische correctheid checken?
Wat André zegt. En los daarvan is het gewoon een hulpmiddel. Het is niet dé tool, niet de holy grail of whatever. Het is gewoon een hulpmiddel, net als een spellingscontrole (die ook niet weet of mijn rapport klopt, maar er wel fouten uit haalt qua spelling) of als een hamer die ik gebruik om een spijker in een plank te slaan (maar ik kan er ook iemand zijn harses mee inrammen).Verwijderd schreef op donderdag 06 juli 2006 @ 19:58:
Hoe kan een stukje software je website nou op semantische correctheid checken?
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Wij vervangen & door -en-CrashOne schreef op donderdag 06 juli 2006 @ 15:57:
[...]
Waarmee kan je een & het best vervangen?
Ik had nl eerst spatie vervangen door een _ en & door -, echter als ik de spaties ga vervangen door een - dan zou ik de & door iets anders moeten laten vervangen. Enig idee?
Dus een titel als: "Rock Pegasus Dungeons & Dragons: Online-laptop getest" wordt Rock-Pegasus-Dungeons-en-Dragons:-Online-laptop-getest
Intentionally left blank
Je kunt het beter weghalen want zoekmachines doen toch niets met worden als encrisp schreef op vrijdag 07 juli 2006 @ 00:38:
[...]
Wij vervangen & door -en-
Dus een titel als: "Rock Pegasus Dungeons & Dragons: Online-laptop getest" wordt Rock-Pegasus-Dungeons-en-Dragons:-Online-laptop-getest
Het doel van 'pretty url's' is niet alleen SEO maar ook dat het 'human readable' isSpleasure schreef op vrijdag 07 juli 2006 @ 09:24:
[...]
Je kunt het beter weghalen want zoekmachines doen toch niets met worden als en
Intentionally left blank
Amen to that. Een website maak je voor mensen niet voor zoekmachines!crisp schreef op vrijdag 07 juli 2006 @ 09:37:
[...]
Het doel van 'pretty url's' is niet alleen SEO maar ook dat het 'human readable' is
De pretty URIs van ons CMS hebben de vorm: http://example.com/3,boom/5,tak/38,blaadje.html. Die ID's staan erin omdat klanten nogal de neiging hebben de titels e.d. te wijzigen. Zonder ID's zouden oude links dan stuk gaan. Nu wijst bijv. http://example.com/3,bomen/5,twijg/38,blad.html naar exact dezelfde pagina.
De reden dat er in elke directory een ID vermeld staat is simpel: je kunt zo makkelijk een niveau hoger gaan in de site. Opera heeft daar bijv. zelfs direct een functie voor level up'. Overigens vind ik het vervelend dat veel sites, o.a. tweakers.net, die mogelijkheid stuk maken.
Waar ik nog mee zit is precies die ID's, het oogt slordig. Hoe gaan jullie om met ID's, of welke oplossing gebruiken jullie om te voorkomen dat bookmarks/links stuk gaan op het moment dat een titel wijzigt?
De reden dat er in elke directory een ID vermeld staat is simpel: je kunt zo makkelijk een niveau hoger gaan in de site. Opera heeft daar bijv. zelfs direct een functie voor level up'. Overigens vind ik het vervelend dat veel sites, o.a. tweakers.net, die mogelijkheid stuk maken.
Waar ik nog mee zit is precies die ID's, het oogt slordig. Hoe gaan jullie om met ID's, of welke oplossing gebruiken jullie om te voorkomen dat bookmarks/links stuk gaan op het moment dat een titel wijzigt?
[ Voor 3% gewijzigd door Fuzzillogic op 07-07-2006 11:42 ]
Voor productgroepen ed. gebruik ik alleen de naam van de productgroep. Zolang je deze uniek houd is dat prima te doen. Moet je alleen wel alle URL's dynamisch iopbouwen, zodat de links mee veranderen als de naam wijzigt. Links in je CMS sla dus niet op als a-href's, maar bijv als [%LINK=123%] waar je bij het tonen de huidige productnaam ophaalt en die toepast als link.
Bij URLs naar pagina's, waarvan de titel over het algemeen wat langer is, geef ik het ID mee in de vorm van; "/121543/WK-Elizondo-mag-finale-fluiten.html", waarbij ik in mijn scripts alleen met het ID werk.
Bij URLs naar pagina's, waarvan de titel over het algemeen wat langer is, geef ik het ID mee in de vorm van; "/121543/WK-Elizondo-mag-finale-fluiten.html", waarbij ik in mijn scripts alleen met het ID werk.
[ Voor 23% gewijzigd door frickY op 07-07-2006 11:51 ]
Op die manier kan er wanneer titels gewijzigd worden de situatie ontstaan dat dezelfde pagina op meerdere url's bekend is bij Google, dat zou dus een duplicate content probleem kunnen opleveren. Google ziet dat gewoon als allemaal verschillende pagina's, elk adres is een pagina.Nexxennium schreef op vrijdag 07 juli 2006 @ 11:41:
De pretty URIs van ons CMS hebben de vorm: http://example.com/3,boom/5,tak/38,blaadje.html. Die ID's staan erin omdat klanten nogal de neiging hebben de titels e.d. te wijzigen. Zonder ID's zouden oude links dan stuk gaan. Nu wijst bijv. http://example.com/3,bomen/5,twijg/38,blad.html naar exact dezelfde pagina.
Mapnamen maken voor Bezoekers en Google niet uit dus ik zou voor deze structuur kiezen:
http://example.com/3/5/38/blaadje.html
Op die manier kun je aan de hand van de 3 id's de juiste pagina laten zien. En wanneer er een andere titel achter de laatste id staat dan de eigenlijke titel laat je hem met een 301 redirecten naar de originele titel. Na een titelchange worden de oude pagina's dan ook keurig geredirect.
Buiten dat er een aantal technische zaken zijn, is het belangrijkste nog altijd content. Dus elke dag minimaal 3 nieuwe pagina's schrijven, met leuke actuele en zelf geschreven content. Dat brengt je A) meer bezoekers,
meer content = meer resultaten in search engine,. C) meer omzet D) world domination...
Content is nog altijd king, en alleen in combinatie met content heeft de rest van de tips uit dit topic enig nut.
Content is nog altijd king, en alleen in combinatie met content heeft de rest van de tips uit dit topic enig nut.
Verstand van Voip? Ik heb een leuke baan voor je!
Hmn, daar heb je een punt. Maar vziw is google gooit Google duplicaten weg? Het zou dan handig zijn om juist de oudste weg te gooienAndré schreef op vrijdag 07 juli 2006 @ 12:04:
[...]
Op die manier kan er wanneer titels gewijzigd worden de situatie ontstaan dat dezelfde pagina op meerdere url's bekend is bij Google, dat zou dus een duplicate content probleem kunnen opleveren. Google ziet dat gewoon als allemaal verschillende pagina's, elk adres is een pagina.
Ik wil graag de teksten van bovenliggende directories ook behouden, want die vertellen indirect ook wat over de pagina. Zo valt uit de URI al op te maken dat "blaadje" iets te maken heeft met "tak", en die heeft weer te maken met "boom".[/quote]Mapnamen maken voor Bezoekers en Google niet uit dus ik zou voor deze structuur kiezen:
http://example.com/3/5/38/blaadje.html Op die manier kun je aan de hand van de 3 id's de juiste pagina laten zien. En wanneer er een andere titel achter de laatste id staat dan de eigenlijke titel laat je hem met een 301 redirecten naar de originele titel. Na een titelchange worden de oude pagina's dan ook keurig geredirect.
Thanx voor de input iig. Dat redirecten naar de nieuwste pagina gaan we toch maar eens even opnemen in de volgende versie van het CMS
[ Voor 7% gewijzigd door Fuzzillogic op 07-07-2006 13:00 ]
Ja, maar dat proces wil je zelf in handen hebben en niet aan Google overlatenNexxennium schreef op vrijdag 07 juli 2006 @ 12:57:
[...]
Hmn, daar heb je een punt. Maar vziw is google gooit Google duplicaten weg?
ywThanx voor de input iig. Dat redirecten naar de nieuwste pagina gaan we toch maar eens even opnemen in de volgende versie van het CMS
Hoe checken jullie trouwens welke pagina's google /msn allemaal indexeren? neem aan dat je niet dagelijks handmatig je logfiles door gaat lezen.
Verstand van Voip? Ik heb een leuke baan voor je!
Ik ga volgende week bezig met een website waarbij SEO (wederom) belangrijk is. Het "probleem" is echter dat deze site een nieuwere versie is van een bestaande site. De bestaande site en de nieuwe site gaan naast elkaar draaien, zogenaamd: "AB Testing".
Hoe zit dat met zoekmachines? Als Google vandaag de site bezoekt en de oude site krijgt is alles nog goed, maar de volgende dag krijgt Google ineens de nieuwe site. De dag erop de oude site, etc.
De keuze welke template je krijgt wordt serverside afgehandeld zodat beide versies van de site evenveel exposure krijgen. Aan de URL ga je niet kunnen zien dat je een andere versie van de site ziet.
De HTML en CSS en zelfs javascript zullen niet hetzelfde zijn, en zelfs de structuur van browsen veranderd.
Mijn vraag is eigenlijk: Gaat Google moeilijk doen als het meerdere weergaven van dezelfde site tegenkomt?
(N.B. De reden voor het AB-testen is om te kijken of de nieuwe site een hogere conversie-ratio haalt voor nieuwe gebruikers van het systeem. Edit: De ranking in de zoekmachine doet er dus nu even niet toe, het gaat puur om de vraag of Google de site kan gaan bannen omdat het de indruk zou kunnen krijgen dat de search engine een andere site krijgt dan gewone bezoekers.)
Hoe zit dat met zoekmachines? Als Google vandaag de site bezoekt en de oude site krijgt is alles nog goed, maar de volgende dag krijgt Google ineens de nieuwe site. De dag erop de oude site, etc.
De keuze welke template je krijgt wordt serverside afgehandeld zodat beide versies van de site evenveel exposure krijgen. Aan de URL ga je niet kunnen zien dat je een andere versie van de site ziet.
De HTML en CSS en zelfs javascript zullen niet hetzelfde zijn, en zelfs de structuur van browsen veranderd.
Mijn vraag is eigenlijk: Gaat Google moeilijk doen als het meerdere weergaven van dezelfde site tegenkomt?
(N.B. De reden voor het AB-testen is om te kijken of de nieuwe site een hogere conversie-ratio haalt voor nieuwe gebruikers van het systeem. Edit: De ranking in de zoekmachine doet er dus nu even niet toe, het gaat puur om de vraag of Google de site kan gaan bannen omdat het de indruk zou kunnen krijgen dat de search engine een andere site krijgt dan gewone bezoekers.)
[ Voor 12% gewijzigd door Blue-eagle op 07-07-2006 15:32 ]
Blue-eagle: zo werkt het niet
AB testen kun je doen met CSS (dat je dezelfde HTML een andere layout geeft) maar bijna niet in de HTML zelf, en dan al helemaal niet in de organic zoekresultaten. Even wat korte reacties:
Wel is het de verkeerde manier van AB testen omdat je speelt met je rankings. Ik zou eerder kijken of je de HTML grotendeels hetzelfde kunt laten terwijl je via CSS met de layout speelt. Eventueel gebruik je een AdWords campagne om traffic te genereren. Dan kun je in je site zelf ook nog experimenteren met pagina's die niet hoeven te ranken zoals de bestelpagina. Daar kun je meerderen van laten draaien om te zien welke beter converteerd.
Begrijp me goed: AB testen kan je dubbele omzetten leveren dus is ook zeer belangrijk, maar ik zou een iets andere insteek kiezen.
Niet doen, kies 1 van de 2 sites die voor je gevoel het beste is. Als dat de nieuwe site is gooi je die online en redirect je de oude url's met een 301 naar de nieuwe.Blue-eagle schreef op vrijdag 07 juli 2006 @ 15:30:
Ik ga volgende week bezig met een website waarbij SEO (wederom) belangrijk is. Het "probleem" is echter dat deze site een nieuwere versie is van een bestaande site. De bestaande site en de nieuwe site gaan naast elkaar draaien, zogenaamd: "AB Testing".
Het duurt even voordat zoekmachines de nieuwe pagina's indexeren. Daarom kun je eigenlijk pas na elke spiderronde de andere template weer gespiderd krijgen en dat kan weken duren. Verder waardeert Google het als je content statisch is zodat het een reputatie op kan bouwen.Hoe zit dat met zoekmachines? Als Google vandaag de site bezoekt en de oude site krijgt is alles nog goed, maar de volgende dag krijgt Google ineens de nieuwe site. De dag erop de oude site, etc.
Oke vergeet dan mijn redirect verhaal, maar het 2 de stuk over de statische content gaat nog wel op. Je wil een reputatie en inkomende links opbouwen. Nieuwe content stop je dan weer in nieuwe pagina's.De keuze welke template je krijgt wordt serverside afgehandeld zodat beide versies van de site evenveel exposure krijgen. Aan de URL ga je niet kunnen zien dat je een andere versie van de site ziet.
Dat ligt er aan wat je met een andere weergave bedoeld. Dezelfde HTML met veranderende CSS is prima. Veranderende HTML zou ik niet doen.De HTML en CSS en zelfs javascript zullen niet hetzelfde zijn, en zelfs de structuur van browsen veranderd.
Mijn vraag is eigenlijk: Gaat Google moeilijk doen als het meerdere weergaven van dezelfde site tegenkomt?
Je krijgt hiervoor geen ban omdat het heel normaal is dat je op dezelfde url andere content tegen kunt komen. Dat de rankings je niet uitmaken is ook niet waar: zonder rankings geen bezoekers(N.B. De reden voor het AB-testen is om te kijken of de nieuwe site een hogere conversie-ratio haalt voor nieuwe gebruikers van het systeem. Edit: De ranking in de zoekmachine doet er dus nu even niet toe, het gaat puur om de vraag of Google de site kan gaan bannen omdat het de indruk zou kunnen krijgen dat de search engine een andere site krijgt dan gewone bezoekers.)
Wel is het de verkeerde manier van AB testen omdat je speelt met je rankings. Ik zou eerder kijken of je de HTML grotendeels hetzelfde kunt laten terwijl je via CSS met de layout speelt. Eventueel gebruik je een AdWords campagne om traffic te genereren. Dan kun je in je site zelf ook nog experimenteren met pagina's die niet hoeven te ranken zoals de bestelpagina. Daar kun je meerderen van laten draaien om te zien welke beter converteerd.
Begrijp me goed: AB testen kan je dubbele omzetten leveren dus is ook zeer belangrijk, maar ik zou een iets andere insteek kiezen.
Volgens mij is het wel eens langsgekomen maar de beste oplossing was me niet duidelijk.
Ik ga een site maken in 2 talen, engels en nederlands.
Hoe kan ik dit nu het best aanpakken?
Zelf dacht ik aan een ip2country tabel en zo de gebruiker naar de goede site verwijzen domein.com/nl/ of domein.nl/en/ maar ik vraag me af hoe google dat vind. Is het beter om een .com domein voor het engelse te hebben en een extra .nl domein voor de nederlandse te hebben en dan te redirecten? Inkomende links wil ik maar naar 1 adres hebben, niet 2. Alvast bedankt voor de hulp
Ik ga een site maken in 2 talen, engels en nederlands.
Hoe kan ik dit nu het best aanpakken?
Zelf dacht ik aan een ip2country tabel en zo de gebruiker naar de goede site verwijzen domein.com/nl/ of domein.nl/en/ maar ik vraag me af hoe google dat vind. Is het beter om een .com domein voor het engelse te hebben en een extra .nl domein voor de nederlandse te hebben en dan te redirecten? Inkomende links wil ik maar naar 1 adres hebben, niet 2. Alvast bedankt voor de hulp
Dan zou ik gewoon voor 1 site gaan. Eventueel voor andere redenen kun je de .nl ook registreren en laten redirecten zolang er voor zoekmachines maar 1 site is.
Als je voor elk land 1 site maakt hebben ze allemaal hun eigen populariteit, als je 1 site voor alle landen maakt wordt de populariteit op 1 domein gevestigd en dat is wat je wil.
Als je voor elk land 1 site maakt hebben ze allemaal hun eigen populariteit, als je 1 site voor alle landen maakt wordt de populariteit op 1 domein gevestigd en dat is wat je wil.
- We Are Borg
- Registratie: April 2000
- Laatst online: 21:58
Moderator Wonen & Mobiliteit / General Chat
/u/5360/crop65d3c045ca48f_cropped.png?f=community)
Hmm, dat is een goede opmerking. Moet zelf ook site maken met meerdere talen en dacht zelf ook aan een IP achtige constructie. Dan via een sessie de taal zetten en zo de juiste vertaling uit de DB te vissen. Probleem alleen is dat dit niet gaat werken voor Google denk ik 
Volgens mij zijn fisieke url's (bijv achter een flagetje) met daar domein.com/nl, domein.com/fr, etc beter, want Google kan die linkjes tenminste volgen. Ik heb maar 1 domein dus vandaar. Of zijn er bezwaren/betere ideeen?
Volgens mij zijn fisieke url's (bijv achter een flagetje) met daar domein.com/nl, domein.com/fr, etc beter, want Google kan die linkjes tenminste volgen. Ik heb maar 1 domein dus vandaar. Of zijn er bezwaren/betere ideeen?
[ Voor 9% gewijzigd door We Are Borg op 21-07-2006 11:17 ]
Ik ben geen voorstander van taaldetectie adhv IP-nummer. De browser stuurt immers zelf de gewenste taal mee; de gebruiker kan dat instellen. Respecteer dat!We Are Borg schreef op vrijdag 21 juli 2006 @ 11:16:
Hmm, dat is een goede opmerking. Moet zelf ook site maken met meerdere talen en dacht zelf ook aan een IP achtige constructie. Dan via een sessie de taal zetten en zo de juiste vertaling uit de DB te vissen. Probleem alleen is dat dit niet gaat werken voor Google denk ik
Er zijn grensgevallen. Als ik met mijn en-browser vanaf een .nl/.be domein (reverse DNS lookup, lijkt mij betrouwbaarder dan die ip-tabelletjes) naar een .nl domein ga dan zou ik nog wel nl verwachten. Omgekeerd vind ik persoonlijk het wel vervelend dat als ik weet dat een site meerdere domeinen heeft (google), en ik surf met een nl-browser expliciet naar google.com dat ik dan evengoed nog nl krijg voorgeschoteld.
Meerdere domeinen (.nl/.com) die gewoon de verwachte taal opleveren vind ik dan eigenlijk het fijnst.
Zo doen wij het sinds kort ook. bezwaar is dat je URI's langer worden en dat je vanaf de homepage al meteen en redirect doet, als je met taaldetectie werkt. De vraag is dan hoe populair de homepage zelf wordt.Volgens mij zijn fisieke url's (bijv achter een flagetje) met daar domein.com/nl, domein.com/fr, etc beter, want Google kan die linkjes tenminste volgen. Ik heb maar 1 domein dus vandaar. Of zijn er bezwaren/betere ideeen?
Landdetectie is sowieso slecht, taaldetectie is daarentegen veel beter
Vlaggetjes sucken daarom bijvoorbeeld ook, omdat vlaggetjes landen representeren en niet talen.
Ik zou daarom altijd kiezen voor een taalselectie dropdown oid.
Ik zou daarom altijd kiezen voor een taalselectie dropdown oid.
[ Voor 17% gewijzigd door André op 21-07-2006 11:42 ]
Die vlaggetjes zijn er om de juiste taal "vast te houden" voor als de gebruiker geen cookies heeft (google!!) En die vlaggetjes kunnen prima voor talen staan hoorAndré schreef op vrijdag 21 juli 2006 @ 11:41:
Landdetectie is sowieso slecht, taaldetectie is daarentegen veel beterVlaggetjes sucken daarom bijvoorbeeld ook, omdat vlaggetjes landen representeren en niet talen.
Ik zou daarom altijd kiezen voor een taalselectie dropdown oid.
- We Are Borg
- Registratie: April 2000
- Laatst online: 21:58
Moderator Wonen & Mobiliteit / General Chat
/u/5360/crop65d3c045ca48f_cropped.png?f=community)
Taaldetectie lijkt mij vrij lastigAndré schreef op vrijdag 21 juli 2006 @ 11:41:
Landdetectie is sowieso slecht, taaldetectie is daarentegen veel beterVlaggetjes sucken daarom bijvoorbeeld ook, omdat vlaggetjes landen representeren en niet talen.
Ik zou daarom altijd kiezen voor een taalselectie dropdown oid.
Vlaggetjes argument ben ik het wel mee eens. Zal volgende week eens kijken of ik dat erdoor geduwd krijg en dan maak ik er een pull down van
hier stond iets, wat ik eigenlijk ergens anders had moeten vragen
[ Voor 84% gewijzigd door Alientrader op 20-08-2006 01:44 ]
Slotenmaker in Rotterdam | Slotenmaker in heel Nederland | Slotenmaker in Den Haag
Je zit ernaast. O9: preferences -> general tab. Firefox: Options -> Advanced -> general -> edit languages.We Are Borg schreef op vrijdag 21 juli 2006 @ 11:49:
[...]
Taaldetectie lijkt mij vrij lastigVolgens mij kan je wel in IE de standaard ingestelde taal achterhalen, maar in alle andere browsers vraag ik me het af. Kan er uiteraard naast zitten
Deze talen worden in de request headers meegestuurd.
En hoe zou jij dan redirecten? Wat is de beste manier om met alletwee de domeinnamen op google te komen staan en toch een nette redirect te hebben?André schreef op vrijdag 21 juli 2006 @ 11:15:
Dan zou ik gewoon voor 1 site gaan. Eventueel voor andere redenen kun je de .nl ook registreren en laten redirecten zolang er voor zoekmachines maar 1 site is.
Als je voor elk land 1 site maakt hebben ze allemaal hun eigen populariteit, als je 1 site voor alle landen maakt wordt de populariteit op 1 domein gevestigd en dat is wat je wil.
Ik heb bijv. een .be en een .com domeinnaam, en dat zou alletwee precies dezelfde site moeten zijn, ik zou ze ook alletwee in google willen hebben. Hoe zorg ik dan dat het .be domein zo wordt geredirect dat de juiste content (gewoon het .com domein) wordt weergegeven, maar dat je in google ook ziet dat je twee domeinen hebt.
klein detail: het .com domein wordt ook al geredirect naar een subdomein.
[ Voor 27% gewijzigd door endless op 21-07-2006 13:16 ]
Ik doe zelf op BCN-Nightlife.com het volgende:We Are Borg schreef op vrijdag 21 juli 2006 @ 11:16:
Hmm, dat is een goede opmerking. Moet zelf ook site maken met meerdere talen en dacht zelf ook aan een IP achtige constructie. Dan via een sessie de taal zetten en zo de juiste vertaling uit de DB te vissen. Probleem alleen is dat dit niet gaat werken voor Google denk ik
Volgens mij zijn fisieke url's (bijv achter een flagetje) met daar domein.com/nl, domein.com/fr, etc beter, want Google kan die linkjes tenminste volgen. Ik heb maar 1 domein dus vandaar. Of zijn er bezwaren/betere ideeen?
bcn-nightlife.com < - spaans PR5
BCN-Nightlife.com/es/ <- spaans PR4
BCN-Nightlife.com/en/ <- engels PR 4
Ik doe geen redirect, de gebruiker mag het zelf uitzoeken.
De eerste 2 links zijn volledig gelijk aan elkaar, maar google bant het niet. (bij mij iig). Ben er zelf wel tevreden over. PR 6 zou nog mooier zijn op de homepage, maar ik krijg het echt bijna niet hoger. Code is voor 80%+ netjes, er zijn meer als 2000 pagina's aan content, redelijk wat inkomende links (hoewel dat nog beter kan).
Verstand van Voip? Ik heb een leuke baan voor je!
Maar krijg je dan niet dat Google altijd de default taal voor zijn neus krijgt (ook de Google spiders voor specifieke landen) en je site dus alleen vindbaar is met keywords uit de default taal?André schreef op vrijdag 21 juli 2006 @ 11:15:
Dan zou ik gewoon voor 1 site gaan. Eventueel voor andere redenen kun je de .nl ook registreren en laten redirecten zolang er voor zoekmachines maar 1 site is.
Als je voor elk land 1 site maakt hebben ze allemaal hun eigen populariteit, als je 1 site voor alle landen maakt wordt de populariteit op 1 domein gevestigd en dat is wat je wil.
Certified smart block developer op de agile darkchain stack. PM voor info.
Als in beide gevallen het om 1 site gaat wil je dus niet beide domeinnamen in Google hebben maar bijvoorbeeld alleen het .com domein. Omdat je anders met 10 tld's de top 10 op een zoekwoord kunt bezitten met 1 website, en dat vind Google spam.endless schreef op vrijdag 21 juli 2006 @ 12:50:
[...]
En hoe zou jij dan redirecten? Wat is de beste manier om met alletwee de domeinnamen op google te komen staan en toch een nette redirect te hebben?
Ik heb bijv. een .be en een .com domeinnaam, en dat zou alletwee precies dezelfde site moeten zijn, ik zou ze ook alletwee in google willen hebben. Hoe zorg ik dan dat het .be domein zo wordt geredirect dat de juiste content (gewoon het .com domein) wordt weergegeven, maar dat je in google ook ziet dat je twee domeinen hebt.
klein detail: het .com domein wordt ook al geredirect naar een subdomein.
Waarom, als jij je taalselectieding spiderbaar maakt kan Google alle talen indexeren. Met de juiste tags kun je aangeven in de code in welke taal de pagina gemaakt is zodat de local searches die kunnen gebruiken.Not Pingu schreef op vrijdag 21 juli 2006 @ 13:36:
[...]
Maar krijg je dan niet dat Google altijd de default taal voor zijn neus krijgt (ook de Google spiders voor specifieke landen) en je site dus alleen vindbaar is met keywords uit de default taal?
ThanksAndré schreef op vrijdag 07 juli 2006 @ 22:54:
(Heel verhaal)
Aanstaande dinsdag live en dan maar eens kijken of de nieuwe layout meer geld gaat opleveren
Na het lezen van de reacties ga ik toch voor een ip2country oplossing. Het onderwerp voor de site is namelijk nogal typisch dus als er een nederlands iemand opkomt dan zal die het echt wel in het nederlands willen zien gezien de doelgroep.
Het word voor mij dus domein.com/nl/ en domein.com/en/
Via een vlaggetje kun je alsnog switchen zodat google ze bij een spider allebei meeneemt. Dat de URI nu langer word dat boeit me niet zozeer, het scheelt 3 karakter...phoe
Toch bedankt
Het word voor mij dus domein.com/nl/ en domein.com/en/
Via een vlaggetje kun je alsnog switchen zodat google ze bij een spider allebei meeneemt. Dat de URI nu langer word dat boeit me niet zozeer, het scheelt 3 karakter...phoe

Toch bedankt
Verwijderd
Weet iemand een script net als op gigadesign, dat als je zoekt op bepaalde woorden en op je site komt die woorden dik gedrukt worden ook ofzo.... snappen jullie me nog?
Dat is een Wordpress-plugin, bijv. Google highlight (stond op dev.wp-plugins.org, maar ze hebben het domein niet tijdig verlengd, gok ik, want het is nu ff een reclamesite).Verwijderd schreef op vrijdag 21 juli 2006 @ 18:22:
Weet iemand een script net als op gigadesign, dat als je zoekt op bepaalde woorden en op je site komt die woorden dik gedrukt worden ook ofzo.... snappen jullie me nog?
Cogito ergo dubito
Vast niet nee, maar dat hoef je niet in dit topic te bespreken omdat het offtopic en een scriptrequest isVerwijderd schreef op vrijdag 21 juli 2006 @ 20:02:
Maar goed zoiets moet toch niet geheel moeilijk zijn om zoiets te maken?
Verwijderd
Naja zoveel offtopic is het ook weer niet. Het lijkt me gewoon een zeer interessante functie, zodat je bezoekers weten waar die zoekwoorden precies vandaan kwamen en zo hun info sneller kunnen vinden.
Er is ergens een javascript versie ook van, die de woordjes dus realtime client-side in het vet zet..
- We Are Borg
- Registratie: April 2000
- Laatst online: 21:58
Moderator Wonen & Mobiliteit / General Chat
/u/5360/crop65d3c045ca48f_cropped.png?f=community)
Thanks voor de tip. Kwam iemand met een JS oplossing aanzetten, maar dat was IE only en vond ik niks. Maar heb nu even zelf gekeken en kan idd via de request headers er een taaltje uit vissenNexxennium schreef op vrijdag 21 juli 2006 @ 12:21:
[...]
Je zit ernaast. O9: preferences -> general tab. Firefox: Options -> Advanced -> general -> edit languages.
Deze talen worden in de request headers meegestuurd.
Verwijderd
[/quote]Als je zoekt op slotenmaker den haag komt er niets uit. Zoek je op slotenmaker haag, staat het zo goed als bovenaan zoek je op slotenmaker den ook. maar niet met den haag
[quote]
@Alientrader
Ik zou beginnen met het toevoegen van Den Haag op enkele plaatsen. Ook zou je de website aan kunnen melden bij Den Haag-gerelateerde pagina's (zoals startpagina's). Niet alleen om Haagse klanten te benaderen, maar ook om op het woord "Den Haag" beter gevonden te kunnen worden. Ook is het aan te raden om (in de toekomst) over te stappen naar zoekmachine vriendelijke url's. De "content/view/xx/xx" is niet de beste optie hiervoor. Ook zou ik wat selectiever zijn in de keuze van de zoektermen in de metatags.
Overigens zou ik zelf plaatsnamen als Den Haag zoeken met quotes er om heen.
[quote]
@Alientrader
Ik zou beginnen met het toevoegen van Den Haag op enkele plaatsen. Ook zou je de website aan kunnen melden bij Den Haag-gerelateerde pagina's (zoals startpagina's). Niet alleen om Haagse klanten te benaderen, maar ook om op het woord "Den Haag" beter gevonden te kunnen worden. Ook is het aan te raden om (in de toekomst) over te stappen naar zoekmachine vriendelijke url's. De "content/view/xx/xx" is niet de beste optie hiervoor. Ook zou ik wat selectiever zijn in de keuze van de zoektermen in de metatags.
Overigens zou ik zelf plaatsnamen als Den Haag zoeken met quotes er om heen.
Verwijderd schreef op maandag 24 juli 2006 @ 23:20:
hoeveel woorden moet een pagina nou minimaal hebben?
Precies zoveel woorden als nodig zijn om je onderwerp te bespreken? Daar is geen richtlijn voor, en daarbij denk jij dan aan zoekmachines en niet aan de bezoekers die het moeten lezen terwijl die het belangrijkste zijn.
[ Voor 6% gewijzigd door André op 25-07-2006 08:47 ]
Maakt het nou nog (bewezen) uit "waar in de HTML" je content staat?
Stel ik heb dit:
Manier A:
Manier B:
Het zijn 2 kolommen (navigation een fractie van wrapper, content de rest (zeg 25% en 75%)). Met wat CSS zijn die prima te positioneren onafhankelijk van waar ze voorkomen in de HTML. Maar als de content-div "hoger" in de HTML staat, weegt het dan ook zwaarder? Is het "beter"?
Waarom ik dit vraag: Op onze site hebben we een navigatie bar, die weliswaar kleiner is dan de content maar vaak wel rond de 40-50% van de HTML omvat (dit omdat er veel dropdowns in zitten die soms erg veel waardes bevatten en dus veel HTML slurpen).
Dit was tot op heden gewoon op manier A, maar ik heb het vandaag omgegooid naar manier B, in de hoop dat het gaat schelen. Iemand hier een mening over?
Stel ik heb dit:
Manier A:
HTML:
Of ik heb dit:1
2
3
4
| <div id="Wrapper"> <div id="Navigation">...</div> <div id="Content">...</div> </div> |
Manier B:
HTML:
1
2
3
4
| <div id="Wrapper"> <div id="Content">...</div> <div id="Navigation">...</div> </div> |
Het zijn 2 kolommen (navigation een fractie van wrapper, content de rest (zeg 25% en 75%)). Met wat CSS zijn die prima te positioneren onafhankelijk van waar ze voorkomen in de HTML. Maar als de content-div "hoger" in de HTML staat, weegt het dan ook zwaarder? Is het "beter"?
Waarom ik dit vraag: Op onze site hebben we een navigatie bar, die weliswaar kleiner is dan de content maar vaak wel rond de 40-50% van de HTML omvat (dit omdat er veel dropdowns in zitten die soms erg veel waardes bevatten en dus veel HTML slurpen).
Dit was tot op heden gewoon op manier A, maar ik heb het vandaag omgegooid naar manier B, in de hoop dat het gaat schelen. Iemand hier een mening over?
[ Voor 57% gewijzigd door RobIII op 25-07-2006 19:19 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Als het voor de zoekmachines niet duidelijk is wat navigatie is kan het zijn dat ze de echte content te ver naar onderen vinden staan. Maar over het algemeen is met nette code door zoekmachines prima te zien wat navigatie is en wat content. Bij pagina's met veel overbodige code kan het onduidelijk zijn en dan heb je een probleem.
En bij mobiele browsers is het wel makkelijk om de content bovenaan te hebben om zo niet iedere keer langs het menu te hoeven scrollen (al is daar ook wel weer wat voor te verzinnen).
En bij mobiele browsers is het wel makkelijk om de content bovenaan te hebben om zo niet iedere keer langs het menu te hoeven scrollen (al is daar ook wel weer wat voor te verzinnen).
Het is (IMHO) niet zo zeer "overbodige" code (het is zelfs relatief lightweight) en voor zo ver ik weet ook relatief nette code. Voor zover het mogelijk is binnen de functionele eisen heb ik toch wel zo'n beetje alles uit de HTML gehaald wat er uit te halen valt denk ik zo. Ik kan dan ook niet veel meer doen dan alleen maar hopen dat het helptAndré schreef op dinsdag 25 juli 2006 @ 19:57:
Als het voor de zoekmachines niet duidelijk is wat navigatie is kan het zijn dat ze de echte content te ver naar onderen vinden staan. Maar over het algemeen is met nette code door zoekmachines prima te zien wat navigatie is en wat content. Bij pagina's met veel overbodige code kan het onduidelijk zijn en dan heb je een probleem.
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Je kan mbv speciale comments de relevante content in je pagina 'markeren' voor AdSense
Intentionally left blank
Huh? Da's nieuw voor me... Are you pulling my leg here? You gotta be kidding. Dit geloof ik niet...crisp schreef op woensdag 26 juli 2006 @ 01:05:
Je kan mbv speciale comments de relevante content in je pagina 'markeren' voor AdSense
Ben je nou gewoon sarcastisch en een oude mythe aan 't aanwakkeren?
Alhoewel....
Maar dat slaat meer op AdSense, en daar doen we niks mee (op onze site, we hebben wel zat Adwords campagnes lopen)
[ Voor 51% gewijzigd door RobIII op 26-07-2006 01:28 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Oh, dit was niet het AdSense draadjeRobIII schreef op woensdag 26 juli 2006 @ 01:25:
[...]
Maar dat slaat meer op AdSense, en daar doen we niks mee (op onze site, we hebben wel zat Adwords campagnes lopen)

Intentionally left blank
Ik ben bezig met een SEO van een website die ik bouw voor een kennis van mij. Het betreft hier een website met userfriendly URL's in de volgende vorm:
www.domein.nl/tekst/titel
Op de website maak ik gebruik van een horizontaal dropdown menu met daarin naar onderwerp geschikt de titels. Dus iets in de trant van:
Het onderwerp heeft dus geen href, heeft dit een negatieve impact op de kwaliteit van mijn links vanuit SEO oogpunt?
Gisteren ben ik begonnen met Google Sitemap en heb ik een dynamische sitemap gemaakt met php volgens het open Google xml protocol (met dus ook de extensie php). Mijn sitemap is goedgekeurd desondanks heeft de Googlebot in de volgende spidersessie slechts 2 pagina's bezocht. Wat kan hiervan de oorzaak zijn? Andere spiders hebben geen problemen en bezoeken alle pagina's binnen de site.
Ik ben ook benieuwd of iemand hier de sitemap file heeft gebruikt om een sitemap van te maken voor bezoekers. Mag je xml tags toevoegen of valideert je sitemap dan niet meer?
www.domein.nl/tekst/titel
Op de website maak ik gebruik van een horizontaal dropdown menu met daarin naar onderwerp geschikt de titels. Dus iets in de trant van:
code:
1
2
3
4
5
6
7
8
9
10
| <ul id="menu_1"> <li> <a href="#">Onderwerp 1</a> <ul> <li><a href='http://www.domein.nl/tekst/titel1'>titel1</a></li> <li><a href='http://www.domein.nl/tekst/titel2'>titel2</a></li> <li><a href='http://www.domein.nl/tekst/titel3'>titel3</a></li> </ul> </li> </ul> |
Het onderwerp heeft dus geen href, heeft dit een negatieve impact op de kwaliteit van mijn links vanuit SEO oogpunt?
Gisteren ben ik begonnen met Google Sitemap en heb ik een dynamische sitemap gemaakt met php volgens het open Google xml protocol (met dus ook de extensie php). Mijn sitemap is goedgekeurd desondanks heeft de Googlebot in de volgende spidersessie slechts 2 pagina's bezocht. Wat kan hiervan de oorzaak zijn? Andere spiders hebben geen problemen en bezoeken alle pagina's binnen de site.
Ik ben ook benieuwd of iemand hier de sitemap file heeft gebruikt om een sitemap van te maken voor bezoekers. Mag je xml tags toevoegen of valideert je sitemap dan niet meer?
Waarom gebruik je dan een anchor en niet bijvoorbeeld een heading?ExCibular schreef op donderdag 27 juli 2006 @ 13:46:
Het onderwerp heeft dus geen href, heeft dit een negatieve impact op de kwaliteit van mijn links vanuit SEO oogpunt?
Intentionally left blank
omdat er een mouseover effect dmv hover aan het menu hangt. En naar ik heb begrepen negeert IE hovers die niet aan een anchor hangen.crisp schreef op donderdag 27 juli 2006 @ 13:55:
Waarom gebruik je dan een anchor en niet bijvoorbeeld een heading?
Mij is vandaag weer iets raars overkomen met google. Een van mijn sites stond al 1,5 jaar boven aan met een bepaalde zoekwoord combinatie in Google en sinds gisteren is de site niet meer te vinden in de top 40.
Er is de laatste tijd weinig aan de site veranderd, we maken ook geen gebruik van 'foute' technieken. Met andere zoekwoorden staan we nog wel bovenaan.
Iemand die weet waar het aan zou kunnen liggen?
Er is de laatste tijd weinig aan de site veranderd, we maken ook geen gebruik van 'foute' technieken. Met andere zoekwoorden staan we nog wel bovenaan.
Iemand die weet waar het aan zou kunnen liggen?
Dan gebruik je daar toch een stukje javascript voor? Zeker als het een effect betreft dat meer behavior is dan style dien je daar scripting voor te gebruikenExCibular schreef op donderdag 27 juli 2006 @ 14:39:
[...]
omdat er een mouseover effect dmv hover aan het menu hangt. En naar ik heb begrepen negeert IE hovers die niet aan een anchor hangen.
Intentionally left blank
2 collega's van mij die bloggen vrijwel dagelijks over de laatste trucjes die Google toepast e.d.. 1 van de 2, Ulco, heeft zichzelf proberen te deindexeren, etc. Als geen ander spelen ze met de bots van zoekmachines, maar 'on the legal side'. Ze moeten ook wel, hun divisie is een van de 3 à 4 toonaangevendste searchoptimisers in Nederland.
De andere van de 2 is degene die de deindexering van Tweakers.net ontdekte.
Volgend mij begint het een beetje ene propaganda verhaaltje te worden. Niet de bedoeling
. Dit zijn de blogs:
http://www.ulco.nl
http://www.usarchy.com
De andere van de 2 is degene die de deindexering van Tweakers.net ontdekte.
Volgend mij begint het een beetje ene propaganda verhaaltje te worden. Niet de bedoeling
http://www.ulco.nl
http://www.usarchy.com
Deze post is bestemd voor hen die een tegenwoordige tijd kunnen onderscheiden van een toekomstige halfvoorwaardelijke bepaalde subinverte plagiale aanvoegend intentioneel verleden tijd.
- Giphart
Ik heb nauwelijks verstand van javascript op het allersimpelste na. Daarnaast is het tot op zekere hoogte is het ook nog gewoon style omdat niet alle onderwerpen sub-onderwerpen/titels hebben en je daar dus op het onderwerp klikt.crisp schreef op donderdag 27 juli 2006 @ 15:20:
[...]
Dan gebruik je daar toch een stukje javascript voor? Zeker als het een effect betreft dat meer behavior is dan style dien je daar scripting voor te gebruiken
Wat voor mij de mooiste oplosssing zou zijn is om een korte beschrijving van de verschillende pagina's die bij een onderwerp horen op een pagina te zetten die over het onderwerp gaat. Ik ben echter alleen benieuwd of dit vanuit een SEO oogpunt uitmaakt voor de waardering.
Nee hoor, het is gewoon een lege link dus syntactisch niet helemaal oke zoals crisp ook al aangeeft.ExCibular schreef op donderdag 27 juli 2006 @ 13:46:
Het onderwerp heeft dus geen href, heeft dit een negatieve impact op de kwaliteit van mijn links vanuit SEO oogpunt?
Google doorzoekt sites vaak in stappen. Eerst de homepage, dan een level verder, enz. Een Google Sitemap heeft hier helemaal geen invloed op, het is nog Beta.Gisteren ben ik begonnen met Google Sitemap en heb ik een dynamische sitemap gemaakt met php volgens het open Google xml protocol (met dus ook de extensie php). Mijn sitemap is goedgekeurd desondanks heeft de Googlebot in de volgende spidersessie slechts 2 pagina's bezocht. Wat kan hiervan de oorzaak zijn? Andere spiders hebben geen problemen en bezoeken alle pagina's binnen de site.
Het heeft geen zin zaken toe te voegen want die worden niet gebruik en horen niet bij het standaard formaat.Ik ben ook benieuwd of iemand hier de sitemap file heeft gebruikt om een sitemap van te maken voor bezoekers. Mag je xml tags toevoegen of valideert je sitemap dan niet meer?
Dan vind Google die pagina niet meer relevant. En het kan zijn dat je nog zo'n pagina hebt die er veel op lijkt (qua content), dan bekijkt Google welke van die 2 in de index komt en welke niet.Cold-Dog schreef op donderdag 27 juli 2006 @ 15:13:
Mij is vandaag weer iets raars overkomen met google. Een van mijn sites stond al 1,5 jaar boven aan met een bepaalde zoekwoord combinatie in Google en sinds gisteren is de site niet meer te vinden in de top 40.
Er is de laatste tijd weinig aan de site veranderd, we maken ook geen gebruik van 'foute' technieken. Met andere zoekwoorden staan we nog wel bovenaan.
Iemand die weet waar het aan zou kunnen liggen?
En Ulco en Usarchy zijn idd wel aardige blogs, redelijk scherp op bepaalde gebieden maar wel oke.
[ Voor 5% gewijzigd door André op 27-07-2006 17:21 ]
Ik wilde ook geen zaken toevoegen voor Google, maar voor mijn bezoekers. Ik zou nog de tag position oid willen meegeven die mij vervolgens helpt het document te stijlen.André schreef op donderdag 27 juli 2006 @ 17:20:
Het heeft geen zin zaken toe te voegen want die worden niet gebruik en horen niet bij het standaard formaat.
edit:
BtM909: Quote ff gefixed
BtM909: Quote ff gefixed
[ Voor 6% gewijzigd door BtM909 op 27-07-2006 23:24 ]
Heeft iemand enig idee wanneer de bots van google en andere SE's hun DNS updaten?
Ik ben van server gewisseld gisteren en de bots zitten mijn oude server nog te crawlen. Die heb ik maar even aan gehouden (duurt nog een dikke week voordat abo afloopt) alleen voor de bots. De domeinnaam zijn hetzelfde en de oude server maakt tochg ebruik van dezelfde DB, dus content is wel up2date.
Ik ben van server gewisseld gisteren en de bots zitten mijn oude server nog te crawlen. Die heb ik maar even aan gehouden (duurt nog een dikke week voordat abo afloopt) alleen voor de bots. De domeinnaam zijn hetzelfde en de oude server maakt tochg ebruik van dezelfde DB, dus content is wel up2date.
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
Voor zover ik weet maken de bots gewoon gebruik van het 'normale' internet DNS systeem. Alleen kan het zijn dat niet alle DNS servers zijn gesynced met de root DNS'sen. Volgens mij zou dat binnen 48 gebeurd moeten zijn.
/edit:
Ik heb wat rondgekeken, maar er zijn gevallen bekend van een maand
/edit:
Ik heb wat rondgekeken, maar er zijn gevallen bekend van een maand

[ Voor 16% gewijzigd door André op 28-07-2006 17:02 ]
Het is handig om ruim voor een verhuizing de TTL van je DNS records flink te verlagen. Op deze manier duurt het minder lang voordat je DNS wijzigingen zijn doorgevoerd op het moment dat je daadwerkelijk van IP verandert.
Ben vandaag middels een relatief grote update overgestapt op "friendly urls". Dat valt niet mee op IIS en classic ASP (3.0).
Heb er uiteindelijk met wat "tussenliggende" code een "handler" voor geschreven. Nog lang niet alle urls komen nu "friendly" uit de ASP code, maar de ondersteuning ervoor is er nu in ieder geval. Nu is het dus een kwestie van de "oude" code porten naar nieuwe en meteen de URL's omschrijven zodat ze al meteen in de HTML "friendly" worden uitgepoept en wat rommel uit het achterliggende CMS omschrijven naar nettere URLs.
Hopen dat Google dat leuk(er) vindt, want we staan er nog steeds ruk in (~600 URLs, voorheen 70k+). Heb verder zo'n beetje alles aan de pagina's ge-SEO-optimized waar mogelijk. Als dit niet helpt weet ik het ook niet meer.
De kick voor mij momenteel is echter dat de oude en nieuwe URL's lekker langs elkaar kunnen blijven bestaan. Dat maakt een migratie een stuk makkelijker.
Overigens was het (helaas) niet makkelijk te doen met een gewone "mod_rewrite" of iets dergelijks daar ik geen ID's wilde gebruiken en er dus m.b.v. de URLs eerst een boel in de DB bij elkaar gezocht moet worden voordat IIS weet wat je nou eigenlijk wilt hebben.
Heb er uiteindelijk met wat "tussenliggende" code een "handler" voor geschreven. Nog lang niet alle urls komen nu "friendly" uit de ASP code, maar de ondersteuning ervoor is er nu in ieder geval. Nu is het dus een kwestie van de "oude" code porten naar nieuwe en meteen de URL's omschrijven zodat ze al meteen in de HTML "friendly" worden uitgepoept en wat rommel uit het achterliggende CMS omschrijven naar nettere URLs.
Hopen dat Google dat leuk(er) vindt, want we staan er nog steeds ruk in (~600 URLs, voorheen 70k+). Heb verder zo'n beetje alles aan de pagina's ge-SEO-optimized waar mogelijk. Als dit niet helpt weet ik het ook niet meer.
De kick voor mij momenteel is echter dat de oude en nieuwe URL's lekker langs elkaar kunnen blijven bestaan. Dat maakt een migratie een stuk makkelijker.
Overigens was het (helaas) niet makkelijk te doen met een gewone "mod_rewrite" of iets dergelijks daar ik geen ID's wilde gebruiken en er dus m.b.v. de URLs eerst een boel in de DB bij elkaar gezocht moet worden voordat IIS weet wat je nou eigenlijk wilt hebben.
[ Voor 35% gewijzigd door RobIII op 02-08-2006 01:51 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Je had natuurlijk ook de IDs in je URIs kunnen verwerken. Dan kun je gewoon met een mod_rewrite-achtig iets werken.
Ja, maar dan heb ik in sommige gevallen 6+ ID's in mijn URI staan. Overigens zijn alle mod_rewrite oplossingen die ik gevonden heb voor IIS (op z'n zachts gezegd) instabiel, slecht opgezet, te complex om werkbaar te zijn enz. En los daarvan zouden onze "oude" urls niet meer "compatible" zijn en dat willen we dus wél.Nexxennium schreef op woensdag 02 augustus 2006 @ 02:04:
Je had natuurlijk ook de IDs in je URIs kunnen verwerken. Dan kun je gewoon met een mod_rewrite-achtig iets werken.
Het was effe pielen, maar ik vind mijn eigen oplossing eleganter, practischer en onderhoudbaarder. Al met al heeft het me een regel of 100 aan code gekost. Thats it.
[ Voor 21% gewijzigd door RobIII op 02-08-2006 03:19 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Verwijderd
Ik ben op het moment druk bezig om een koppeling te leggen tussen SourceForge en mijn OpenSource project (PHPMyServer). Zo staat er aardig wat informatie op mijn website (phpmyserver.com), over wat het product is, wat het product doet, enzovoort. Echter de downloads, bugtracking, forum, enzovoort. lopen via de SF.net website.
De huidige setup heeft geen SF.net in gebruik, en ik sta binnen Google op de 2e plaats (tweakers op 1, maar linkt weer naar het project). Dus ik ben benieuwd wat dit voor effect zal gaan hebben.
Wat denken de mensen hier over mijn nieuwe setup, en wat dit SEO-technisch gaat opleveren?
De huidige setup heeft geen SF.net in gebruik, en ik sta binnen Google op de 2e plaats (tweakers op 1, maar linkt weer naar het project). Dus ik ben benieuwd wat dit voor effect zal gaan hebben.
Wat denken de mensen hier over mijn nieuwe setup, en wat dit SEO-technisch gaat opleveren?
offtopic:
http://www.phpmyserver.co...s/xmlserver_v2.0_full.jpg
Gebruik daar eens een gif-je of png-tje voor. Die JPG compressie maakt het echt niet mooier en een gif/png zal waarschijnlijk scherper én kleiner (bestandsgrootte) worden.
En tevens (opbouwend bedoeld hoor
) het volgende:
I really need some people who can to help me, I’ve got I have to too much work at this the moment! You can help me with creating create the new website in DHTML/Javascript (design is already done ready/done), creating create some Windows / Linux applications (RSS reader in system tray, with a balloon when there's a an update), and much more. I also need some people who can help me with documentating document all the functions. Ex: How you can to create new modules for the XML Server.
En dat is nog maar het topje van de ijsberg
NOFI hoor, ik wil enkel aangeven dat je je eigen tekst misschien nog eens even moet (laten) nalezen. Staat zo knullig...
http://www.phpmyserver.co...s/xmlserver_v2.0_full.jpg
Gebruik daar eens een gif-je of png-tje voor. Die JPG compressie maakt het echt niet mooier en een gif/png zal waarschijnlijk scherper én kleiner (bestandsgrootte) worden.
En tevens (opbouwend bedoeld hoor
I really need some people who can to help me, I’ve got I have to too much work at this the moment! You can help me with creating create the new website in DHTML/Javascript (design is already done ready/done), creating create some Windows / Linux applications (RSS reader in system tray, with a balloon when there's a an update), and much more. I also need some people who can help me with documentating document all the functions. Ex: How you can to create new modules for the XML Server.
En dat is nog maar het topje van de ijsberg
NOFI hoor, ik wil enkel aangeven dat je je eigen tekst misschien nog eens even moet (laten) nalezen. Staat zo knullig...
[ Voor 60% gewijzigd door RobIII op 03-08-2006 01:48 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij
Verwijderd
offtopic:
@ RobIII: Nieuwe website is in de maak, daar zitten geen taalfouten in (hoop ik). Hoor ik daar een vrijwilliger? Ja! Het is RobIII
.
Talen zijn mijn sterkste kant niet, dat komt weer terug op andere vlakken.
@ RobIII: Nieuwe website is in de maak, daar zitten geen taalfouten in (hoop ik). Hoor ik daar een vrijwilliger? Ja! Het is RobIII
Talen zijn mijn sterkste kant niet, dat komt weer terug op andere vlakken.
@RobIII: Was ISAPI_REWRITE niks voor jou? Ik lees dat je veel instabiele of te complexe oplossing vind. Ik zelf vind deze oplossing toch erg goed en je oude URL's zouden gewoon beschikbaar kunnen blijven.
ISAPI_REWRITE kan mijn /nl/Laptop/Dell/Latitude/C600.html url niet vertalen naarCrashOne schreef op donderdag 03 augustus 2006 @ 11:09:
@RobIII: Was ISAPI_REWRITE niks voor jou? Ik lees dat je veel instabiele of te complexe oplossing vind. Ik zelf vind deze oplossing toch erg goed en je oude URL's zouden gewoon beschikbaar kunnen blijven.
/?ln=nl&sag=2&sbrand=611&smodel=34537&stype=21563 tenzij ik een waslijst van ruim 78.000+ koppelingen ga aanleggen. Nu gebruik ik mooi een DB lookup in mijn custom-made mod_rewrite
(En dat is nog maar een simpel voorbeeld, er zijn nog een stuk complexere (en diepere) URL's die heel wat meer nodig hebben dan wat zoek/vervang werk door regexjes).
Soms moet je gewoon het wiel opnieuw uitvinden (of het wiel verbeteren) en kun je gewoon geen gebruik maken van standaard componenten. Da's juist het mooie aan ons vak
[ Voor 31% gewijzigd door RobIII op 03-08-2006 11:30 ]
There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.
Je eigen tweaker.me redirect
Over mij