Sole survivor of the Chicxulub asteroid impact.
Google maakt gebruik van een crawl caching proxy dus zoveel bezoekjes voor 174 url's zou nooit mogen. Het lijkt er op dat het Google zelf niet is of dat er een spiderloop in je site zit. Met stip op 1 als veroorzaker hiervan zijn kalenders die eeuwig terug kunnen.AtleX schreef op woensdag 01 november 2006 @ 10:25:
maar helaas doet Google elke dag ook eventjes ±15.000 hits op de 174 gesubmitte URL's.Ik neem aan dat ik inmiddels wel geïndexeerd ben na ongeveer 135000 bezoekjes van de Googlebot en nog een paar duizend afkomstig van hetzelfde IP als de Googlebot maar dan met dezelfde UA string als IE6. Weet iemand of dit normaal is en het dus vanzelf stopt?
/edit:
Nog een opmerking: je gebruikt <base href="http://atlex.nl" /> en vervolgens dit als links: <a href="index/home/">, het adres wordt dus http://atlex.nlindex/home/
Verder gebruik je in stylesheet urls wel www? Ik zou 1 vorm gebruiken.
[ Voor 13% gewijzigd door André op 01-11-2006 10:49 ]
Ik heb geen kalenders oid op mijn site.André schreef op woensdag 01 november 2006 @ 10:46:
[...]
Google maakt gebruik van een crawl caching proxy dus zoveel bezoekjes voor 174 url's zou nooit mogen. Het lijkt er op dat het Google zelf niet is of dat er een spiderloop in je site zit. Met stip op 1 als veroorzaker hiervan zijn kalenders die eeuwig terug kunnen.
Gefixed./edit:
Nog een opmerking: je gebruikt <base href="http://atlex.nl" /> en vervolgens dit als links: <a href="index/home/">, het adres wordt dus http://atlex.nlindex/home/
Verder gebruik je in stylesheet urls wel www? Ik zou 1 vorm gebruiken.
Sole survivor of the Chicxulub asteroid impact.
Verwijderd
Zal binnenkort eens kijken of we ze direct naar de hoofdpagina kunnen verwijzen. Probleem is waarschijnlijk alleen dat er nu al een stuk of 40 bedrijven zijn die op deze manier linken.
De pagerank van de homepage is opeens van 3 naar 5 gestegen. De veranderingen zijn geweest: sitemap toegevoegd, meer tekst ipv plaatjes en links op diverse startpagina's en startkabels.
SEO analyse wordt binnenkort uitgevoerd door een ander bedrijf en adwords optimalisatie ook, mochten hier boeiende dingen uitkomen dan laat ik het hier weten uiteraard.
Hoelang duurt het voordat google een site in zijn index update?
Verwijderd
1,5 week ongeveer?Silvan schreef op donderdag 02 november 2006 @ 15:14:
Klein vraagje van mijn kant...
Hoelang duurt het voordat google een site in zijn index update?
Oude situatie: Calender met links in de vorm van url/calender/2006/11/01 t/m url/calender/2028/12/31
Deze links bestaan nu niet meer en ik redirect ze allemaal 301 naar de home directory. Krijg ik daar een dikke ban voor ?
Verstand van Voip? Ik heb een leuke baan voor je!
hmmm ... kennelijk werkt dat caching proxy nog niet helemaal optimaal...André schreef op woensdag 01 november 2006 @ 10:46:
[...]
Google maakt gebruik van een crawl caching proxy dus zoveel bezoekjes voor 174 url's zou nooit mogen. Het lijkt er op dat het Google zelf niet is of dat er een spiderloop in je site zit. Met stip op 1 als veroorzaker hiervan zijn kalenders die eeuwig terug kunnen.
1 maand tijdGooglebot 501212 12.29 GB 31 Oct 2006 - 23:59
Google AdSense 84977 1.93 GB 31 Oct 2006 - 23:59
Programmer - an organism that turns coffee into software.
Waarom redirect je ze niet naar de nieuwe pagina's?megamuch schreef op donderdag 02 november 2006 @ 17:09:
Mag het volgende eigenlijk:
Oude situatie: Calender met links in de vorm van url/calender/2006/11/01 t/m url/calender/2028/12/31
Deze links bestaan nu niet meer en ik redirect ze allemaal 301 naar de home directory. Krijg ik daar een dikke ban voor ?
Er zijn geen nieuwe pagina's. De hele calendar is in andere onderdelen opgegaan. Een 404 serveren is ook een optie, maar vond ik zelf minder mooi.djluc schreef op donderdag 02 november 2006 @ 18:26:
[...]
Waarom redirect je ze niet naar de nieuwe pagina's?
Verstand van Voip? Ik heb een leuke baan voor je!
Heb hier een site gehad van redelijke omvang waarvan na ruim 3 maanden alle pagina's in de cache waren vervangen door de nieuwe. Alle oude URL's werden geredirect naar de nieuwe.Silvan schreef op donderdag 02 november 2006 @ 15:14:
Klein vraagje van mijn kant...
Hoelang duurt het voordat google een site in zijn index update?
1,5 week is in ieder geval veel te positief. Geef het in ieder geval 3 weken.
@megamuch
Een 301 (en de overige in de 3XX reeks) zijn bedoeld voor pagina's die er niet meer zijn, maar waarvoor wel een alternatief is. In jouw situatie zou je een 404 moeten gebruiken,
Een ban zul je er niet voor krijgen lijkt me.
2-3weken was dit bij mij, maar kan natuurlijk ook toeval zijn dat het zo snel was.Silvan schreef op donderdag 02 november 2006 @ 15:14:
Klein vraagje van mijn kant...
Hoelang duurt het voordat google een site in zijn index update?
Later schreef frickY:
Nou zag ik in mijn stats onlangs een bezoeker die zocht op twee trefwoorden. Een ervan stond in de content van de pagina waar hij op uitkwam, en het andere trefwoord stond in het menu. (elke pagina bevat de volledige menustructuur van site, mbv uitklapmenuutjes) De pagina in questie had geen enkele relatie tot het onderwerp waar de googler op zocht. Sterker, geen enkele pagina van m'n site had iets te maken met het onderwerp waar de googler op zocht. Voor hem was het dus verspilde tijd.frickY schreef op zondag 29 oktober 2006 @ 20:44:
Zou dan een ideale manier zijn om trefwoorden te spammen. Vergeet maar dat dat zal komen
Kun je je tekst niet in een afbeelding zetten?
Dus het aangeven van "offtopic content" of zelfs weglaten ervan voor indexers lijkt me geen gek idee. Menu's, reacties/comments, sidebars e.d. komen daarvoor in aanmerking. Ik zie niet in hoe je hiermee kunt spammen eigenlijk, althans niet op een manier die nu niet al mogelijk is.
Het effect zal misschien zijn dat je minder hits vanuit google krijgt. Maar zeg zelf: het is toch ook schijtirritant als websites je met gewiekste SEO naar hun site toe lokken terwijl de site eigenlijk niets met je zoekopdracht te maken heeft? Liever minder, maar hoogwaardige zoekresultaten dan veel bezoekers die toch binnen 1 klik weer verdwenen zijn; volgens mijn stats is dat namelijk wat die mensen doen: "oh niet interessant" en *klik* weg.
Het m.b.v. "inverse cloaking" weglaten van het menu zou je kunnen compenseren door een link naar de sitemap op te nemen. Voor google is met Sitemaps ook dat eigenlijk al niet nodig.
Voordat ik ermee wil gaan experimenteren, kan iemand een educated guess geven of het resultaat idd is wat ik verwacht dat het is? Of praat ik poep?

Nee, Google kan prima zien wat menu is en wat content. Het zelf wegfilteren van bepaalde zaken heeft dan ook helemaal geen zin. Datzelfde geldt voor de noscript: Google ziet die tag prima en zal hem ook indexeren aangezien Google geen script ondersteund. Je laat op dat moment Google hetzelfde zien als de bezoekers en daar gaat het om.
[edit2]
Even de link opgesnord: De exacte query van de googler in kwesti. Deze persoon kwam uit op de pagina over Multi Columns in HTML (zie sig
[ Voor 132% gewijzigd door Fuzzillogic op 07-11-2006 20:57 . Reden: Ik was aan het reageren op een bericht uit 2005 van Wacky, dat toevalligwijs over hetzelfde onderwerp ging... 8)7 ]
Verder zijn er ongetwijfeld nog betere voorbeelden te vinden alleen zijn er meer factoren die er meespelen.
Waarschijnlijk wel. Maar toch.. Ander issue is, is dat m'n menu nu tweetalig is. Ook al zet ik netjes geef ik netjes met xml:lang="en" aan dat de betreffende pagina eigenlijk gewoon Engels is, vraag ik me af of zoekmachines niet op hun eigen oordeel afgaan, en waar dat oordeel op gebaseerd is...frickY schreef op woensdag 08 november 2006 @ 10:49:
Als er meer sites waren geweest waar de trefwoorden wel naast, of in ieder geval dichter bij, elkaar hadden gestaan, hadden die ook boven je gestraan. Het is nou eenmaal niet zo een hard geconcureerde trefwoord combinatie.
XHTML 2 kent het <nl /> element. Dat is een list-element, speciaal voor de navigatie. HTML5 kent, vziw, nog meer mogelijkheden om type content aan te geven (menu, commentaar van bezoekers, footers e.d.). Dat soort oplossingen lijken mij ideaal; zoekmachines zouden bijvoorbeeld aan non-content-blokken dan minder gewicht kunnen toekennen.
That said, voor sites met een nette scheiding tussen opmaak en stijl is het peanuts om op XHTML 2 over te gaan. (Of HTML5, als je XML te gecompliceerd vindt

In mijn ervaring hechten SE's uberhaupt weinig waarde aan de opmaak taal. Als je de verkeerde content-type meegeeft worden bijvoorbeeld ook XML's geindexeert alsof het content pagina's zijn. Bepaalde tags, zoals h1 en strong, geven een extra waarde aan de geneste content. Of dat ook al geld voor dergelijke nieuwe tags is me onbekend.
Het lijkt me idat dit in ieder geval wel geimplementeerd gaat worden, dergelijke tags maken het voor een spider weer wat makkelijker de context van een stuk tekst de bepalen.
[ Voor 19% gewijzigd door frickY op 08-11-2006 12:56 ]
Ik vermoed dat het om zo'n regel gaat:frickY schreef op woensdag 08 november 2006 @ 12:54:
Als ik me niet vergis geef je de taal middels de Content-Language HTTP-header aan, en niet met een XML attribuut. Kan het wel met een attribuut dan lijkt me dat eerder het lang-attribuut van de HTML-tag.
1
| <html xmlns="http://www.w3.org/1999/xhtml" xml:lang="nl_NL"> |
Die gebruik ik zelf ook, en gewoon xhtml valid. Mijn site is opgebouwd uit Samrty templates, misschien eens kijken of ik een plugin ervoor te maken valt die als eerste een Content-Language header stuur voordat de pagina idd verstuurd wordt.
Eigenlijk geen idee, ik draai (nog) niet multilingual. En ben nog best een newbie op gebied van websites. Maar een smart-plugin is natuurlijk een eitje om te maken, maar dan de vraag of het ook daadwerkelijk effect gaat zijn. (Ik draai dus een CMS, en heb niets zelf gemaakt behalve de gebruikte templates die voor 80% af zijn)
Dat truukje wat je een tijdje terug had gepost heeft Google nog niet in de gaten. Heb inmiddels m'n feeds maar in de robots.txt op disallow gezet. Gewoon irritant dan bezoekers op feeds uitkomen ipv op m'n site zelf.In mijn ervaring hechten SE's uberhaupt weinig waarde aan de opmaak taal. Als je de verkeerde content-type meegeeft worden bijvoorbeeld ook XML's geindexeert alsof het content pagina's zijn.
xhtml kent dacht ik 6 H tags. Ik heb op elke pagina de site naam in een h1 staan, en de artikelen/blogs titels met links in h2's. Navigatie staat netjes in ul's met li's. kleine moete om daar ook h-tag's omheen te mikken. Heeft dit nog enige meerwaarde zover je weet?Bepaalde tags, zoals h1 en strong, geven een extra waarde aan de geneste content. Of dat ook al geld voor dergelijke nieuwe tags is me onbekend.
Het lijkt me idat dit in ieder geval wel geimplementeerd gaat worden, dergelijke tags maken het voor een spider weer wat makkelijker de context van een stuk tekst de bepalen.
Ey!! Macarena \o/
Hoe meer Hs heo lager hun gezamelijke waarde, als je het mij vraagt.
Verwijderd
Het forum draait nou op phpmyserver.com/forum en ik wil redirecten naar de hoofdpagina van mijn SourceForge project. Ook zullen andere URL's en pagina's aangepast worden naar SourceForge.
Kan ik nou het beste een "Redirect 303 /forum/.* http://sourceforge.net/projects/phpmyserver/" geven, of een 301? Ik verwacht zelf een 303, gezien de hele resource "Forum" niet meer bestaat en is opgesplitst naar Forum/Bugtracker/etc. Voor de andere pagina's die niet meer zullen bestaan op de nieuwe website wil ik ook een 303 maken, als deze pagina's naar SourceForge verplaatst zijn.
Is dit SEO technisch "netjes" opgelost?
Wij leveren een iframe code met daarin het gastenboek met oa. ook google adsense erop. Ik weet dat veel andere van zulke diensten dit doen, maar mag het ook?
Verwijderd
waarom zou dat niet mogen?Cartman! schreef op donderdag 16 november 2006 @ 10:50:
Weet iemand of het toegestaan is om adsense te plaatsen in een gratis gastenboek dat je aanbied?
Wij leveren een iframe code met daarin het gastenboek met oa. ook google adsense erop. Ik weet dat veel andere van zulke diensten dit doen, maar mag het ook?
301 is the way to go voor zoekmachinesVerwijderd schreef op woensdag 15 november 2006 @ 19:46:
Oké, even een case: Ik wil mijn support forum (phpBB) vervangen door SourceForge.
Het forum draait nou op phpmyserver.com/forum en ik wil redirecten naar de hoofdpagina van mijn SourceForge project. Ook zullen andere URL's en pagina's aangepast worden naar SourceForge.
Kan ik nou het beste een "Redirect 303 /forum/.* http://sourceforge.net/projects/phpmyserver/" geven, of een 301? Ik verwacht zelf een 303, gezien de hele resource "Forum" niet meer bestaat en is opgesplitst naar Forum/Bugtracker/etc. Voor de andere pagina's die niet meer zullen bestaan op de nieuwe website wil ik ook een 303 maken, als deze pagina's naar SourceForge verplaatst zijn.
Is dit SEO technisch "netjes" opgelost?
Jouw account wordt er dan wel op aangesproken als het terecht komt op malifide sites. Dat lijkt me wel gevaarlijk.Cartman! schreef op donderdag 16 november 2006 @ 10:50:
Weet iemand of het toegestaan is om adsense te plaatsen in een gratis gastenboek dat je aanbied?
Wij leveren een iframe code met daarin het gastenboek met oa. ook google adsense erop. Ik weet dat veel andere van zulke diensten dit doen, maar mag het ook?
Verwijderd
Ik heb op dit moment nog een statische pagina waarin resultaten vermeld staan. Omdat er steeds meer resultaten komen heb ik dit dynamisch gemaakt. Dit heb ik gedaan door middel van een form met een dropdownbox waarin de bezoeker kan selecteren op welke citeria hij of zij wil sorteren. Vervolgens wordt de sql query aangepast en andere resultaten uit de database gehaald.
Het probleem is dat straks standaard de tien meest recente resultaten weergegeven worden. Echter zijn alle resultaten belangrijk om op te kunnen zoeken met een zoekmachine. Ik neem aan dat Google straks alleen maar de 10 meeste recente resultaten indexeert? Of is er ook een mogelijkheid dat Google alle resultaten kan terug vinden op mijn site. Wat is daar de oplossing voor?
Ik kan alleen maar zaken terugvinden over dynamische url's. Of ik zoek verkeerd dat kan ook.
De vraag is wel of je die volledige functionaliteit wilt. De sorteervolgorde boeit voor google weinig. Je zou een normale selectbox kunnen gebruiken, plus ergens onderaan de pagina een normaal linkje maken met een GET-parameter die ervoor zorgt dat alle resultaten getoond worden. Of je het linkje ook zichtbaar wilt houden voor de bezoekers, of een beetje weggemoffeld, that's up to you.
Soort van <a href="overzicht?showall=true">Toon alle resultaten</a> oid.
Verwijderd
Hoe doen ze dit toch?
Iemand een suggestie?
knip spam
[ Voor 14% gewijzigd door LuNaTiC op 20-11-2006 20:19 ]
Ik heb een site die inmiddels 2 maanden is op genomen in de index van google. Alleen heeft deze nog steeds een pagerank van 0, terwijl de site redelijk goed gevonden wordt.
In google sitemaps kan ik zien dat de site al een PR van (minimaal) 3 zou moeten hebben.
Iemand enig idee waardoor dit zou kunnen komen?
Verwijderd
Ik heb je advies opgevolgd en een voor de gebruiker onzichtbare link gemaakt naar alle resultaten, tnx.Fuzzillogic schreef op donderdag 16 november 2006 @ 23:29:
Zal ik Andrés gras even voor zijn voeten wegmaaien?Een select element spiderbaar maken.
De vraag is wel of je die volledige functionaliteit wilt. De sorteervolgorde boeit voor google weinig. Je zou een normale selectbox kunnen gebruiken, plus ergens onderaan de pagina een normaal linkje maken met een GET-parameter die ervoor zorgt dat alle resultaten getoond worden. Of je het linkje ook zichtbaar wilt houden voor de bezoekers, of een beetje weggemoffeld, that's up to you.
Soort van <a href="overzicht?showall=true">Toon alle resultaten</a> oid.
Hopelijk pakt google deze link wel gewoon mee.
Ik heb alleen nu nog een andere probleem en dat heeft te maken met de webmaster tool van Google. Hierin geeft Google aan dat hij voor het laatst de homepage op 31 oktober bezocht heeft. Ik vind dit wel heel lang duren voordat dit aangepast wordt. Bovendien heb ik ondertussen een aantal zaken veranderd zoals een betere titel zodat ik hopelijk helemaal bovenaan kom te staan. Crawl rate staat op high en ik heb een sitemap geupload en content is de laatste tijd bijna allemaal veranderd.
Waarom duurt dit zo lang?
Controleer je log files eens.
'een beetje wegmoffelen' is iets anders dan 'onzichtbaar voor de gebruiker'Verwijderd schreef op dinsdag 21 november 2006 @ 16:24:
[...]
Ik heb je advies opgevolgd en een voor de gebruiker onzichtbare link gemaakt naar alle resultaten, tnx.
Hopelijk pakt google deze link wel gewoon mee.
Met een beetje pech kun je hier een penalty voor krijgen; verborgen links mogen nl. niet.
Verwijderd
Ik was me bewust van dit probleem maar ik wil niet ergens een link op de pagina hebben alleen maar voor Google. Ik heb gekeken naar uitspraken van Matt Cutts en heb even een andere pagina gevonden met dezelfde uitspraken. http://www.456bereastreet...d_using_css_to_hide_text/Millennyum schreef op dinsdag 21 november 2006 @ 17:07:
[...]
'een beetje wegmoffelen' is iets anders dan 'onzichtbaar voor de gebruiker'
Met een beetje pech kun je hier een penalty voor krijgen; verborgen links mogen nl. niet.
Ik probeer niet te spammen, ik probeer alleen te zorgen dat Google alle content mee kan nemen door een extra link te plaatsen die Google normaal niet kan vinden. Het verbergen van elementen is gewoon mogelijk met CSS dus moet je het ook kunnen gebruiken.
Ik maak gebruik van Google Analytics en Webalizer maar daar kan ik niets uithalen m.b.t. Google. Of zijn er ander manieren om log files te bekijken of ben ik daarmee afhankelijk van de hosting provider? Het is een IIS server.
Is er iets te zeggen over hoeveel visits of pageviews je gemiddeld per dag moet hebben wil Google regelmatig (2 weken) alles updaten? Dan weet tenminste ik of ik iets verkeerd doe.
Google weet niet hoeveel bezoekers jij krijgt en daar wordt de spiderfrequentie dan ook niet op gebaseerd. Het is o.a. afhankelijk van je PageRank en de regelmaat waarmee je je pagina's ververst. Nieuwssites en fora worden bijvoorbeeld vaker gespiderd dan een pagina die een keer per maand wat wordt aangepast.Verwijderd schreef op dinsdag 21 november 2006 @ 19:20:
[...]
Is er iets te zeggen over hoeveel visits of pageviews je gemiddeld per dag moet hebben wil Google regelmatig (2 weken) alles updaten? Dan weet tenminste ik of ik iets verkeerd doe.
Ik heb voor een bedrijf 2 verschillende domeinnamen cloacked draaien.
Sinds kort is het zo dat ik (in de top-10) van google met beide domeinamen voorkom in de zoekresultaten. De titel en content description laat google dus dubbel zien.
Is het een fout van google dat ik sinds kort dubbel geindexeerd ben, zo nee, is het illegaal en wat kan ik hier aan veranderen?
Situatieschets:
url1.com aan ip-adres vast
url2.nl cloaking url1.com ontvangt alle backlinks en stond voorheen alleen in de google zoekresultaten.
De losse domeinnaam en domeinnaam1 + hostpakket draaien op verschillende servers.
* tweakraiser wil niet gebanned worden na al dat harde werk
Je kunt beter kiezen voor 1 domeinnaam om al je activiteiten op te richten. Nu moet je een deel van je waarde afgeven aan je tweede domein. Kies bv. url2 als hoofddomein (want daar gaan al alle backlinks heen en die zal dus de hoogste PR hebben) en verwijs de eerste met een 301 redirect door naar url2.
Ik dacht dat url cloacking niet illegaal was? De pr is hetzelfde op beide domeinamen PR3 (predicted PR5). De files die ik upload naar de ftp-server is maar naar een ip-adres, namelijk url1.com.Millennyum schreef op dinsdag 21 november 2006 @ 22:35:
Cloaking is helaas 'illegaal' volgens zoekmachine richtlijnen. Je biedt zoekmachines namelijk een andere content aan dan bezoekers.
Je kunt beter kiezen voor 1 domeinnaam om al je activiteiten op te richten. Nu moet je een deel van je waarde afgeven aan je tweede domein. Kies bv. url2 als hoofddomein (want daar gaan al alle backlinks heen en die zal dus de hoogste PR hebben) en verwijs de eerste met een 301 redirect door naar url2.
Ik dupliceer dus niet doelbewust m'n content .
[ Voor 13% gewijzigd door tweakraiser op 21-11-2006 23:09 ]
Is een 301 Moved Permanently header voor jou niet een veel betere oplossing?
[ Voor 13% gewijzigd door Fuzzillogic op 21-11-2006 23:54 ]
Ah, very nice.. Werd wel tijd ook eigenlijk. Alleen jammer dat ik het niet echt werkend krijg. Ik krijg bij msn een foutmelding terug.bartvb schreef op woensdag 22 november 2006 @ 00:33:
Sinds kort doen MS en Yahoo ook aan sitemaps, zie o.a. http://www.sitemaps.org/
Terwijl ik toch echt de url naar m'n sitemap urlencode. Voor Yahoo! heb ik de url nog niet gevonden waar ik naartoe zou moeten gaan, maar dat komt vast wel goedBad format while processing ping.
Het zou veel makkelijker zijn om bijvoorbeeld iets in je HEAD op te nemen. Iets in de richting van:
1
| <meta name="sitemap" content="url-naar-sitemap"> |
of:
1
| <link rel="sitemap" type="application/rss+xml" title="XML Sitemap" href="url-naar-sitemap"/> |
Al om al wel een goede vooruitgang dit.
Edit:
De informatie op sitemaps.org klopt dus voor geen meter. Ik had al een account bij Google waar ik m'n sitemap had toegevoegd. Maar bij Yahoo heb je dus ook een account nodig: bron
Bij MSN kan het dus nog even duren, aangezien het pas voor 2007 in het programma staat: bron
[ Voor 20% gewijzigd door RaZ op 22-11-2006 04:43 ]
Ey!! Macarena \o/
Hoebedoel je google sitemaps? Dat gebruik ik al, maar ik zie de oplossing voor mijn probleem er niet in terug?Fuzzillogic schreef op dinsdag 21 november 2006 @ 23:53:
Als alternatief voor URI cloaking kun je Google Sitemaps gebruiken. Nadeel is dat je daarmee alleen Google bedient. Dat lijkt me echter voor jou hier niet een oplossing.
Is een 301 Moved Permanently header voor jou niet een veel betere oplossing?
Die 301 is hiervoor bedoeld.
In het verleden gebruikte ik frames, en om toch de frameset te tonen wanneer bezoekers een losse pagina via een zoekmachine vonden, heb ik een Javascriptje geschreven die automatisch de frameset laadde en de opgevraagde pagina daar weer in. Dat resulteerde dus in zulke url's, die ik nu moet redirecten.
Het volgende heb ik al zonder succes geprobeerd:
1
2
3
| redirect 301 ?pagina2.html http://www.domein.nl/pagina2.html redirect 301 /?pagina2.html http://www.domein.nl/pagina2.html redirect 301 /\?pagina2.html http://www.domein.nl/pagina2.html |
Millennyum schreef op zaterdag 25 november 2006 @ 20:48:
Weten jullie wat je precies in een .htaccess files moet zetten om een url als "www.domein.nl?pagina2.html" te redirecten naar "www.domein.nl/pagina2.html?
1
| Redirect permanent /pagina2.html http://www.domein.nl/pagina2.html |
of
1
| Redirect 301 /pagina2.html http://www.domein.nl/pagina2.html |
Oops, ik zag het vraagtekentje over het hoofd, deze oplossing werkt niet
[ Voor 8% gewijzigd door Fulcrum2000 op 25-11-2006 20:56 ]
AMD Ryzen 9 5950X | Asus ROG Strix X570-E Gaming | G.Skill Ripjaws V F4-3600C16D-32GVKC (64 GB total) + Samsung 980 Pro 1TB (M.2) | Corsair Hydro H100x
wilde gok:
1
| RewriteRule ^\?([a-z0-9]+).html$ http://www.domain.nl/$1.html [R=301,NC] |
[ Voor 45% gewijzigd door AtleX op 25-11-2006 21:29 ]
Sole survivor of the Chicxulub asteroid impact.
Je zoekt iets als
1
2
| RewriteCond %{QUERY_STRING} ?pagina2.html$ RewriteRule .* http://www.domein.tld/pagina2.html [R=301,L] |
Maar volgens mij doe je heel omslachtig?
Je javascript verwijst de bezoeker naar domein.tld?pagina2.html, indien zij /pagina2.html proberen te openen zonder frameset? En dan wil je ze met behulp van htaccess toch weer terug gaan sturen naar die pagina?
Je kunt ze toch beter redirecten naar domein.tld?frame=pagina2.html, en in je frameset die url echo-en in de src van het desbetreffende frame?
[ Voor 52% gewijzigd door frickY op 26-11-2006 10:28 ]
In het verleden had ik een frames pagina, maar nu is alles in CSS. Het Javascriptje dat deze url's met querystring doorverwees, bestaat dus ook niet meer. Het is overbodig, omdat www.domein.nl/pagina2.html nu wel rechtstreeks werkt.
Verwijderd
Ik denk dat de webmastertool achterloopt met hoe het in werkelijkheid is. Voor de site waar ik het in dit topic eerder over had kijk ik elke 3 dagen of hij al opnieuw geindexeerd was. Ineens vorige week waren er een aantal van de nieuwe pagina's geindexeerd, terwijl "last visited" nu nog op 17 oktober staat.Verwijderd schreef op dinsdag 21 november 2006 @ 16:24:
Ik heb alleen nu nog een andere probleem en dat heeft te maken met de webmaster tool van Google. Hierin geeft Google aan dat hij voor het laatst de homepage op 31 oktober bezocht heeft. Ik vind dit wel heel lang duren voordat dit aangepast wordt. Bovendien heb ik ondertussen een aantal zaken veranderd zoals een betere titel zodat ik hopelijk helemaal bovenaan kom te staan. Crawl rate staat op high en ik heb een sitemap geupload en content is de laatste tijd bijna allemaal veranderd.
Waarom duurt dit zo lang?
Dus of die datum in webmaster tools loopt een tijdje achter, of Google verwerkt pas na een tijdje de informatie die hij gespiderd heeft in zijn zoekresultaten.
Crawlrate staat bij mij trouwens ook op high, en hij moet bij mij ook nog een kleine 450 pagina's indexeren. Enige wat je kunt doen is geduld hebben.
[ Voor 6% gewijzigd door Verwijderd op 27-11-2006 09:49 ]
https://www.google.com/adsense/adformats
Dat kan met een adsense premium account. Moet je wel flink aantal bezoekers hebben (meerdere miljoenen pageviews per maand, als ik me niet vergis).Cartman! schreef op dinsdag 28 november 2006 @ 10:24:
Hoe komt tweakers.net aan custom sized adsense? Zover ik weet heb je je te houden aan pre defined formaten... hoe kan ik dit veranderen en is dit legaal
Erg nietszeggend dusThanks for your interest in AdSense Premium. At this time, we're unable to
offer this service to publishers. However, our AdSense team is currently
able to support a wide range of publishers with diverse needs.
Ik heb evenveel (zo niet meer) traffic op mijn forum dan gathering.tweakers.net alleen heb ik nog steeds geen custom ad formats :\ Wel is het zo dat ik alleen een forum heb, hier hebben ze natuurlijk ook nog de tweakers.net frontpage, pricewatch, etc.
Dan ben ik eigenlijk wel benieuwd naar je site.bartvb schreef op dinsdag 28 november 2006 @ 11:13:
Adsense Premium as such lijkt niet meer te bestaan oid. Ik heb van een aantal mensen gehoord dat Google (op dit moment iig?) geen mensen meer toelaat tot Adsense Premium. Ik kreeg zelf dit terug:
[...]
Erg nietszeggend dusHelaas zijn ze bij AdSense best goed in het geven van antwoorden met een erg lage informatiedichtheid.
Ik heb evenveel (zo niet meer) traffic op mijn forum dan gathering.tweakers.net alleen heb ik nog steeds geen custom ad formats :\ Wel is het zo dat ik alleen een forum heb, hier hebben ze natuurlijk ook nog de tweakers.net frontpage, pricewatch, etc.
Maar zijn de standaard ads niet gewoon met CSS te stylen?
Nu staat deze site alweer een tijdje online en met site:sitenaam.tld krijg ik 1080 pagina's terug. Iemand enig idee waarom ik deze melding krijg en wat ik er aan kan doen?No pages from your site are currently included in Google's index. Indexing can take time. You may find it helpful to review our information for webmasters and webmaster guidelines. [?]
Een aantal van de sites op mijn linkpagina hebben al een linkje geplaatst en een aantal gaan dat nog doen deze maand waarschijnlijk. Sommige hebben een PR van 5 en zouden wel positief moeten zijn voor mij.
Nog steeds geen DMOZ vermelding en heb geen idee hoe ik dat nou aan moet pakken. Ik heb gehoord dat het erg nuttig is als je daar vermeld wordt maar ben dus nog niet geplaatst (maanden terug al aangemeld) en heb tijd terug via Analytics gezien dat er een editor op bezoek is geweest van DMOZ. Ik houdt mijn site zo schoon mogelijk en doe niet aan smerige of uberhaupt aan truukjes. Terwijl er hele berg andere vage sites wel vermeld worden.
Zijn er nog andere dingen die ik echt wel moet doen of juist moet laten?
Always shoot for the moon. Even if you miss you will land among the stars...
Verwijderd
Wat mij het eerste opvalt is dat je naast alleen maar producten verkoopt, bijna geen content op je site te vinden is.seamus21 schreef op zaterdag 02 december 2006 @ 22:34:
Zijn er nog andere dingen die ik echt wel moet doen of juist moet laten?
Dus vanuit Google oogpunt; een site zonder waardevolle toevoeging mbt tot content. Een andere grote rol mbt tot je pagerank is hoelanf je domeinnaam (www.spellenenzo.nl) al actief is, hoe langer hoe beter.
Maar om een je nog een korte oplossing te geven: Schrijf wat over je producten, reviews oid en het plaatsen van wat meer informatie bij je producten zoals extra informatie over de dobbelstenen (in welke spellen worden ze gebruikt).
Ik denk dat je de rest wel zelf kan invullen...
Nog een extra dingetje:
Het volgende komt een beetje onproffesioneel over: Bij elke product staat het volgende niet ingevuld;
Tijdsduur:
Spelers:
Leeftijd:
Vul het in, laat het weg of zoek een tussenoplossing..
Nou succes
Wat voor Google ook heel erg belangrijk is, zorg dat je pagina valideerd. Ik had 1 pagina op m'n site die ik absoluut gevonden wil hebben, en Google wilde er maar niets van weten. Pagina staat in m'n XML Sitemap, maar indexeren deed Google niet. Zelfde geldt voor Yahoo. In microsoft's live search komt ie pagina wel voor.Verwijderd schreef op zaterdag 02 december 2006 @ 23:16:
..Een paar goeie tips..
De pagina valideerde voor geen meter, en dus net aangepast, en zowel voor Yahoo als voor Google een ping gedaan, dus die komen er vast wel een dezer dagen.
Als ik dan kijk naar de pagina spellenenzo, valideerd die pagina niet. Lijkt er dus gewoon op dat Google en Yahoo gewoon geen pagina's meer indexeren die stikken van de fouten.
Zie hier de fouten van de pagina, zorg dat je pagina's valideren, en dan komt het vanzelf wel gooed.
Ey!! Macarena \o/
Maar bekijk eens een gemiddelde site die je met Google aantreft. De "HTML" van veel sites zouden net zo goed door een 4-jarige gemaakt kunnen zijn. En laten we Google zelf niet vergeten, de results page is echt puinhoop. Bizar dat ze dat niet even fixen; how hard can it be, denk ik dan.
Maar natuurlijk is het aan te raden om te zorgen voor valid code en aandacht voor toegankelijkheid. Veel van de vereisten voor goede toegankelijkheid zijn tevens erg goed als SEO.
Google kent spellenenzo wel, 127 pagina's kom ik tegen in de site-search. Ik zou overigens eens drastisch naar de titel gaan kijken. Die is namelijk altijd het zelfde. Als je op een categorie of product pagina staat, gebruik dan ook dat als titel.
Ga ik naar een categorie toe, zie ik staan in de source: <h3>kies een onderdeel</h3> dat zou ik toch anders doen. Zet de categorie/product naam in h-tags. Er zoekt natuurlijk niemand op een term als: 'kies een onderdeel' dus om daar nu meer waarde aan te hangen dmv die h-tag, slaat de plank een beetje mis.
Ey!! Macarena \o/
Zoveel dingen die je nog kunt doen en laten.seamus21 schreef op zaterdag 02 december 2006 @ 22:34:
Nog steeds geen DMOZ vermelding en heb geen idee hoe ik dat nou aan moet pakken. Ik heb gehoord dat het erg nuttig is als je daar vermeld wordt maar ben dus nog niet geplaatst (maanden terug al aangemeld) en heb tijd terug via Analytics gezien dat er een editor op bezoek is geweest van DMOZ. Ik houdt mijn site zo schoon mogelijk en doe niet aan smerige of uberhaupt aan truukjes. Terwijl er hele berg andere vage sites wel vermeld worden.
Zijn er nog andere dingen die ik echt wel moet doen of juist moet laten?
1. Allereerst is wat Prancer cruciaal: zorg voor inhoud, inhoud en inhoud. Met inhoud verdien je pas terecht PR, niet door het handelen in links. Inhoud maakt dat mensen naar je gaan linken zonder dat je er om vraagt. En Google houdt van inhoud. En in de toekomst zullen ze er nog veel meer van gaan houden. Mensen houden trouwens ook van inhoud en vinden het leuk om alvast op de site te zien wat voor spel het eigenlijk is.
2. De waarde van DMOZ is de laatste tijd erg afgenomen, maar een vermelding is volgens mij nog steeds wel gunstig. Je hebt een geluk bij een ongeluk: er is momenteel geen redacteur voor http://dmoz.org/World/Nederlands/Spellen/. Dat betekent dat je aanmelding lange tijd op zich zal wachten, totdat de redacteur van een bovenliggende categorie er tijd voor maakt. Maar... jij kunt je nu aanmelden om zelf redacteur te worden, dan kun je deze categorie zelf beheren! Je weet ongetwijfeld nog wel een aantal andere sites op het gebied van spellen die wel een vermelding verdienen maar die net als jij braaf wachten.
3. Als ik je site invoer bij Google, zie ik meteen dat elke pagina dezelfde titel heeft. Een titel is erg belangrijk voor een zoekmachine. Stel je voor dat je een boek koopt met 100 hoofdstukken en al die hoofdstukken hebben dezelfde titel... Dan kun je je voorstellen dat zo'n titel niet meer effectief is. Beperk de titels tot de specifieke productnaam, categorienaam en je sitenaam. Ook in die volgorde, want aan datgene wat vooraan in je titel staat, wordt meer belang gehecht en er is echt niemand die gaat zoeken op 'spellenenzo'. Verder sta ik persoonlijk vrij positief tegenover het vermelden van prijzen aan het begin van de titel, omdat je daarmee direct aan de zoeker duidelijk maakt dat je dit product verkoopt en dat je je prijs concurrerend genoeg vind om te vermelden. Verder zou ik de sitenaam met spaties schrijven, omdat het woord 'spellen' voor jou essentieel is en men daar ook op zal zoeken. Dus als voorbeeld: "€ 8 - Blue Interferenz 12 mm - Dobbelstenen - Spellen En Zo".
Tijdsduur etc is aangepast. Bij bordspellen is die info relevant en zul je daar dus ook alleen zien. Plaatjes komen nog voor de bordspellen. Veel werkVerwijderd schreef op zaterdag 02 december 2006 @ 23:16:
[...]
Wat mij het eerste opvalt is dat je naast alleen maar producten verkoopt, bijna geen content op je site te vinden is.
Dus vanuit Google oogpunt; een site zonder waardevolle toevoeging mbt tot content. Een andere grote rol mbt tot je pagerank is hoelanf je domeinnaam (www.spellenenzo.nl) al actief is, hoe langer hoe beter.
Maar om een je nog een korte oplossing te geven: Schrijf wat over je producten, reviews oid en het plaatsen van wat meer informatie bij je producten zoals extra informatie over de dobbelstenen (in welke spellen worden ze gebruikt).
Ik denk dat je de rest wel zelf kan invullen...
Nog een extra dingetje:
Het volgende komt een beetje onproffesioneel over: Bij elke product staat het volgende niet ingevuld;
Tijdsduur:
Spelers:
Leeftijd:
Vul het in, laat het weg of zoek een tussenoplossing..
Nou succes
De frontpage valideerd. Binnenkort ga ik de andere pagina's ook aanpakkenRaZ schreef op dinsdag 05 december 2006 @ 23:58:
[...]
Wat voor Google ook heel erg belangrijk is, zorg dat je pagina valideerd. Ik had 1 pagina op m'n site die ik absoluut gevonden wil hebben, en Google wilde er maar niets van weten. Pagina staat in m'n XML Sitemap, maar indexeren deed Google niet. Zelfde geldt voor Yahoo. In microsoft's live search komt ie pagina wel voor.
De pagina valideerde voor geen meter, en dus net aangepast, en zowel voor Yahoo als voor Google een ping gedaan, dus die komen er vast wel een dezer dagen.
Als ik dan kijk naar de pagina spellenenzo, valideerd die pagina niet. Lijkt er dus gewoon op dat Google en Yahoo gewoon geen pagina's meer indexeren die stikken van de fouten.
Zie hier de fouten van de pagina, zorg dat je pagina's valideren, en dan komt het vanzelf wel gooed.
Title en headers tags checkRaZ schreef op woensdag 06 december 2006 @ 01:23:
...
Ik zou overigens eens drastisch naar de titel gaan kijken. Die is namelijk altijd het zelfde. Als je op een categorie of product pagina staat, gebruik dan ook dat als titel.
Ga ik naar een categorie toe, zie ik staan in de source: <h3>kies een onderdeel</h3> dat zou ik toch anders doen. Zet de categorie/product naam in h-tags. Er zoekt natuurlijk niemand op een term als: 'kies een onderdeel' dus om daar nu meer waarde aan te hangen dmv die h-tag, slaat de plank een beetje mis.
1. Linkjes is iets wat ik nu op korte termijn makkelijk kan oppakken en mn PR is ook echt crap die is nu 0/10 en kan toch wel een paar extra linkjes gebruiken. De content dat gaat zeker ook gebeuren. Moet daarvoor nog iets goeds bedenken en ook iets wat dynamisch is.MIster X schreef op woensdag 06 december 2006 @ 01:36:
[...]
Zoveel dingen die je nog kunt doen en laten.
1. Allereerst is wat Prancer cruciaal: zorg voor inhoud, inhoud en inhoud. Met inhoud verdien je pas terecht PR, niet door het handelen in links. Inhoud maakt dat mensen naar je gaan linken zonder dat je er om vraagt. En Google houdt van inhoud. En in de toekomst zullen ze er nog veel meer van gaan houden. Mensen houden trouwens ook van inhoud en vinden het leuk om alvast op de site te zien wat voor spel het eigenlijk is.
2. De waarde van DMOZ is de laatste tijd erg afgenomen, maar een vermelding is volgens mij nog steeds wel gunstig. Je hebt een geluk bij een ongeluk: er is momenteel geen redacteur voor http://dmoz.org/World/Nederlands/Spellen/. Dat betekent dat je aanmelding lange tijd op zich zal wachten, totdat de redacteur van een bovenliggende categorie er tijd voor maakt. Maar... jij kunt je nu aanmelden om zelf redacteur te worden, dan kun je deze categorie zelf beheren! Je weet ongetwijfeld nog wel een aantal andere sites op het gebied van spellen die wel een vermelding verdienen maar die net als jij braaf wachten.
3. Als ik je site invoer bij Google, zie ik meteen dat elke pagina dezelfde titel heeft. Een titel is erg belangrijk voor een zoekmachine. Stel je voor dat je een boek koopt met 100 hoofdstukken en al die hoofdstukken hebben dezelfde titel... Dan kun je je voorstellen dat zo'n titel niet meer effectief is. Beperk de titels tot de specifieke productnaam, categorienaam en je sitenaam. Ook in die volgorde, want aan datgene wat vooraan in je titel staat, wordt meer belang gehecht en er is echt niemand die gaat zoeken op 'spellenenzo'. Verder sta ik persoonlijk vrij positief tegenover het vermelden van prijzen aan het begin van de titel, omdat je daarmee direct aan de zoeker duidelijk maakt dat je dit product verkoopt en dat je je prijs concurrerend genoeg vind om te vermelden. Verder zou ik de sitenaam met spaties schrijven, omdat het woord 'spellen' voor jou essentieel is en men daar ook op zal zoeken. Dus als voorbeeld: "€ 8 - Blue Interferenz 12 mm - Dobbelstenen - Spellen En Zo".
2. Service is niet beschikbaar helaas
3. Title again. Ga ik zeker aanpassen.
Tnx
- Daarnaast ga ik ook mn url's, indien dit niet een hele ombouw vereist, proberen search engine friendly te maken.
- En staat er binnenkort misschien een nieuw design klaar
Always shoot for the moon. Even if you miss you will land among the stars...
Slecht een fractie van alle Internetpagina's bestaat daadwerkelijk uit valide HTML. Pagina's van Google behoren niet tot die fractie. Als Google alleen valide HTML zou slikken zou die index heel wat kleiner zijn...RaZ schreef op dinsdag 05 december 2006 @ 23:58:
[...]
Wat voor Google ook heel erg belangrijk is, zorg dat je pagina valideerd.
Zou Google nu een penalty uitdelen voor niet-valide pagina's dan moet je eens opletten hoeveel pagina's er opeens valid gaan worden.King_Louie schreef op woensdag 06 december 2006 @ 08:17:
[...]
Slecht een fractie van alle Internetpagina's bestaat daadwerkelijk uit valide HTML. Pagina's van Google behoren niet tot die fractie. Als Google alleen valide HTML zou slikken zou die index heel wat kleiner zijn...
Maar serieus, ik zou het niet verkeerd vinden als Google et al een bonus geven voor valid sides met goede toegankelijkheid..
- Titles en headers zijn nu aangepast. Deze zijn nu niet meer overal hetzelfde en bevatten nu indien van toepassing categorieen, productnamen en prijzen.
- DMOZ nog steeds unavailable.
- Nieuw design ziet er veelbelovend uit. Zal nog wel 1.5 maand duren voordat deze doorgevoerd is.
- Friendly URL's moet ik nog onderzoeken of dat veel werk is om door te voeren.
- Pokerkoffers zijn in prijs verlaagd
Always shoot for the moon. Even if you miss you will land among the stars...
Nog een suggestie. Een spider kijkt niet naar het uiterlijk. Wat bovenaan in je sourcecode staat, krijgt daarom over het algemeen een hogere waardering in zoekmachines dan alles wat eronder staat. Dus staat er bij sommige van je zoekresultaten je menu als voorbeeldtekst. Aangezien je toch alles netjes in absolute DIV's hebt staan, is het niet zo moeilijk om je 'main_content' zo hoog mogelijk in je source te plaatsen en dan je menu er onder. Qua uiterlijk verandert er op deze manier niets.seamus21 schreef op dinsdag 12 december 2006 @ 03:23:
- Titles en headers zijn nu aangepast. Deze zijn nu niet meer overal hetzelfde en bevatten nu indien van toepassing categorieen, productnamen en prijzen.
- DMOZ nog steeds unavailable.
- Nieuw design ziet er veelbelovend uit. Zal nog wel 1.5 maand duren voordat deze doorgevoerd is.
- Friendly URL's moet ik nog onderzoeken of dat veel werk is om door te voeren.
- Pokerkoffers zijn in prijs verlaagd
Er zijn voorbeelden waaruit het tegendeel blijkt:André schreef op dinsdag 12 december 2006 @ 10:28:
Validatie is voor Google NIET belangrijk.
Volgens mij is het veiliger om te stellen dat validatie op dit moment kennelijk nog niet doorslaggevend is voor Google (want veel sites die op #1 staan valideren niet). Het zou me echter niets verbazen als dat in de toekomst gaat veranderen, want aan websites die aan de standaarden voldoen meer aandacht besteed: ze verdienen dus in zekere mate een hogere ranking.The Beanstalk website and the W3 EDGE site themselves serve as good examples of sites that performed better after complying with W3C standards. With no other changes than those required to bring our site into compliance the Beanstalk site saw instant increases. The biggest jumps were on Yahoo! with lesser though still significant increases being noticed on both Google and MSN.
Dat blijkt hier helemaal niet uit, hij zegt dat hij na het valideren van de code omhoog gegaan is in de zoekmachines. Maar dat heeft niets met die validatie te maken maar meer met het opschonen van de code waardoor het voor de zoekmachines duidelijker is waar een pagina over gaat (wat ik dus in mijn vorige reactie al zei).MIster X schreef op dinsdag 12 december 2006 @ 12:47:
[...]
Er zijn voorbeelden waaruit het tegendeel blijkt:
Dus ja: opschonen van je code helpt
En nee: validatie heeft daar niets mee te maken
André schreef op dinsdag 12 december 2006 @ 10:28:
Validatie is voor Google NIET belangrijk. Wel is het zo dat gevalideerde pagina's over het algemeen iets netter in elkaar zitten waardoor Google beter begrijpt wat er precies op de pagina staat.
Dan moet je me toch eens uitleggen, hoe je dit bedoelt. Want in dat artikel wordt toch echt gesproken over het valideren in overeenstemming met W3C, en niet over het opschonen van code.André schreef op dinsdag 12 december 2006 @ 13:24:
[...] meer met het opschonen van de code waardoor het voor de zoekmachines duidelijker is waar een pagina over gaat (wat ik dus in mijn vorige reactie al zei).
Dus ja: opschonen van je code helpt
En nee: validatie heeft daar niets mee te maken
Het artikel gaat zeker wel over opschonen, validatie wordt daar ook als gevolg genoemd:
...what you will be doing is cleaning up a ton of your code and moving a lot into CSS...
...but you'll have a site with far less code that will rank higher...
Alleen is het voor mij nogal lastig om onjuiste XHTML uit m'n CMSje te persen
[ Voor 20% gewijzigd door Fuzzillogic op 12-12-2006 15:26 ]
Het valideren van je pagina is geen enkele garantie dat deze in de veel gebruikte browsers goed weergegeven wordt, en dus voor Google geen enkele reden om een bepaalde site hoger of lager dan een andere site te tonen.
Denk erom, het gaat Google om het tonen van kwalitatieve zoekresultaten aan haar gebruikers. Of dat nou opmaaklose pagina's of gecompliceerde layers zijn, maakt niet uit. Het gaat om de content.
Een ander punt is de "signal to noise ratio". Ik heb ooit eens een artikel gelezen waarin getest werd of het uitmaakt of je content in tig geneste tabellen zet, of in een divje of 2. Dat laatste bleek toch duidelijk beter te scoren. Nou wordt dat op andere plaasten weer tegengesproken. Maar misschien heeft het te maken met de relatieve hoeveelheid HTML-code t.o.v. de echte content. Met tabellen is de "noise" al snel hoger dan met wat strategische divjes.
Oftewel: hoe weet je of het de SE's idd meester zijn in het extracten van de content uit een stinkende berg HTML-drek? En of dat idd het enige is waar ze naar kijken?
Als ik (maar wie ben ik) een SE zou maken, dan zou ik ook wat heuristiek erin zetten om een "netheidsfactor" mee te nemen. Hoe netter de code en hoe hoger de SNR, hoe hoger je ranking. Met als argument dat een goede pagina met goede content ook een verzorgde pagina is.
Enfin, dat SE's niet direct een penalty geven als je site niet 100% correct blijkt te zijn is logisch. Maar om het hele argument van tafel te vegen, daar zou ik graag wat meer over willen weten. En dan liefst "from the horses mouth" dan wel empirisch aangetoond
Ruim 1.5 jaar geleden ging ik van een validerende table layout naar een validerende css/xhtml layout waardoor de SNR erg steeg. Dit leverde een pr stijging van 3 naar 5 op. Tuurlijk in die tijd heb ik ook redelijk wat extra incoming links erbij gekregen inclusief DMOZ opname en andere SEO trucs, maar de grootste verandering was toch wel minder code, more content.Fuzzillogic schreef op dinsdag 12 december 2006 @ 19:55:
...knip...
Enfin, dat SE's niet direct een penalty geven als je site niet 100% correct blijkt te zijn is logisch. Maar om het hele argument van tafel te vegen, daar zou ik graag wat meer over willen weten. En dan liefst "from the horses mouth" dan wel empirisch aangetoond
Verstand van Voip? Ik heb een leuke baan voor je!
Ik heb getest en kan via mod_rewrite url's rewriten via .htacces. Al mijn links op de huidige website zijn in het volgende formaat:
producten.php?id=10000&catnaam=Pokerartikelen
na een rewrite zo dit ongeveer zo moeten worden
producten/1000/Pokerartikelen of producten/id/1000/catnaam/Pokerartikelen
Ik heb wat tutorials gevonden en heb als test in .htacces de volgende code:
1
2
3
| RewriteEngine On RewriteBase / RewriteRule ^producten/(.*)/(.*).php /producten.php?id=$1&catnaam=$2 [L] |
De bedoeling is dus dat al mn huidige url's in een friendly formaat komen. Kan ik dit dan doen alleen door rewriten of moet ik dan het andersom doen en de links in mijn php code friendly opbouwen?
edit: ik heb de volgende tutorial o.a. bekeken maar die blijft beperkt tot htacces en kan er niet uithalen of zoiets nou alles is wat ik nodig heb:
http://www.phpfreaks.com/tutorials/23/0.php
[ Voor 10% gewijzigd door seamus21 op 13-12-2006 22:56 ]
Always shoot for the moon. Even if you miss you will land among the stars...
Het is wel zo netjes dat je de links ook ombouwd, om te voorkomen dat je steeds zit te prutsen met absolute URL's of ../ en kun je gebruik maken van de <base> tag.seamus21 schreef op woensdag 13 december 2006 @ 22:54:
Ik weet niet of dit in deze tips en truuks mag maar ik was dus vandaag wat aan het bekijken voor SEF maar begrijp niet helemaal welke stappen ik nou moet ondernemen.
Ik heb getest en kan via mod_rewrite url's rewriten via .htacces. Al mijn links op de huidige website zijn in het volgende formaat:
producten.php?id=10000&catnaam=Pokerartikelen
na een rewrite zo dit ongeveer zo moeten worden
producten/1000/Pokerartikelen of producten/id/1000/catnaam/Pokerartikelen
Ik heb wat tutorials gevonden en heb als test in .htacces de volgende code:
code:
1 2 3 RewriteEngine On RewriteBase / RewriteRule ^producten/(.*)/(.*).php /producten.php?id=$1&catnaam=$2 [L]
De bedoeling is dus dat al mn huidige url's in een friendly formaat komen. Kan ik dit dan doen alleen door rewriten of moet ik dan het andersom doen en de links in mijn php code friendly opbouwen?
edit: ik heb de volgende tutorial o.a. bekeken maar die blijft beperkt tot htacces en kan er niet uithalen of zoiets nou alles is wat ik nodig heb:
http://www.phpfreaks.com/tutorials/23/0.php
Je nieuwe URL's vind ik trouwens ook niet echt optimaal, waarom niet gewoon catnaam/id ?
Aan de inhoud van de bovenstaande tekst kunnen geen rechten worden ontleend, tenzij dit expliciet in dit bericht is verwoord.
Geen idee eigenlijk, was gewoon een voorbeeld als de url's beter kunnen dan zal ik dat zeker doen. Maar weet niet echt hoe en waar te beginnen .htacces of php.Johnny schreef op woensdag 13 december 2006 @ 23:05:
[...]
Het is wel zo netjes dat je de links ook ombouwd, om te voorkomen dat je steeds zit te prutsen met absolute URL's of ../ en kun je gebruik maken van de <base> tag.
Je nieuwe URL's vind ik trouwens ook niet echt optimaal, waarom niet gewoon catnaam/id ?
Always shoot for the moon. Even if you miss you will land among the stars...
Niet alleen voor SE's, maar ook voor mensen. Opera heeft een mouse gesture om een directory omhoog te gaan. Ik ben al snel geneigd om "wat een prutssite" tegen mn scherm te blaten als dat niet werkt
Met zoiets als "producten/1000/Pokerartikelen of producten/id/1000/catnaam/Pokerartikelen" werkt dat allemaal dus niet.
Ik ben het met je over die structuur eens, maar die id's in je url op deze manier lijkt heel ranzig en goedkoop. Ik zou daar dan een andere manier voor verzinnen zodat die id's weg kunnen.Fuzzillogic schreef op woensdag 13 december 2006 @ 23:36:
Probeer een logische (virtuele) directorystructuur aan te houden. Dat je ook een stapje hoger kunt gaan en dan nog steeds op een werkende site uitkomt. Je zou ID's direct in de directorynaam kunnen verweven: Dus iets als "/productgroep,5/productserie,114/product,882".
Bij het weg laten heb je het probleem dat je een woord of zin aan een id moet gaan matchen, daar ben ik dus helemaal niet over te spreken. Van id's weet je dat ze uniek zijn, van een woord of zin moet je het zelf gaan controleren en bij houden.
Ik kies er daarom vaak voor om een id achter de url te zetten: http://domain.tld/productgroep/merk/product/id/
Ik denk dat dat best een nette oplossing is, of is daar wat op tegen? (Buiten het feit dat het minder vriendelijk is voor gebruikers)
Verwijderd
Ik zou dan 'product' na 'id' zetten. Omdat ik denk dat de consument sneller ziet wat er aan het eind van de url staat en het 'id' interesseert ze niet.CrashOne schreef op donderdag 14 december 2006 @ 09:55:
Ik kies er daarom vaak voor om een id achter de url te zetten: http://domain.tld/productgroep/merk/product/id/
Met alle plezier. Ik vind het ook lelijk. Maar look-up van namen naar ID, waar de Db uiteindelijk mee aan de slag gaat, zie ik nog veel minder zitten. Bovendien moet je dan ook alle gewijzigde namen gaan bijhouden, met potentieel probleem als er bijv. 2 artikelen van naam wisselen. Dat hoeft met ID's niet, want de tekst binnen de URI's is voor het CMS verder irrelevant.André schreef op donderdag 14 december 2006 @ 09:44:
[...]
Ik ben het met je over die structuur eens, maar die id's in je url op deze manier lijkt heel ranzig en goedkoop. Ik zou daar dan een andere manier voor verzinnen zodat die id's weg kunnen.
En normaal werkende directorystructuur vind ik toch wel wenselijk. Je hebt dan dus van alle niveaus een ID nodig, binnen het niveau waar ze bij horen.
Dan zie ik dit toch als enige oplossing...
Als je met id's werkt, werk je al met een database. Het is niet zo moeilijk om dan ook gewoon een unieke tekstuele id te generaten op basis van je titel, en die beiden in je database op te slaan. Als je iets in je database invoert check je of je tekstuele id uniek is, en zoniet dan zet je er een 2 of 3 achter. Intern kan je gewoon een numeriek ID blijven gebruiken.CrashOne schreef op donderdag 14 december 2006 @ 09:55:
Dat probleem heb ik ook al meerdere keren gehad, waar laat je de id's of laat je ze helemaal weg.
Bij het weg laten heb je het probleem dat je een woord of zin aan een id moet gaan matchen, daar ben ik dus helemaal niet over te spreken. Van id's weet je dat ze uniek zijn, van een woord of zin moet je het zelf gaan controleren en bij houden.
Tweakers.net werkt met /numeriek-id/tekstueel-id/ waarbij het tekstuele id overbodig is voor de werking. Gebruikers kunnen de link niet onthouden omdat de link te ingewikkeld is door de combinatie tussen numeriek en tekstueel.
Als je als id simpele tekstuele links gebruikt, zonder rare tekens erin, kunnen bezoekers de URI onthouden, is je URI geschikt voor printed media, werkt het systeem van "mapje omhoog" bij je virtuele directorysysteem en herhaal je keywords van je titel in je URI; leuk voor SE's.
[ Voor 5% gewijzigd door Blaise op 14-12-2006 17:04 ]
- domein.nl/producten
- domein.nl/producten/laptops
- domein.nl/producten/laptops/toshiba/éénofanderlastigtypenummer/
- tweakers.net/nieuws/Heisa-omtrent-straling-wifi-netwerken-in-scholen
Kortom, zorg ervoor dat je op gematigd gespecificeerde pagina's korte, duidelijk begrijpbare en goed te onhouden URI's hebt en voor verdere specificaties zie ik niet in om het ID te verbergen het is namelijk toch niet zo dat een gebruiker deze pagina's compleet uit het hoofd kent.
En ten tweede is het ook nog eens zo dat als men naar domein.nl/producten/laptops/ gaat dat het dan sneller met 3 kliks op de gewenste pagina komt (c.q. zou moeten komen) dan het te typen in de adresbalk (gemiddelde gebruiker is geen type-wonder).
Alle diepere linkjes maak je eigenlijk alleen nog readable voor de SE's en een handjevol powerusers, maar daar kun je gewoon weer IDs in verwerken.
Ik denk dat dit idd wel een mooie combinatie is. Handig om mensen een shortcut te geven als je ze mondeling of op schrift een URI doorgeeft, en goed voor SEO. Ben bezig met een nieuwe site voor een klant, kijken of dit daar toe te passen is
[ Voor 4% gewijzigd door Fuzzillogic op 14-12-2006 18:54 ]
http://test.net/seo/artic...ry_woman_should_know.html
zelfs als ervaren internetter zal ik nooit een complete url intikken, zeker als het meer dan 10 karakters is. in de dropdown zal ik wel de artikelnaam en paginanaam zien.
De SE dus ook.
1 level hoger en je krijgt een chapterlist of zo, dus levelup werkt ook.
En toch blijf ik met IDs werken. Dat werkt voor mij toch het prettigst, snelst en meest robuust.
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
1
| /seo/articles/article/id-57-Strength_Training_for_Women/chapter/ch-2-What_every_woman_should_know.htm |
Als je ook kijkt naar de mogenlijkheid die de <head></head> sectie bied, hoef je dit soort urls niet zo mega lang te maken.
De teksten in de url: seo, articles, article & chapter lijken me echt overkill.
Als je dus zegt dat bij level-up je op de hoofdstuk pagina komt. Maar dat lijkt me ook logisch als je komt op /id-57...
Dmv links aantegeven in je head, kan je voor /id-57.. gewoon aangeven dat er meer pagina's zijn die bij het onderwerp horen. Bij elke chapter kan je ook aangeven dat er nog een chapter volgt, of dat er een vorig chapter was, en waar het begin van de collectie documenten binnen je article staat.
het kan dus een heel stuk korter:
1
| /article/id-57-Strength_Training_for_Women/ch-2-What_every_woman_should_know.htm |
Op die pagina gebruik je dus 3 links in de head: de startpagina, vorige chapter, volgend chapter
1
2
3
| <link rel="start" href="/article/id-57-Strength_Training_for_Women/" /> <link rel="prev" href="/article/id-57-Strength_Training_for_Women/ch-1-introduction.htm" /> <link rel="next" href="/article/id-57-Strength_Training_for_Women/ch-3-Conslusion.htm" /> |
Op die manier snappen de SE's als ze op 1 van die pagina's terecht komen, dat er meer bj hoort. Als ik de bron zo lees dan
Bron
Ey!! Macarena \o/
Je weet dat het verbinden van woorden met underscores er voor zorgt dat het in Google slechts vindbaar is als in de zoekopdracht ook precies die woordcombinatie met underscores gebruikt? (Of ging het je slechts om de structuur?)kmf schreef op donderdag 14 december 2006 @ 23:40:
na lang wikken en wegen heb ik deze structuur gekozen
http://test.net/seo/artic...ry_woman_should_know.html
Cogito ergo dubito
Er is een single-point-of-entry.RaZ schreef op vrijdag 15 december 2006 @ 02:26:
Ik vind zo'n URL nogal groot zelf.
code:
1 /seo/articles/article/id-57-Strength_Training_for_Women/chapter/ch-2-What_every_woman_should_know.htm
Als je ook kijkt naar de mogenlijkheid die de <head></head> sectie bied, hoef je dit soort urls niet zo mega lang te maken.
De teksten in de url: seo, articles, article & chapter lijken me echt overkill.
Als je dus zegt dat bij level-up je op de hoofdstuk pagina komt. Maar dat lijkt me ook logisch als je komt op /id-57...
Dmv links aantegeven in je head, kan je voor /id-57.. gewoon aangeven dat er meer pagina's zijn die bij het onderwerp horen. Bij elke chapter kan je ook aangeven dat er nog een chapter volgt, of dat er een vorig chapter was, en waar het begin van de collectie documenten binnen je article staat.
het kan dus een heel stuk korter:
code:
1 /article/id-57-Strength_Training_for_Women/ch-2-What_every_woman_should_know.htm
Op die pagina gebruik je dus 3 links in de head: de startpagina, vorige chapter, volgend chapter
HTML:
1 2 3 <link rel="start" href="/article/id-57-Strength_Training_for_Women/" /> <link rel="prev" href="/article/id-57-Strength_Training_for_Women/ch-1-introduction.htm" /> <link rel="next" href="/article/id-57-Strength_Training_for_Women/ch-3-Conslusion.htm" />
Op die manier snappen de SE's als ze op 1 van die pagina's terecht komen, dat er meer bj hoort. Als ik de bron zo lees dan
Bron
dat stukje SEO is om de modus te pakken. Als seo in de eerste kolom staat, dan weet mijn site dat het een SEO-link is en dan parst ie het ook.
articles is de modules. Mijn site bestaat uit meerdere modules. gallery, cms (articles), forum, etc. Met het tweede veld kan ik modules-switchen.
De rest is om de laatste switch te doen. Binnen de module bekijken wat hij moet gaan doen. article tonen, categories of juist chapters.
dat derde article is inderdaad overbodig, want aan chapter had ie genoeg gehad. Maar ik heb toch besloten om de artikel bij te gooien zodat je als gebruiker ook ziet waar die chapter aan verbonden is.
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp