True enough, Trouw is daar een voorbeeld van. Grote site die over de schreef ging. Echter, BlackHat-truukjes komen op lange termijn toch wel boven drijven en zullen aangepakt worden, via nieuwe algoritmes of weet ik wat. Hoe vaak zie ik geen keywords buiten de html staan die gewoon meegenomen wordt in de indexering, als Google daar iets beter op let dan zakken die sites hard in de ranking. Advies blijft dat je gewoon goede, nette sites moet maken die zich aan de regels houden en veel inhoud hebben. Je komt vanzelf bovenaan te staan.Blaise schreef op zondag 11 februari 2007 @ 15:15:
[...]
Je moet een redelijk populaire site hebben en het echt bont maken om een penalty te krijgen. Dat krijg je niet niet per ongeluk voor elkaar (tenzij je echt enorm creatief bent). Niet dat ik nu wil gaan aanmoedigen tot cheaten, maar er is geen reden tot paranoia.
Denk dat er sowieso steeds meer en meer gewicht komt te liggen op de keywords in links naar jouw site, op externe sites. Denk dat keywords in links op High-PR sites als redelijk betrouwbaar gezien kunnen worden. In ieder geval betrouwbaarder dan keywords in allerhande tags op de site zelf.
[ Voor 41% gewijzigd door frickY op 12-02-2007 17:12 ]
Verwijderd
ben ik geband ?
http://64.233.183.104/sea...en&q=www.freerollpoker.nl
want links naar mijn site zijn er wel maar mijn site niet
http://64.233.183.104/sea...en&q=www.freerollpoker.nl
want links naar mijn site zijn er wel maar mijn site niet
Er zijn 100'en datacenters van Google, en ze hebben niet allemaal dezelfde data. Geduld. Een nieuwe site kan wel 2 maanden kosten om geïndexeerd te krijgen.
Verwijderd
Het feit dat die freerukpoker met een pop up door de killer komt is voor mij al genoeg reden om die site niet in Google te laten komen...
- We Are Borg
- Registratie: April 2000
- Laatst online: 21:58
Moderator Wonen & Mobiliteit / General Chat
/u/5360/crop65d3c045ca48f_cropped.png?f=community)
Lees nu eens pleaseVerwijderd schreef op maandag 12 februari 2007 @ 22:42:
ben ik geband ?
http://64.233.183.104/sea...en&q=www.freerollpoker.nl
want links naar mijn site zijn er wel maar mijn site niet

Meld je aan bij Google webmaster tools en je kan het zelf bekijken. Penalties worden daar bijgehouden en dan weet je het. Nu is het gokwerk voor ons, aangezien wij ook niet bij Google werken. Alleen zij weten het.
Dit topic is een tips en trucs topic, puur ik ben gebanned vragen stellen heeft geen zin. Jij en alleen jij kan namelijk het antwoord achterhalen door de informatie in dit topic te gebruiken en toe te passen op je eigen website
Succes
We Are Borg schreef op dinsdag 13 februari 2007 @ 03:30:
Nu is het gokwerk voor ons
offtopic:
heerlijke woordkeuze
{signature}
Weet iemand toevallig wat de datum betekent die Google soms laat zien in de SERPs?
Gisteren merkte ik de datum op bij mijn eigen site, maar vandaag staat er geen datum meer bij.
Als ik nu bijvoorbeeld op 'tweakers' zoek, staat er bij tweakers.net ook een datum. Dit is niet de datum van de cache - dat is de 13e ipv de 12e.
Gisteren merkte ik de datum op bij mijn eigen site, maar vandaag staat er geen datum meer bij.
Als ik nu bijvoorbeeld op 'tweakers' zoek, staat er bij tweakers.net ook een datum. Dit is niet de datum van de cache - dat is de 13e ipv de 12e.
tweakers.net/ - 70k - 12 Feb 2007 - Cached - Similar pages
De 12de is hij langs geweest en de 13e is het verwerkt
Maar waarom staat het niet bij alle resultaten?
Ik zit zojuist een beetje door urchin.js heen te spitten en met een sniffer te kijken hoe Analytics precies aan z'n informatie komt. Nu werkt dit vrij eenvoudig (er wordt een GIF opgehaald met als querystring al je informatie), maar ik kan nergens terug vinden hoe de informatie voor de site overlay verzameld wordt.
Nu heb ik het vermoeden dat de site overlay niet het aantal kliks op een bepaalde link weergeeft, maar het aantal kliks vanaf de huidige pagina, naar de pagina waar de link naar verwijst. Ik zie dan ook geen verschillen tussen de waardes voor verschillende links op één pagina die allemaal naar dezelfde pagina wijzen.
Iemand die dit kan bevestigen?
Nu heb ik het vermoeden dat de site overlay niet het aantal kliks op een bepaalde link weergeeft, maar het aantal kliks vanaf de huidige pagina, naar de pagina waar de link naar verwijst. Ik zie dan ook geen verschillen tussen de waardes voor verschillende links op één pagina die allemaal naar dezelfde pagina wijzen.
Iemand die dit kan bevestigen?
Het gaat inderdaad om het aantal kliks vanaf de huidige naar de gelinkte pagina. Alle links op die pagina die naar dezelfde pagina linken geven hetzelfde getal weer.
Het zijn dezelfde getallen als in Inhoudsoptimalisatie -> Navigatieanalyse -> Alle navigatie
Het zijn dezelfde getallen als in Inhoudsoptimalisatie -> Navigatieanalyse -> Alle navigatie
Beetje misleidend dan. Het wekt de indruk dat je op deze manier kunt vergelijken welke link op een pagina het meest geklikt wordt (en waar je dus het beste je promotiemateriaal kan zetten).André schreef op donderdag 15 februari 2007 @ 10:55:
Het gaat inderdaad om het aantal kliks vanaf de huidige naar de gelinkte pagina. Alle links op die pagina die naar dezelfde pagina linken geven hetzelfde getal weer.
Het zijn dezelfde getallen als in Inhoudsoptimalisatie -> Navigatieanalyse -> Alle navigatie
Er zat een tijd geleden zelfs een bug in: als je 3 links naar dezelfde pagina had staan werden die getallen bij elkaar opgeteld

Verwijderd
Eff een n00b vraagje misch, maar here goes ..
De metatag keywords is redelijk achterhaald naar het schijnt, maar toch is deze niet geheel onbelangrijk en nooit verkeerd om toch toe te voegen ..
Nu vroeg ik me dus af als je een gecombineerd keyword hebt, bijvoorbeeld: gecombineerd keyword (origineel eh)
ziet mijn metatag keywords er dan als volgt uit?
<meta name="keywords" content="gecombineerd keyword">
of
<meta name="keywords" content="gecombineerd, keyword">
of een combinatie van beide?
De metatag keywords is redelijk achterhaald naar het schijnt, maar toch is deze niet geheel onbelangrijk en nooit verkeerd om toch toe te voegen ..
Nu vroeg ik me dus af als je een gecombineerd keyword hebt, bijvoorbeeld: gecombineerd keyword (origineel eh)
ziet mijn metatag keywords er dan als volgt uit?
<meta name="keywords" content="gecombineerd keyword">
of
<meta name="keywords" content="gecombineerd, keyword">
of een combinatie van beide?
Ik zou:
gebruiken.
HTML:
1
| <meta name="keywords" content="gecombineerd, keyword, gecombineerd keyword"> |
gebruiken.
Waarom zou "gecombineerd, keyword" niet voldoende zijn eigenlijk? Ik ga nu even uit van Google, maar als ik zoek op "gecombineerd keyword", dan splitst Google de keywords dmv de spaties, dus is het een gecombineerde zoekactie. Dan bied het combineren van twee keywords toch niet heel veel voordelen?
Wellicht om hoger te scoren als er gezocht wordt op "gecombineerd AND keyword".
--- Systeembeheerdersdag --- Voedselintolerantie ---
SE's kijken niet alleen naar welke trefwoorden voorkomen, maar ook in welke volgorde.
Bij het zoeken naar "huisje boompje beestje" zullen paginas met exact die combinatie hoger staan dan sites met "boompje beestje huisje" (even pagerank en andere invloeden buiten beschouwing gelaten).
En een match op een zin(deel) telt weer zwaarder dan op 2 trefwoorden. De kans dat een pagina een exacte woordcombinatie bevat waar op gezocht wordt is namelijk kleiner dan de kans dat een pagina de gezochte woorden op willekeurige plaatsen bevat.
Bij het zoeken naar "huisje boompje beestje" zullen paginas met exact die combinatie hoger staan dan sites met "boompje beestje huisje" (even pagerank en andere invloeden buiten beschouwing gelaten).
En een match op een zin(deel) telt weer zwaarder dan op 2 trefwoorden. De kans dat een pagina een exacte woordcombinatie bevat waar op gezocht wordt is namelijk kleiner dan de kans dat een pagina de gezochte woorden op willekeurige plaatsen bevat.
[ Voor 30% gewijzigd door frickY op 15-02-2007 23:47 ]
Verwijderd
Wat doe ik fout? als ik nu via google naar mijn site gaat kom ik op eens pagina ergens diep achterin het forum waar weining te zien is.We Are Borg schreef op dinsdag 13 februari 2007 @ 03:30:
[...]
Lees nu eens please
Meld je aan bij Google webmaster tools en je kan het zelf bekijken. Penalties worden daar bijgehouden en dan weet je het. Nu is het gokwerk voor ons, aangezien wij ook niet bij Google werken. Alleen zij weten het.
Dit topic is een tips en trucs topic, puur ik ben gebanned vragen stellen heeft geen zin. Jij en alleen jij kan namelijk het antwoord achterhalen door de informatie in dit topic te gebruiken en toe te passen op je eigen website
Succes
(plz dit keer geen reacties van lees het forum , gebruik search enzo, want dat heb ik al gedaan)
Verwijderd
ik heb een pagina waarop ik nieuwsberichten wil plaatsen als aanvulling op de bestaande content. Alleen vraag ik me het volgende af. Het is algemeen bekend dat Google niet zo gek is op content die van andere pagina's gekopieerd is. Tenminste als Google dezeflde content op meerdere pagina's aantreft is dit slecht voor de positie van die pagina's. Maar hoe zit het dan met nieuwsberichten?
Als ik namelijk nieuwsberichten plaats zal ik de meeste hiervan via internet bij elkaar harken en dan op mijn pagina plaatsen. En dan kopieer ik ze dus inderdaad van andere pagina's en plaats ze op mijn eigen pagina. Is dat dan niet heel erg slecht voor de Google ranking? Leek mij wel, maar veel andere pagina's doen dit toch dus nou weet ik het eigenlijk niet meer. Is dat kopieren van nieuwsberichten nou erg slecht voor mijn ranking of valt dat allemaal wel mee?
Als ik namelijk nieuwsberichten plaats zal ik de meeste hiervan via internet bij elkaar harken en dan op mijn pagina plaatsen. En dan kopieer ik ze dus inderdaad van andere pagina's en plaats ze op mijn eigen pagina. Is dat dan niet heel erg slecht voor de Google ranking? Leek mij wel, maar veel andere pagina's doen dit toch dus nou weet ik het eigenlijk niet meer. Is dat kopieren van nieuwsberichten nou erg slecht voor mijn ranking of valt dat allemaal wel mee?
Kwestie van redigeren / van redactioneel commentaar voorzien lijkt me.Verwijderd schreef op maandag 19 februari 2007 @ 10:42:
ik heb een pagina waarop ik nieuwsberichten wil plaatsen als aanvulling op de bestaande content. Alleen vraag ik me het volgende af. Het is algemeen bekend dat Google niet zo gek is op content die van andere pagina's gekopieerd is. Tenminste als Google dezeflde content op meerdere pagina's aantreft is dit slecht voor de positie van die pagina's. Maar hoe zit het dan met nieuwsberichten?
Als ik namelijk nieuwsberichten plaats zal ik de meeste hiervan via internet bij elkaar harken en dan op mijn pagina plaatsen. En dan kopieer ik ze dus inderdaad van andere pagina's en plaats ze op mijn eigen pagina. Is dat dan niet heel erg slecht voor de Google ranking? Leek mij wel, maar veel andere pagina's doen dit toch dus nou weet ik het eigenlijk niet meer. Is dat kopieren van nieuwsberichten nou erg slecht voor mijn ranking of valt dat allemaal wel mee?
1 op 1 overnemen is zowiezo not done / vaak verboden.
--- Systeembeheerdersdag --- Voedselintolerantie ---
We gaan het niet nog een keer zeggen, want je wilt blijkbaar niet luisteren: WACHTEN!!!!!Verwijderd schreef op zaterdag 17 februari 2007 @ 12:04:
[...]
Wat doe ik fout? als ik nu via google naar mijn site gaat kom ik op eens pagina ergens diep achterin het forum waar weining te zien is.
(plz dit keer geen reacties van lees het forum , gebruik search enzo, want dat heb ik al gedaan)
Je homepage is de 16de opnieuw gespiderd, dus de volgende ronde wordt alles van een niveau dieper gespiderd. Wacht daar nou eens op en heb geduld, het word vervelend zo.
Je site is nog niets, onbekend, heeft bijna geen inkomende links, je staat dus onderaan de wachtrij en dat kost tijd.
Je bent dan in feite gewoon een scraper en daar zul je het niet mee halen. Het is wel zo dat als je de content goed aanbied mensen naar je toe gaan linken en je een bron wordt voor andere mensen om nieuws vandaan te halen. Dan ben je geen scraper meer maar een nieuwsverzamelsites, de grens daartussen is dunVerwijderd schreef op maandag 19 februari 2007 @ 10:42:
ik heb een pagina waarop ik nieuwsberichten wil plaatsen als aanvulling op de bestaande content. Alleen vraag ik me het volgende af. Het is algemeen bekend dat Google niet zo gek is op content die van andere pagina's gekopieerd is. Tenminste als Google dezeflde content op meerdere pagina's aantreft is dit slecht voor de positie van die pagina's. Maar hoe zit het dan met nieuwsberichten?
Als ik namelijk nieuwsberichten plaats zal ik de meeste hiervan via internet bij elkaar harken en dan op mijn pagina plaatsen. En dan kopieer ik ze dus inderdaad van andere pagina's en plaats ze op mijn eigen pagina. Is dat dan niet heel erg slecht voor de Google ranking? Leek mij wel, maar veel andere pagina's doen dit toch dus nou weet ik het eigenlijk niet meer. Is dat kopieren van nieuwsberichten nou erg slecht voor mijn ranking of valt dat allemaal wel mee?
Daarbij plaatst ik altijd mijn kanttekeningen bij dit soort copy/paste sites, zorg er gewoon voor dat je beirchten niet 1 op 1 overneemt maar dat je ze wat diepgang geeft door kennis toe toe voegen.
Of gebruik alleen de intro en link naar het complete verhaal + website.
Ik mag hopen dat je er wel een bron bij vermeld?
Ik mag hopen dat je er wel een bron bij vermeld?
Verwijderd
Hoe zit het eigenlijk met de gemiddelde herkomst van de bezoekers bij de meeste sites?
Zelf kom ik hierop:
Direct url intikken/bookmarks 88%
Links via andere sites 8%
SERP 4% (Waarvan 99% Google)
Voor mijn gevoel laat ik nog een mega groot bereik aan potentiële bezoekers liggen.
Linktraffic blijft vrij constant, alleen SERP results zijn laatste 6 maanden vertienvoudigd (tot nog heel weinig op het totaal) dankzij de kennis van grotendeels dit topic.
Zelf kom ik hierop:
Direct url intikken/bookmarks 88%
Links via andere sites 8%
SERP 4% (Waarvan 99% Google)
Voor mijn gevoel laat ik nog een mega groot bereik aan potentiële bezoekers liggen.
Linktraffic blijft vrij constant, alleen SERP results zijn laatste 6 maanden vertienvoudigd (tot nog heel weinig op het totaal) dankzij de kennis van grotendeels dit topic.
Daar is werkelijk niets over te zeggen, dat ligt aan duizenden factoren. Ik ken websites die 90% uit CPC halen, maar ook sites die 90% via de SERPS komen.
Beetje afhankelijk natuurlijk in wat voor een site je hebt. En hoeveel bezoekers.Verwijderd schreef op dinsdag 20 februari 2007 @ 13:18:
Hoe zit het eigenlijk met de gemiddelde herkomst van de bezoekers bij de meeste sites?
Zelf kom ik hierop:
Direct url intikken/bookmarks 88%
Links via andere sites 8%
SERP 4% (Waarvan 99% Google)
Voor mijn gevoel laat ik nog een mega groot bereik aan potentiële bezoekers liggen.
Linktraffic blijft vrij constant, alleen SERP results zijn laatste 6 maanden vertienvoudigd (tot nog heel weinig op het totaal) dankzij de kennis van grotendeels dit topic.
Maar goed.
Direct Url: 39%
Search Enigine: 59% ( ongv. 90% google )
Links: 2%
Unique Bezoekers: 90.000 per maand
Programmer - an organism that turns coffee into software.
"direct URL intikken/bookmarks" is m.i. achterhaald, tot op zekere hoogte.. Althans, als ik m'n eigen site en stats bekijk dan komen veel mensen binnen op pagina's met een URL die weinig mensen in zullen tikken. Ik gok dat het eerder komt uit IM, e-mail clients en mensen die surfen via een (AV-)proxy waarbij de referrer wordt verwijderd.Verwijderd schreef op dinsdag 20 februari 2007 @ 13:18:
Hoe zit het eigenlijk met de gemiddelde herkomst van de bezoekers bij de meeste sites?
Zelf kom ik hierop:
Direct url intikken/bookmarks 88%
Je kunt het misschien ook wel zien: als mensen direct een URL intikken, dan zal dat veelal de homepage betreffen. In mijn geval betreffen het echter vooral deeplinks.
Het zou op zich nog wel aardig zijn als je daar (IM/e-mail) ook inzicht in zou kunnen krijgen, maar dan zouden browsers speciale referrers moeten meesturen. from e-mail/from instant messaging/from bookmark oid. Maar dan zouden de browsers zaken moeten doorgeven waar de eindgebruiker zelf eigenlijk niets aan heeft, dus dat zal niet gaan gebeuren.
Verwijderd
Als iemand een maat via MSN of mail tipt over een site zal dat als directe bezoeker geteld worden ja.
Toch zie ik liever bezoekers via links, zo'n tip is eenmalig, maar via links kun je jaren later nog visitors vanuit zo'n tip krijgen.
Hoe dan ook zelfs Google vind nog steeds dat ik te weinig inlinks heb aangezien mijn PR niet boven de 2,8 komt.
Misschien haalt de verse url op nu.nl naar mijn site de boel nog wat omhoog
Toch zie ik liever bezoekers via links, zo'n tip is eenmalig, maar via links kun je jaren later nog visitors vanuit zo'n tip krijgen.
Hoe dan ook zelfs Google vind nog steeds dat ik te weinig inlinks heb aangezien mijn PR niet boven de 2,8 komt.
Misschien haalt de verse url op nu.nl naar mijn site de boel nog wat omhoog
Verwijderd
Mensen vertellen me dat ik mijn pagina's in of NL of UK moet zetten, hoe zal ik de structuur aanpassen, ik wil de namen van de NL pagina's gelijk houden.
Hoe kan ik het beste mijn UK pagina files hernoemen?
Een 1 erachter, uk eraanplakken?
En hoe zouden jullie de keuze maken: Op elke pagina een vlaggetje van de andere taal die naar die pagina in de andere taal verwijst of op elke pagina 2 vlaggetjes die naar de main index in die taal verwijst?
Heb inmiddels wel geleerd dat als je pagina's gaat herschrijven je op voorhand een structuur moet maken omdat het anders 1 grote teringbende wordt.
Hoe kan ik het beste mijn UK pagina files hernoemen?
Een 1 erachter, uk eraanplakken?
En hoe zouden jullie de keuze maken: Op elke pagina een vlaggetje van de andere taal die naar die pagina in de andere taal verwijst of op elke pagina 2 vlaggetjes die naar de main index in die taal verwijst?
Heb inmiddels wel geleerd dat als je pagina's gaat herschrijven je op voorhand een structuur moet maken omdat het anders 1 grote teringbende wordt.
Je ziet steeds vaker van die "share it"-linkjes bij artikelen staan, die dan de pagina direct submitten naar digg, del.icio.us, red-it en de hele reutemeteut. Heeft dat nog een positieve invloed? Ik ben eigenlijk van mening dat als men een pagina interessant genoeg vindt, en men gebruikt bijv. del.icio.us, dan heeft de bezoeker zelf al een knop in zijn browser om de huidige pagina aan zijn online bookmarks toe te voegen, dus die "kant en klaar"-linkjes voegen dan weinig toe. Of zijn mensen zo lui en/of moeten ze even op het idee gebracht worden om dat ook daadwerkelijk te doen?
Sites als Digg, del.icio.us, e.d. zullen als link naar jouw site waarschijnlijk rel="nofollow" gebruiken omdat er geen zekerheid is dat jouw site spam of ham is. Ik heb het niet gecontroleerd maar verwacht het wel. Spammers zouden anders tig sites aan die social bookmarkers kunnen toevoegen om hun pagerank de hoogte in te werken.Fuzzillogic schreef op dinsdag 20 februari 2007 @ 15:44:
Je ziet steeds vaker van die "share it"-linkjes bij artikelen staan, die dan de pagina direct submitten naar digg, del.icio.us, red-it en de hele reutemeteut. Heeft dat nog een positieve invloed? Ik ben eigenlijk van mening dat als men een pagina interessant genoeg vindt, en men gebruikt bijv. del.icio.us, dan heeft de bezoeker zelf al een knop in zijn browser om de huidige pagina aan zijn online bookmarks toe te voegen, dus die "kant en klaar"-linkjes voegen dan weinig toe. Of zijn mensen zo lui en/of moeten ze even op het idee gebracht worden om dat ook daadwerkelijk te doen?
Digg en de zijnen leveren wel bezoekers op, heel veel bezoekers zelfs als jouw site flink wordt gediggt. Artikelen over dit fenomeen geven vaak wel aan dat het vluchtig verkeer is, vaak niet geïnteresseerd in de rest van je site.
Ah, inderdaad.. del.icio.us:
Desalnietemin levert het zo nu en dan een bezoeker op, en kleedt het de (in mijn geval vaak redelijk kale) pagina wat aan.
XHTML:
1
| <meta name="robots" content="noarchive,nofollow,noindex"/> |
Desalnietemin levert het zo nu en dan een bezoeker op, en kleedt het de (in mijn geval vaak redelijk kale) pagina wat aan.
offtopic:
En waarom snapt de GoT syntax highlighter geen XHTML?
En waarom snapt de GoT syntax highlighter geen XHTML?
Fuzzillogic schreef op dinsdag 20 februari 2007 @ 16:12:
offtopic:
En waarom snapt de GoT syntax highlighter geen XHTML?
offtopic:
De meeste servers verzenden XHTML als text/HTML geloof ik + IE slikt het ook niet.
De meeste servers verzenden XHTML als text/HTML geloof ik + IE slikt het ook niet.
Gebruik HTML of XML:Fuzzillogic schreef op dinsdag 20 februari 2007 @ 16:12:
Ah, inderdaad.. del.icio.us:
XHTML:
1 <meta name="robots" content="noarchive,nofollow,noindex"/>
Desalnietemin levert het zo nu en dan een bezoeker op, en kleedt het de (in mijn geval vaak redelijk kale) pagina wat aan.
offtopic:
En waarom snapt de GoT syntax highlighter geen XHTML?
HTML:
1
| <meta name="robots" content="noarchive,nofollow,noindex"> |
XML:
1
| <meta name="robots" content="noarchive,nofollow,noindex"/> |
En wat heeft het MIME type van XHTML met de syntax highlighting van React te maken..?moozzuzz schreef op dinsdag 20 februari 2007 @ 17:21:
[...]
offtopic:
De meeste servers verzenden XHTML als text/HTML geloof ik + IE slikt het ook niet.
SE's: 40%Verwijderd schreef op dinsdag 20 februari 2007 @ 13:18:
Hoe zit het eigenlijk met de gemiddelde herkomst van de bezoekers bij de meeste sites?
Zelf kom ik hierop:
Direct url intikken/bookmarks 88%
Links via andere sites 8%
SERP 4% (Waarvan 99% Google)
Voor mijn gevoel laat ik nog een mega groot bereik aan potentiële bezoekers liggen.
Linktraffic blijft vrij constant, alleen SERP results zijn laatste 6 maanden vertienvoudigd (tot nog heel weinig op het totaal) dankzij de kennis van grotendeels dit topic.
Direct: 35%
Referral: 24%
Op ~340.000 bezoekers
Maar is, inderdaad, volledig afhankelijk van het type site.
[ Voor 4% gewijzigd door frickY op 21-02-2007 17:06 ]
En dat was van heel korte duur. Na iets van een dag een paar pagina's opgehaald te hebben is MSNbot er weer helemaal mee gestopt. Ondertussen heb ik deze reactie terug van MS:bartvb schreef op vrijdag 09 februari 2007 @ 14:27:
Heb die regels weggehaald en ik zie MSNbot nu weer. Nog niet heel fanatiek (1 request per 5 minuten ofzo) maar hij is iig weer actief.
Dat was op de 12e, heel snel is dat Specialist Team nietHello Bart,
Thank you for writing to Live Search Technical Support. This is Joan and I understand that you do not want the Live Search page to index the media "images" on your site. I apologize for the inconvenience this may have caused you.
I understand the importance of answering your concern. Moreover, I am forwarding your email to the Live Search Product Specialist Team to assist your concern as they are equipped to handle this matter.
You are a valuable customer to MSN and we are glad to give you consistent and effective service. Thank you for your patience and understanding on this matter.
Sincerely,
Joan
Live Search Technical Support
Iemand enig idee wat hier aan de hand kan zijn? Ik zie Google en Inktomi (en zelfs Ilse) meerdere keren per minuut voorbij komen

Een site die ik gemaakt heeft stond met het keyword 'sinterklaas' rond plek 10 en nu ineens is ie rond de 100 pas te vinden. Op alle andere keywords waar we in de top 10 stonden hetzelfde liedje... ik vermoed dat ik een penalty heb gekregen maar hoe kom ik er achter waarom? Ik heb geen vieze truukjes gebruikt ofzo namelijk...?
Een penalty hoeft het niet te zijn, het kan ook zijn dat je een bepaald filter getriggered hebt die je daarom lager positioneert. Als bijvoorbeeld 5 sites van je dezelfde content hebben wordt er 4 weggefilterd, het is niet zo dat die dan een penalty krijgen.
Dit is de enige site die we hebben met deze content dus dat is het niet nee. Kan je niet bij google navragen oid waardoor dit komt?
Nope, now way, when pigs fly, never
Hier doet Google nooit uitspraak over, je kunt ze dus niet even simpel vragen 
Om welke url gaat het?
Om welke url gaat het?
www.sinterklaasgedichtenboek.nl gaat het om
Goed, haal de sessie id's eens uit de url:
http://www.google.nl/sear...sgedichtenboek.nl/+sessid
Daarnaast zijn veel titels hetzelfde?
http://www.google.nl/sear...nterklaasgedichtenboek.nl
http://www.google.nl/sear...sgedichtenboek.nl/+sessid
Daarnaast zijn veel titels hetzelfde?
http://www.google.nl/sear...nterklaasgedichtenboek.nl
[ Voor 31% gewijzigd door André op 22-02-2007 13:23 ]
De session id's zijn er uit, maar hoe kan het dat de site al zo'n half jaar in de top 10 zweeft en ineens dropt naar rond de 100 ?
SE's updaten hun algoritme's continue, en het internet is constant in beweging.
Verwijderd
Ik heb hier ook een visie over, ik krijg bij pagina's op mijn site steeds meer het idee dat wanneer deze veel beaocht worden ze ook hoger gaan ranken, net alsof Google kijkt hoeveel mensen er op je url klikken en dan redeneert: veel kliks zal wel een nuttige pagina zijn.
Dus hoe hoger je rankt, des te makkelijker kom je aan de top.
Misschien daarom dat je sinterklaaspagina pas weer in oktober populair gaat worden.
Zelf was ik in november/december ook slecht in Google te vinden, ondanks dat ik in die periode verschrikkelijk aan het optimaliseren was geslagen.
Half januari kwam ik beter dan ooit terug in de Google results, dus misschien moet je geduld hebben.
Dus hoe hoger je rankt, des te makkelijker kom je aan de top.
Misschien daarom dat je sinterklaaspagina pas weer in oktober populair gaat worden.
Zelf was ik in november/december ook slecht in Google te vinden, ondanks dat ik in die periode verschrikkelijk aan het optimaliseren was geslagen.
Half januari kwam ik beter dan ooit terug in de Google results, dus misschien moet je geduld hebben.
Bij Google heb ik dit nog niet gezien, maar bij Ilse heb ik inderdaad zien gebeuren dat soms clicks op links worden geregistreerd.
Google heeft natuurlijk ook aardig wat informatie als de site Analytics gebruikt.
Google heeft natuurlijk ook aardig wat informatie als de site Analytics gebruikt.
Klikt op zoekresultaten worden bij google wel degelijk gemeten, je ziet dit terug in je Webmaster Tools. Het is wel zo dat dit alleen zo werkt bij mensen die ingelogd zijn terwijl ze iets zoeken met Google (maar dat is al het geval als je adsense, gmail of een andere google dienst gebruikt).
Voor zover ik weet worden die clicks niet gebruikt om de ranking aan te passen.
Nog steeds geen MSNbot op mijn site trouwens. Zijn er nog speciale trucs nodig om MSNbot aan de praat te krijgen? Moet ik zwarte kaarsen branden en geitenbloed drinken oid?
Voor zover ik weet worden die clicks niet gebruikt om de ranking aan te passen.
Nog steeds geen MSNbot op mijn site trouwens. Zijn er nog speciale trucs nodig om MSNbot aan de praat te krijgen? Moet ik zwarte kaarsen branden en geitenbloed drinken oid?
Verwijderd
MSN is een mak botje, deze maand pas 450x langs geweest tegenover 39.000x de Googlebot en 8.500x Inktomi (Yahoo?)
Het zou ook de omgekeerde wereld zijn. Sites die op pagina 1 staan stijgen alleen maar omdat ze veel meer clicks krijgen omdat ze op pagina 1 staan. Er is echter wel een registratie van clicks. Het schijnt maar dat is speculatie dat er wordt gekeken of je terugkomt naar de results-pagina met de backknop in de browser oid. Zodoende kan Google kijken hoelang je op een pagina hebt gekeken en daaruit afleiden of die pagina interessant was. Dit zouden ze wel kunnen verwerken met enig nut.bartvb schreef op donderdag 22 februari 2007 @ 22:57:
Klikt op zoekresultaten worden bij google wel degelijk gemeten, je ziet dit terug in je Webmaster Tools. Het is wel zo dat dit alleen zo werkt bij mensen die ingelogd zijn terwijl ze iets zoeken met Google (maar dat is al het geval als je adsense, gmail of een andere google dienst gebruikt).
Voor zover ik weet worden die clicks niet gebruikt om de ranking aan te passen.
Bekijk de source eens van die resultaten en vertel mij dan eens hoe ze die clicks meten?
Ilse lijkt randomgewijs een "onclick"-event op de resultaten bij te geven waarmee ze een klik tellen.
Bij Google en MSN heb ik dit nog niet zien gebeuren.
//Edit
Herstel, het is niet eensin een onclick, het gewoon de href zelf;
Bijv; http://clicks.ilse.nl/reg...A%2F%2Fwww.sportone.nl%2F
Met daarin het woord waarop is gezocht, het woordt waarop het resultaat is gematched, en de URL waarnaar je vervolgens wordt geredirect.
Bij Google en MSN heb ik dit nog niet zien gebeuren.
//Edit
Herstel, het is niet eensin een onclick, het gewoon de href zelf;
Bijv; http://clicks.ilse.nl/reg...A%2F%2Fwww.sportone.nl%2F
Met daarin het woord waarop is gezocht, het woordt waarop het resultaat is gematched, en de URL waarnaar je vervolgens wordt geredirect.
[ Voor 53% gewijzigd door frickY op 23-02-2007 09:21 ]
Source is nogal een puinhoop en ook niet heel relevant. Als ik op tweakers zoek dan is de link naar de eerste hit (tweakers.net) iets als:
http://www.google.com/url...g2=EbIqo5KEINHaffSh4PZGHA
Waarmee ze dus prima kunnen meten waar ik op klik. Verder staat er in mijn webmaster tools een overzicht met "Top search query clicks are the top queries that directed traffic to your site (based on the number of clicks to your pages).".
Net overigens antwoord van MSN mbt mijn exclusion van MSNbot-media in robots.txt:
http://www.google.com/url...g2=EbIqo5KEINHaffSh4PZGHA
Waarmee ze dus prima kunnen meten waar ik op klik. Verder staat er in mijn webmaster tools een overzicht met "Top search query clicks are the top queries that directed traffic to your site (based on the number of clicks to your pages).".
Net overigens antwoord van MSN mbt mijn exclusion van MSNbot-media in robots.txt:
Live Search does not currently index images. Image Search indexing and results are provided by our partner, Picsearch, using the Psbot crawler. For more information on restricting Psbot, please visit http://search.msn.com/doc..._RestrictAccessToSite.htm.
You can view additional information regarding Psbot and other Picsearch concerns at http://www.picsearch.com/menu.cgi?item=Picsearch.
Lijkt me sterk dat ze resultaten op kliks baseren. Ik geloof wel dat ze dat doen voor de kliks op de ads: daarvan wordt wel bijgehouden of een bezoeker na het zien van de landing page gelijk terugklikt naar de SERPs
[ Voor 6% gewijzigd door Millennyum op 23-02-2007 10:02 ]
Het lijkt mij sterk dat ze deze volledig buiten beschouwing latenMillennyum schreef op vrijdag 23 februari 2007 @ 09:53:
Lijkt me sterk dat ze resultaten op kliks baseren. Ik geloof wel dat ze dat doen voor de kliks op de ads: daarvan wordt wel bijgehouden of een bezoeker na het zien van de landing page gelijk terugklikt naar de SERPs
Google wil de meest relevante resultaten bovenaan hebben staan. Als ze een site bovenaan hebben staan maar niemand klikt er op, is deze blijkbaar niet zo relevant als was vastgesteld door het algoritme, en is het verstandig deze weer naar beneden te degraderen.
Ik heb dat nog nooit meegemaakt. Doen ze dat altijd bij jou?Source is nogal een puinhoop en ook niet heel relevant. Als ik op tweakers zoek dan is de link naar de eerste hit (tweakers.net) iets als:
http://www.google.com/url...g2=EbIqo5KEINHaffSh4PZGHA
Yup, iig wel als ik ingelogd ben op een Google Account. Ik heb het (vroeger) ook wel eens gezien als ik niet ingelogd was, volgensmij zelfs in de pre-Google Accounts tijd. Dan kreeg je eens in de zoveel tijd een berg van dit soort Google redirects ipv directe links naar de sites.
Probleem van het gebruiken van dit soort dingen is dat blackhats daar dan natuurlijk meteen weer misbruik van gaan maken
Aan de andere kant zou je het idd vrij goed de andere kant op kunnen gebruiken. Als een bepaalde hoog scorende link vrijwel nooit aangeklikt wordt dan kan je deze een minder hoge score toekennen. Geen idee of Google dat doet, ik heb er iig nog nooit iets over gehoord.
Probleem van het gebruiken van dit soort dingen is dat blackhats daar dan natuurlijk meteen weer misbruik van gaan maken
Verwijderd
Webmaster tools laat idd ook keurig zien via welke search terms er het meest op je site wordt geklikt.
Ook las ik ooit ergens iemand die elke dag 20x inbelde om telkens een ander IP adres te krijgen en zo op zijn site klikte via een zoekwoord wat hij belangrijk vond.
Zodra hij een vast IP adres kreeg en die truc niet meer werkte zakte hij een stuk terug uit de ranking
Ook las ik ooit ergens iemand die elke dag 20x inbelde om telkens een ander IP adres te krijgen en zo op zijn site klikte via een zoekwoord wat hij belangrijk vond.
Zodra hij een vast IP adres kreeg en die truc niet meer werkte zakte hij een stuk terug uit de ranking
Ik heb een paar probleempjes:
- Mijn eigen site (www.mvdvlist.nl) is al een jaar ongewijzigd, en heeft ook al een jaar een pagerank van 1. Da's niet eens zo heel erg, veel spannends staat er niet op. Maar ik begrijp niet goed waar dat door komt. Moet ik vaker een link spammen ofzo, of kan ik iets anders doen om mijn pagerank op 2 of hoger te krijgen?
- Nu heeft iemand mij gevraagd om www.mpv-center.nl aanpasbaar te maken, en bij voorkeur ook beter doorzoekbaar voor google. Hij moest er (helaas) wel hetzelfde uit blijven zien. Ik ben dus aan de slag gegaan met Joomla, en heb www.mpv-center.nl/joomla gemaakt. Hij is bijna klaar (nog even de laatste puntjes op de i), maar zodra die klaar is wil ik graag zo min mogelijk aanpassen. Bij voorkeur zou ik een mooie redirect in /index.php naar /joomla geven, of zoiets in de .htaccess zetten. Ga ik daar strafpunten voor Google voor krijgen?
- Google Webmaster Tools zegt dat mijn sites in november voor het laatst gecrawld zijn. Mijn access log zegt iets anders. Wanneer mag ik verwachten dat Google mijn site opnieuw indexeert? Is er iets wat ik kan doen om dat te versnellen, bijv sitemap uploaden?
Ja, ik weet dat een iframe met de auto's niet handig is. Uiteraard ga ik daar nog wat op verzinnen, maar dat gaat me minstens 2 dagen programmeertijd kosten, tijd die ik op het moment niet echt heb
- Mijn eigen site (www.mvdvlist.nl) is al een jaar ongewijzigd, en heeft ook al een jaar een pagerank van 1. Da's niet eens zo heel erg, veel spannends staat er niet op. Maar ik begrijp niet goed waar dat door komt. Moet ik vaker een link spammen ofzo, of kan ik iets anders doen om mijn pagerank op 2 of hoger te krijgen?
- Nu heeft iemand mij gevraagd om www.mpv-center.nl aanpasbaar te maken, en bij voorkeur ook beter doorzoekbaar voor google. Hij moest er (helaas) wel hetzelfde uit blijven zien. Ik ben dus aan de slag gegaan met Joomla, en heb www.mpv-center.nl/joomla gemaakt. Hij is bijna klaar (nog even de laatste puntjes op de i), maar zodra die klaar is wil ik graag zo min mogelijk aanpassen. Bij voorkeur zou ik een mooie redirect in /index.php naar /joomla geven, of zoiets in de .htaccess zetten. Ga ik daar strafpunten voor Google voor krijgen?
- Google Webmaster Tools zegt dat mijn sites in november voor het laatst gecrawld zijn. Mijn access log zegt iets anders. Wanneer mag ik verwachten dat Google mijn site opnieuw indexeert? Is er iets wat ik kan doen om dat te versnellen, bijv sitemap uploaden?
Ja, ik weet dat een iframe met de auto's niet handig is. Uiteraard ga ik daar nog wat op verzinnen, maar dat gaat me minstens 2 dagen programmeertijd kosten, tijd die ik op het moment niet echt heb
Waarom wil je 'm redirecten? Waarom vervang je niet gewoon de oude files door je nieuwe?MBV schreef op vrijdag 23 februari 2007 @ 16:28:[...]Ik ben dus aan de slag gegaan met Joomla, en heb www.mpv-center.nl/joomla gemaakt. Hij is bijna klaar (nog even de laatste puntjes op de i), maar zodra die klaar is wil ik graag zo min mogelijk aanpassen. Bij voorkeur zou ik een mooie redirect in /index.php naar /joomla geven, of zoiets in de .htaccess zetten. Ga ik daar strafpunten voor Google voor krijgen?
Omdat hij nu werkt
en Joomla alles hardcoded richting de root-url heeft. Ik ben ook bang dat er een paar linkjes in de content staan die daarna stuk zijn. Als het voor Google&co niet uitmaakt, heb ik dus het liefste redirecten, vandaar dat ik het vraag.
Bijkomend voordeel: de oude index van google doet het nog
Bijkomend voordeel: de oude index van google doet het nog
Is er niet een manier om te checken of iemand je bij Google heeft aangegeven voor foutje trucjes ofzo? Want ik vind het zo onbegrijpelijk dat die sinterklaas site ineens pas rond positie 100 zit, in plaats van ~5.
Wat snapte je daar niet aan? Het kan gewoon niet. Misschien nog even een tijdje geduld, en kom je vanzelf weer bovendrijven...André schreef op donderdag 22 februari 2007 @ 12:46:
Nope, now way, when pigs fly, neverHier doet Google nooit uitspraak over, je kunt ze dus niet even simpel vragen
Om welke url gaat het?
Rail Away!
Daarnaast...het is in mijn optiek niet zo vreemd dat een site over sinterklaasgedichten een maand of 2,5 na sinterklaas minder populair is.
Toch?
Toch?
Engineering is like Tetris. Succes disappears and errors accumulate.
Verwijderd
Weet iemand mischien een online tutorial voor het toepassen van een mod_rewrite op een website (+ CMS) welke geschreven is in ASP?
Draait hij op een IIS server? Dan zit je vast aan een ISAPI Rewrite module zoals op www.isapirewrite.com
Er zijn gratis alternatieven voor mod_rewrite in IIS. Ik kan je helaas geen naam/link geven, te lang geleden, maar ze zijn er wel. Hoe betrouwbaar ze zijn weet ik niet, in de praktijk nooit gebruikt.
Ik heb zelf ook ISAPI_Rewrite gebruikt. Bij een beetje goede hoster zit dit gewoon inbegrepen.
Er is ook gewoon een Lite versie van te downloaden, die je gratis kan gebruiken.
Vervolgens plaats je een httpd.ini bestand. Daar staat in mijn geval zo een regel in:
RewriteRule /([^/]+)~([^/]+).htm /index.asp\?pagina_id=$1&titel=$2 [I,L]
Verder heb ik het CMS aangepast, zodat titels van pagina's automatisch in de URL terecht komen. Let daarbij wel op dat je sommige tekens dient te vervangen.
Het is echt een zeer grote meerwaarde voor je positie.
Er is ook gewoon een Lite versie van te downloaden, die je gratis kan gebruiken.
Vervolgens plaats je een httpd.ini bestand. Daar staat in mijn geval zo een regel in:
RewriteRule /([^/]+)~([^/]+).htm /index.asp\?pagina_id=$1&titel=$2 [I,L]
Verder heb ik het CMS aangepast, zodat titels van pagina's automatisch in de URL terecht komen. Let daarbij wel op dat je sommige tekens dient te vervangen.
Het is echt een zeer grote meerwaarde voor je positie.
Pay peanuts get monkeys !
Verwijderd
Ik heb het al wel eens voorbij zien komen in dit topic, maar ik kan het antwoord helaas niet meer terugvinden...
Ik heb een nl domein waaraan ik een website heb gekoppeld die reeds online staat. Ik heb sindskort echter ook het .eu en .com domein geregistreerd, zodat eventuele bezoekers die het domein intypen en per ongeluk eu of com gebruiken toch naar de nl pagina gestuurd kunnen worden. Mijn vraag is nu hoe ik dit doorsturen het beste kan doen. Ik wil namelijk uiteraard niet dat het doorsturen mijn positie in de zoeklijst schaadt. Lijkt mij (en heb het ook wel eens gelezen) dat Google het direct doorlinken van het ene domein naar het andere als spam kan zien.
Kan iemand me vertellen hoe ik mijn bezoekers effectief door kan sturen zonder dat Google er "aanstoot aan neemt"?
Ik heb een nl domein waaraan ik een website heb gekoppeld die reeds online staat. Ik heb sindskort echter ook het .eu en .com domein geregistreerd, zodat eventuele bezoekers die het domein intypen en per ongeluk eu of com gebruiken toch naar de nl pagina gestuurd kunnen worden. Mijn vraag is nu hoe ik dit doorsturen het beste kan doen. Ik wil namelijk uiteraard niet dat het doorsturen mijn positie in de zoeklijst schaadt. Lijkt mij (en heb het ook wel eens gelezen) dat Google het direct doorlinken van het ene domein naar het andere als spam kan zien.
Kan iemand me vertellen hoe ik mijn bezoekers effectief door kan sturen zonder dat Google er "aanstoot aan neemt"?
Verwijderd
als je een plaatje hebt met daarop een tekst, laten we zeggen 'abracadabra'. en je zet onder dat plaatje een link, wel met <a href=''> abracadabra </a>, maar de tekst er tussen is met 'text-indent: -999px; in geen verte te zien. Leest google dat, ik neem aan van wel, en maken ze hier een probleem van? Ze zouden het kunnen zien als extra/illegale content omdat het niet te zien is. Hoe zit dat?
Verwijderd
Lijkt mij geen probleem. Er is namelijk een prima 'legale' toepassing hiervoor: wanneer je een plaatje met tekst als link wilt gebruiken, is het gangbaar om de tekst middels text-indent te verbergen en het plaatje dms CSS te tonen.Verwijderd schreef op donderdag 01 maart 2007 @ 17:22:
als je een plaatje hebt met daarop een tekst, laten we zeggen 'abracadabra'. en je zet onder dat plaatje een link, wel met <a href=''> abracadabra </a>, maar de tekst er tussen is met 'text-indent: -999px; in geen verte te zien. Leest google dat, ik neem aan van wel, en maken ze hier een probleem van? Ze zouden het kunnen zien als extra/illegale content omdat het niet te zien is. Hoe zit dat?
Aan de andere kant, je kan er heel veel keywords achter stoppen, die niemand zo kan zien. Doe je dat, dan wordt je er wel door gestraft. Ga je er "normaal" mee om moet het (afaik) geen probleem zijn.Verwijderd schreef op donderdag 01 maart 2007 @ 17:45:
[...]
Lijkt mij geen probleem. Er is namelijk een prima 'legale' toepassing hiervoor: wanneer je een plaatje met tekst als link wilt gebruiken, is het gangbaar om de tekst middels text-indent te verbergen en het plaatje dms CSS te tonen.
Verwijderd
ja precies, dat bedoelde ik ook. Je zou er een stel keywords achter kunnen zetten. maar het gaat er in mijn geval om dat google het woord toch kan vinden ondanks dat het een plaatje is en niet om verborgen content
.
En daarvoor bestaat de alt, die als alternatief dient voor als het plaatje niet beschikbaar is of de gebruiker geen plaatjes kan zien. Zet hier een omschrijvende tekst in (al denk ik dat een plaatje met alleen tekst onzin is en de alt niet de tekst op het plaatje moet zijn, maar das een andere discussie).
De "alt" is een omschrijving van het beeld. Als het beeld een tekst is, lijkt het me logisch dat de alt een kopie van de tekst is?
Een <a> eronder met een truukje om de text te verbergen lijkt mij overigens niet de bedoeling, al herkenbaar aan het woord : "verbergen". Ikzelf zou in de <a> om de afbeelding een 'title' opnemen met de tekst (al heb ik geen idee wat SE's met het title-attribuut doen).
Een <a> eronder met een truukje om de text te verbergen lijkt mij overigens niet de bedoeling, al herkenbaar aan het woord : "verbergen". Ikzelf zou in de <a> om de afbeelding een 'title' opnemen met de tekst (al heb ik geen idee wat SE's met het title-attribuut doen).
Verwijderd
De laatste dagen zie ik bij mijn referrals steeds vage buitenlandse sites staan met 1 visit en een # achter de main url.
Iemand een idee hoe dit kan?
Op die sites is nix te vinden over mijn site natuurlijk.
Hier wat voorbeelden:
thehomeschool.net/# casinosonline-123.com/# blcschools.net/#
Iemand een idee hoe dit kan?
Op die sites is nix te vinden over mijn site natuurlijk.
Hier wat voorbeelden:
thehomeschool.net/# casinosonline-123.com/# blcschools.net/#
Referralspam. Als jouw statistieken openbaar zijn en Google indexeert die statistieken dan kunnen die sites er weer een extra inlink bij tellen. Heeft dus alleen zin als jouw statistieken openbaar zijn en niet in robots.txt staan.Verwijderd schreef op vrijdag 02 maart 2007 @ 11:22:
De laatste dagen zie ik bij mijn referrals steeds vage buitenlandse sites staan met 1 visit en een # achter de main url.
Iemand een idee hoe dit kan?
Op die sites is nix te vinden over mijn site natuurlijk.
Hier wat voorbeelden:
thehomeschool.net/# casinosonline-123.com/# blcschools.net/#
Dat is wel vreemd natuurlijk. Als je nu zoekt op sinterklaas dan zou je toch dezelfde hits moeten krijgen als een paar maanden geleden? We zijn bezig om nieuwe goede backlinks te krijgen en hopelijk komt ie daarmee terug.armageddon_2k1 schreef op dinsdag 27 februari 2007 @ 19:29:
Daarnaast...het is in mijn optiek niet zo vreemd dat een site over sinterklaasgedichten een maand of 2,5 na sinterklaas minder populair is.
Toch?
Verwijderd
Gelukkig zijn mijn stats niet openbaar.
Maar die lui zoeken dus drukke sites, posten heel ff een link naar die site op hun homepage, klikken erop en hopen zo tzt inlinks te scoren. (dit natuurlijk allemaal automatisch)
Ze worden wel steeds inventiever.
FF wat linkjes naar google.com op mijn frontpage gooien
Maar die lui zoeken dus drukke sites, posten heel ff een link naar die site op hun homepage, klikken erop en hopen zo tzt inlinks te scoren. (dit natuurlijk allemaal automatisch)
Ze worden wel steeds inventiever.
FF wat linkjes naar google.com op mijn frontpage gooien
Een referral kun je faken, dus ze hoeven geen links op hun site te zetten hoorVerwijderd schreef op vrijdag 02 maart 2007 @ 12:44:
Gelukkig zijn mijn stats niet openbaar.
Maar die lui zoeken dus drukke sites, posten heel ff een link naar die site op hun homepage, klikken erop en hopen zo tzt inlinks te scoren. (dit natuurlijk allemaal automatisch)
Ze worden wel steeds inventiever.
FF wat linkjes naar google.com op mijn frontpage gooien
Zal gewoon een tooltje zijn wat via proxy's veel sites request met een spam-site in de refferer gefaked..
Verwijderd
Hoe moet je je wapenen tegen zulke trucs, met al die spambots en shit is het toch onmogelijk om daar als eerlijke webmaster tegenop te boksen?
Ik ben blij dat mijn site niet in een populaire keyword range ligt, anders zou ik nooit mooi gerankt raken.
Overigens zie ik dat het aantal bezoekers via Google naar mijn site het afgelopen jaar van 4 naar 160 per dag is gestegen door brave SEO dus het heeft nog wel nut...
Ik had ook het idee om mijn site een keer op digg.com te zetten, maar ik weet niet of mijn shared server hier tegen kan
Bij meer dan 250 pageviews per minuut in de picture gallery springt die op tilt geloof ik, iemand hier ervaring met de aantallen visits naar een plaatsting op digg.com?
Ik ben blij dat mijn site niet in een populaire keyword range ligt, anders zou ik nooit mooi gerankt raken.
Overigens zie ik dat het aantal bezoekers via Google naar mijn site het afgelopen jaar van 4 naar 160 per dag is gestegen door brave SEO dus het heeft nog wel nut...
Ik had ook het idee om mijn site een keer op digg.com te zetten, maar ik weet niet of mijn shared server hier tegen kan
Bij meer dan 250 pageviews per minuut in de picture gallery springt die op tilt geloof ik, iemand hier ervaring met de aantallen visits naar een plaatsting op digg.com?
Statistieken, ook de referers hebben totaal geen meerdere aan de content van je site, dus niet openbaar maken. Op dat moment, ziet google (of welke SE dan ook) die links niet, en zullen die referer-spam urls niet tellen.Verwijderd schreef op vrijdag 02 maart 2007 @ 16:10:
Hoe moet je je wapenen tegen zulke trucs, met al die spambots en shit is het toch onmogelijk om daar als eerlijke webmaster tegenop te boksen?
Ik ben blij dat mijn site niet in een populaire keyword range ligt, anders zou ik nooit mooi gerankt raken.
Overigens zie ik dat het aantal bezoekers via Google naar mijn site het afgelopen jaar van 4 naar 160 per dag is gestegen door brave SEO dus het heeft nog wel nut...
Dat soort site kan leuk zijn om een paar bezoekers te trekken, maar voor SEO maakt het echt niets uit. Dat soort sites hebben allemaal een nofollow voor de spiders, en zal je sites niet stijgen in SEPR. Mocht iemand dan linken die via een digg-post op je site komt, tellen ze dan weer wel mee (mits er geen nofollw gebruikt wordt).Ik had ook het idee om mijn site een keer op digg.com te zetten, maar ik weet niet of mijn shared server hier tegen kan
Bij meer dan 250 pageviews per minuut in de picture gallery springt die op tilt geloof ik, iemand hier ervaring met de aantallen visits naar een plaatsting op digg.com?
Ey!! Macarena \o/
Verwijderd
Dus indirect kan het wel degelijk werken als een soort cluster bom 
Mijn site heeft redelijk wat returning visitors, dus als er 10 mensen 1x rondneuzen zullen er een paar blijven terugkomen en zal ook vast wel iemand het via een link ergens doorvertellen.
Denk dat ik het komende woensdag rond middernacht maar eens probeer, dan breken de rustiste 40 uur per week aan...
Mijn site heeft redelijk wat returning visitors, dus als er 10 mensen 1x rondneuzen zullen er een paar blijven terugkomen en zal ook vast wel iemand het via een link ergens doorvertellen.
Denk dat ik het komende woensdag rond middernacht maar eens probeer, dan breken de rustiste 40 uur per week aan...
Wij hebben een klant welke op zijn beurt ook weer een aantal afnemers heeft. Deze afnemers hebben allemaal een eigen domeinnaam welke naar de server van onze klant verwijst, en waar aan de hand van het domein wordt bepaalt welke template elementen wel of niet getoont worden, en welke content hierin wordt getoont. Het is in weze dus dezelfde site, maar elke klant heeft zijn eigen content.
Nu was mijn plan om 1 Analytics-code aan te maken voor deze klant en die in alle 'sites' te gebruiken, en voor elke afnemer een profiel te maken op dat account met een filter zodat deze alleen zijn eigen statistieken ziet. Na een aantal domeinen en filters ingevoerd te hebben blijkt echter dat er een maximum van 50 accounts/profielen actief is
Is er een andere methode hoe ik alle afnemers in een login kan voorzien waarmee ze alleen hun eigen statistieken kunnen bekijken? Of is Analytics hiervoor momenteel gewoonweg niet geschikt?
Nu was mijn plan om 1 Analytics-code aan te maken voor deze klant en die in alle 'sites' te gebruiken, en voor elke afnemer een profiel te maken op dat account met een filter zodat deze alleen zijn eigen statistieken ziet. Na een aantal domeinen en filters ingevoerd te hebben blijkt echter dat er een maximum van 50 accounts/profielen actief is
Is er een andere methode hoe ik alle afnemers in een login kan voorzien waarmee ze alleen hun eigen statistieken kunnen bekijken? Of is Analytics hiervoor momenteel gewoonweg niet geschikt?
Uit hun FAQ:
Anders zou je met _udn wel een eind kunnen komen, zit dit artikel:
https://www.google.com/su...?answer=27268&ctx=sibling
Met een goed filter zou je dan overzicht kunnen maken. Alleen een aparte inlog voor elke klant kan niet.
Andere optie: voor elke 50 sites een nieuw Google Account maken en daarin een hoofdaccount rechten geven. Zo kun je via dat hoofdaccount als admin de rest beheren.
Mail ze dus maar, het moet kunnen.How many websites can I analyze with Google Analytics?
Google Analytics will track as many websites as you own! You're limited only by the 5 million pageview limit per month
Anders zou je met _udn wel een eind kunnen komen, zit dit artikel:
https://www.google.com/su...?answer=27268&ctx=sibling
Met een goed filter zou je dan overzicht kunnen maken. Alleen een aparte inlog voor elke klant kan niet.
Andere optie: voor elke 50 sites een nieuw Google Account maken en daarin een hoofdaccount rechten geven. Zo kun je via dat hoofdaccount als admin de rest beheren.
Dat laatste was inderdaad mijn eerste idee, maar twijfelde of dit nie tin strijd zou zijn met hun gebruiksvoorwaarden. Zal die er vanavond eens op naslaan, en anders inderdaad eens mailen.
Zal vanavond ook je andere URL eens bekijken, wederom bedankt!
//Edit
Heb het uiteindelijk opgelost met een nieuw account. Vervolgens mijn primaire account daarop beheerder gemaakt, en het 2de account weer verwijderd. Heb nu rechtsbovenin in een pulldown menu met 2 extra accounts staan met de 87 tellers.
Zal vanavond ook je andere URL eens bekijken, wederom bedankt!
//Edit
Heb het uiteindelijk opgelost met een nieuw account. Vervolgens mijn primaire account daarop beheerder gemaakt, en het 2de account weer verwijderd. Heb nu rechtsbovenin in een pulldown menu met 2 extra accounts staan met de 87 tellers.
[ Voor 32% gewijzigd door frickY op 15-03-2007 13:28 ]
Ik heb een vraag over het gebruik van speciale tekens en SEO:
Ik maak op mijn site met regelmaat gebruik van speciale tekens. Mijn site is in css (strict) gemaakt. Ik gebruik dan bv. tekens als euml eacute etc.
Als ik bv het woord Italie neem, dan is dit Italië in mijn code. Op de pagina staat dan netjes het woord Italië. Als ik in zoekmachines zoek op Italie of Italië dan is er bij de resultaten nauwelijks verschil.
Nu vroeg ik me af of dit ook voor de vindbaarheid geldt. Kun je het beste gewoon Italie als keyword in de body teksten gebruiken, of kan je net zo goed Italië (euml) gebruiken. De bezoekers stellen het waarschijnlijk meer op prijs als ze het woord Italië zien...terwijl een zoekmachine er misschien anders mee omgaat....
Een bezoeker zal echter niet snel het trema op de e gebruiken bij zoeken op het woord Italie...maar verwacht het waarschijnlijk wel weer in de resultaten.......
Wat kan ik het beste doen? Misschien beide vormen gebruiken door elkaar heen?
Ik kan hier niet goed informatie over vinden..
Dank
Ik maak op mijn site met regelmaat gebruik van speciale tekens. Mijn site is in css (strict) gemaakt. Ik gebruik dan bv. tekens als euml eacute etc.
Als ik bv het woord Italie neem, dan is dit Italië in mijn code. Op de pagina staat dan netjes het woord Italië. Als ik in zoekmachines zoek op Italie of Italië dan is er bij de resultaten nauwelijks verschil.
Nu vroeg ik me af of dit ook voor de vindbaarheid geldt. Kun je het beste gewoon Italie als keyword in de body teksten gebruiken, of kan je net zo goed Italië (euml) gebruiken. De bezoekers stellen het waarschijnlijk meer op prijs als ze het woord Italië zien...terwijl een zoekmachine er misschien anders mee omgaat....
Een bezoeker zal echter niet snel het trema op de e gebruiken bij zoeken op het woord Italie...maar verwacht het waarschijnlijk wel weer in de resultaten.......
Wat kan ik het beste doen? Misschien beide vormen gebruiken door elkaar heen?
Ik kan hier niet goed informatie over vinden..
Dank
Waarschijnlijk maakt het niets uit voor Google, dus spel gewoon zoals je het hoort te spellen. In plaats van je met dit soort kleinigheden bezig te houden denk ik dat je je beter druk kan maken om je in-links.
Wat ik me afvroeg, ik heb hier verschillende verhalen over gehoord;
- Maakt het voor een zoekmachine uit of je underscores ( _ ) of dashes ( - ) gebruikt in links en afbeeldingen? Worden links/afbeeldingen met underscores beter ge-indexeerd dan links/afbeeldingen met dashes, of juist andersom?
Ik gebruik zelf meestal underscores maar heb gehoord dat dashes beter worden ge-indexeerd.
Mocht deze vraag al eerder zijn beantwoord, excuses
- Maakt het voor een zoekmachine uit of je underscores ( _ ) of dashes ( - ) gebruikt in links en afbeeldingen? Worden links/afbeeldingen met underscores beter ge-indexeerd dan links/afbeeldingen met dashes, of juist andersom?
Ik gebruik zelf meestal underscores maar heb gehoord dat dashes beter worden ge-indexeerd.
Mocht deze vraag al eerder zijn beantwoord, excuses
Bedankt voor het antwoord. Ik vind het geen kleinigheid. Ik zet momenteel mijn site met 200+ pagina's om naar strict css. Als ik nu toch bezig ben kan ik het natuurlijk meteen goed doen dacht ik zo...
Verder...
Met de underscore wordt het als 1 woord behandeld...met de dash als twee losse keywords....
Ik gebruik dashes. Volgens mij wordt dit ook het meeste gebruikt. Verder is een underscore in de domeinnaam niet toegestaan...
Verder...
Met de underscore wordt het als 1 woord behandeld...met de dash als twee losse keywords....
Ik gebruik dashes. Volgens mij wordt dit ook het meeste gebruikt. Verder is een underscore in de domeinnaam niet toegestaan...
[ Voor 33% gewijzigd door GustavSan op 15-03-2007 20:54 ]
Verwijderd
Ik hoor hier vaker mensen die 'klagen' dat ze ineens flink tuimelen in de zoekresultaten.
Zelf zie ik net dat ik met de keywords waar ik in de top 5 zat ineens ook pas op pagina 3 kom.
Als ik wat door zoek, zie ik ook dat ik dan op subpagina's van mijn site uitkom.
Vervolgens met het commando site:domain.com zie ik ook dat mijn main index.html niet bij de eerste tig pagina's staat.
Zou dit te maken hebben met een korte shuffle binnenin Google's index en is alles over een paar dagen weer 'normaal' of gooit Google alles elke paar maanden omver en moet je weer langzaamaan boven zien te drijven?
Ik gebruik geen enkele black hat trick, dus een penalty zal het niet zijn. (Bij sommige zeldzamere zoektermen sta ik nog wel bovenaan)
Zelf zie ik net dat ik met de keywords waar ik in de top 5 zat ineens ook pas op pagina 3 kom.
Als ik wat door zoek, zie ik ook dat ik dan op subpagina's van mijn site uitkom.
Vervolgens met het commando site:domain.com zie ik ook dat mijn main index.html niet bij de eerste tig pagina's staat.
Zou dit te maken hebben met een korte shuffle binnenin Google's index en is alles over een paar dagen weer 'normaal' of gooit Google alles elke paar maanden omver en moet je weer langzaamaan boven zien te drijven?
Ik gebruik geen enkele black hat trick, dus een penalty zal het niet zijn. (Bij sommige zeldzamere zoektermen sta ik nog wel bovenaan)
Als je zoekt op site:domain.com (of inurl:domain.com/) zouden de resultaten gesorteerd op pagerank moeten zijn.
Verwijderd
Bij mijn site gaat dat momenteel niet op in elk geval.
Meestal worden de actieve pagina's om de 7 dagen opnieuw door Google gecasht dus maar een weekje balen en afwachten...
Meestal worden de actieve pagina's om de 7 dagen opnieuw door Google gecasht dus maar een weekje balen en afwachten...
Denk dat dat juist wel het geval is.
Gooi de URL van je homepage en diverse subpagina's eens door een online Pagerank checker (bijv http://livepr.raketforskning.com/?u=)
Gooi de URL van je homepage en diverse subpagina's eens door een online Pagerank checker (bijv http://livepr.raketforskning.com/?u=)
[ Voor 13% gewijzigd door frickY op 16-03-2007 19:13 ]