Ik wil de website www.worldwidevisible.com optimaliseren voor Google, want momenteel is-ie totaal niet goed te vinden via Google. Op dit moment wordt er één product verkocht (waar ook al op gezocht wordt) en er komen op korte termijn andere, vergelijkbare producten bij. Het is de bedoeling om elk product een eigen pagina te geven en deze pagina's vervolgens per product te optimaliseren. Ik zit echter met twee dingen:
- Hoe kan ik de hoofdpagina optimaliseren? Ik zou de term 'slechthorenden' kunnen gebruiken, maar die is zo breed en 'hulpmiddelen slechthorenden' is ook geen goede, want als ik die zoekterm verder analyseer, blijken mensen bij hulpmiddelen vooral te denken aan telefoons, soloapparatuur etc. Wat is jullie kijk hierop?
- De producten die verkocht gaan worden, zijn momenteel niet op de markt. Ik kan er ook geen passende zoekwoorden bij vinden via de zoekwoordplanner. Wat is dan een handige werkwijze? Zoekwoordenonderzoek doen onder de doelgroep? Gewoon een zoekwoord kiezen waarvan je vermoedt dat mensen 'm gebruiken en deze gaandeweg aanpassen als blijkt dat ze andere zoekwoorden kiezen?
Ik hoor graag van jullie!
In webmasters kan je de sitelinks dan weer downvoten, maar om nu honderden producten daarin te gaan zetten met het handje...
Anoniem: 58485
Er is meer dan google search alleen.PowerFlower schreef op zondag 30 november 2014 @ 11:05:
Dat was dus precies wat ik zei, ja, die hebben geen zinDat is nog iets uit de jaren '90, toen we nog dachten dat het nuttig zou zijn. Om de een of andere reden is het heel erg hardnekkig en het blijft nog steeds terugkomen.
Meta keywords kunnen een richting zijn, geen doel.
Bing is ook hard bezig gebruikers te koppelen op hun zoekmachine. Ook die geven aan dat keywords een hele kleine impact heeft, maar niet genegeerd wordt.
Zie ook https://chrisedwards.me/seo/keyword-meta-tag-google/
☀️ Goedemorgen zonneschijn! ☀️
☀️Ja, je maakt me zo gelukkig, en door jou voel ik me fijn! ☀️
Als je toch met taggen bezig wilt zijn, kun je je code wellicht voorzien van microdata.Because the keywords meta tag was so often abused, many years ago Google began disregarding the keywords meta tag.
[ Voor 17% gewijzigd door Boelie-Boelie op 22-04-2015 21:10 . Reden: opmerking over microdata toegevoegd ]
Cogito ergo dubito
Anoniem: 58485
De update van dat mobiele gebeuren is als volgt:
En inderdaad, gewone desktop sites staan nog gewoon door de overzichten heen. Maar het is begrijpelijk dat dit meer en meer belangrijker zal gaan worden in de toekomst.Affects only search rankings on mobile devices
Affects search results in all languages global
Applies to individual pages, not entire sites
Wat betreft het HTTPS verhaal: Ik zie een directe stijging vanaf het moment dat ik HTTPS op een website ingevoerd heb, google deze geindexeerd heeft (https ipv http) en de dag waarop de ranking omhoog gekomen is. Een SSL certificaat kost niet zoveel, maar installatie is een ander verhaal. En het is niet nodig voor iedere website ofzo.
Anoniem: 58485
Sinds invoering van HTTPS een lekkere boost. Je moet er wel op letten dat je SSL minimaal A grade scoort ( https://www.ssllabs.com/ssltest/ ) en dat je op je website geen externe dingen linkt dat met http:// alleen begint. Je site moet dus een volledig groen slotje hebben (en geen oranje ofzo).
O.a.:

Ik vermoed dat je overstap naar SSL ergens anders mee samen is gevallen.
Anoniem: 58485
Noem het toeval of niet, ik denk dat er wel heil in gebruik van SSL zit.

Ik blijf met mn magento webwinkel ook steeds tegen dezelfde problemen aanlopen in google insights. Ik krijg mn score in mobile maar niet hoger dan 60. Hij blijft ruzie maken met javascript en ccs dat boven de vouw staat, en blijft hij ook maar aangeven dat css en html verkleind moeten worden. Daar heb ik allemaal modules voor draaien die dat zouden moeten opvangen. Het is een prachtig programma dat Magento, maar ik mis wel eens een toegankelijke index.html waar je gewoon heel duidelijk een <body> etc etc in hebt staan.
[ Voor 42% gewijzigd door RoyK op 24-04-2015 08:43 ]
Anoniem: 58485
Het enige dat ik in de vouw bovenin nog zou laten is CSS, javascript gaat standaard altijd naar de footer tenzij het problemen geeft (Soms komt het wel eens voor dat een script niet meer werkt als je je javascript verplaatst). Let ook maar eens op hoe google CSS in het vervolg zien wil, dat is bijna niet te doen.
Belangrijkste is is dat de snelheid en usability maar goed is. De rest kan je een beetje negeren. En caching natuurlijk instellen.
Off-topic: Certificate opnieuw laten uitgeven (of wachten tot het huidige verloopt en dan vervangen) gaat al de oranje balk weghalen, die rode met poodle is zorgen dat SSL3 niet meer ingeschakeld is. Als je SSL3 weghaalt, kom je volgens mij op A+ uit... Tutorial voor Apache, als je aan de serverconfiguratie kunt: https://raymii.org/s/tuto..._Security_On_Apache2.htmlRoyK schreef op vrijdag 24 april 2015 @ 08:26:
Ik heb ook de test eens over mn webwinkel heen gegooid en ik zie dat er nog wat te winnen is. Niet dat ik er nou wonderen van verwacht, maar het moet ook gewoon goed zijn tochWellicht is het 'slechts' het aan of uitzetten van een paar processen.
[afbeelding]
Voor bedrijf A doe ik wat SEO-zaken en zij hebben meerdere partners (andere domeinen). Deze partners hanteren hetzelfde assortiment met dezelfde productteksten. "Unieke teksten schrijven" zou je zeggen, maar dat gaat niet. Het resultaat is dat de partners meer zichtbaarheid hebben in de zoekmachines dan bedrijf A. Zelfs op de exacte productbeschrijving is bedrijf A niet te vinden.
Roeien met de riemen die je hebt > Canonical tag zou de oplossing moeten bieden.
Mensen kunnen in de broncode zien wie de partners zijn. Geen groot geheim, maar willen liever niet dat het ál te bekend wordt. Is deze tag niet te 'maskeren'? Of iemand een betere oplossing hiervoor?
"Improvement. It is the goal of life search" - Carl "Reaper" Shepards
Blijkbaar presteren die andere websites op andere punten veel beter dan bedrijf A. Ik zou dan toch mijn energie steken in het verbeteren van de website van bedrijf A.
Pay peanuts get monkeys !
Ik vind het lastig om op de internationale fora voet aan de grond te krijgen, er zit daar veel 'ruis' en als je om advies vraagt is het meestal meer van hetzelfde en natuurlijk allemaal US-gericht. Hoop dat ik hier wat meer kan leren/delen.
Op enkele NL-fora worden posts verwijderd als ze kritisch zijn op bijvoorbeeld affiliate-programma's/netwerken omdat men zelf daar de inkomsten vandaan haalt. Erg jammer.
Over die score van Google
Bij mij blijft hij aangeven dat er CSS/javascript boven de vouw moet worden vermeden of verkleind, en wat blijkt: de 'problemen' worden veroorzaakt door de banner boven de vouw. Banner is Adsense....ja...Google zelf dus.
Google koppelt alles (Analytics, Adsense, Adwords, etc.) maar doet blijkbaar niets met een foutmelding op het ene platform dat door een eigen product van een ander platform wordt veroorzaakt.
Andere traffic sources
Dit is meer een tip: je zou eens kunnen kijken naar andere bronnen van verkeer, zo heeft elk sociaal netwerk een bepaalde groep gebruikers (doelgroep). Bepaal wat jouw doelgroep is en zoek daar het juiste sociale netwerk bij, en probeer daar wat meer voet aan de grond te krijgen. Op die manier ben je niet meer zo afhankelijk van de grillen ('dance') van de Google SERPs en bereik je gelijk de doelgroep die past bij jouw content (en dus mogelijk betere RPM).
Linkbuilding: guest blogging
Dan een vraag over link building. Ik ben op zoek naar een ingang voor het schrijven van een aantal guest blogs (food niche), maar heb moeite met het leggen van de juiste contacten. Als iemand een adres heeft van een blog/site in die niche met NL/BE doelgroep dan houd ik me aanbevolen.
<-Blijft hier lezen!
Bekabelde WIFI
Wat heb je geprobeerd en tegen welke problemen loop je aan?fritsjof schreef op woensdag 15 juli 2015 @ 13:19:
Linkbuilding: guest blogging
Dan een vraag over link building. Ik ben op zoek naar een ingang voor het schrijven van een aantal guest blogs (food niche), maar heb moeite met het leggen van de juiste contacten. Als iemand een adres heeft van een blog/site in die niche met NL/BE doelgroep dan houd ik me aanbevolen.
Jasper schreef op woensdag 15 juli 2015 @ 21:56:
[...]
Wat heb je geprobeerd en tegen welke problemen loop je aan?
- Ik meld me aan bij een (grote) website met naam en contactgegevens waaruit duidelijk wordt dat ik een blog beheer - account wordt pas na 2 maanden geactiveerd
- Men weigert mijn verzoek tot een gastblog
- Men wil best een artikel van mij plaatsen maar zonder links
- Men wil wel een artikel van mij plaatsen maar alleen met no-follow links
- Men wil wel een artikel plaatsen met do-follow link maar alleen tegen betaling
- etc.
Bekabelde WIFI
Een (1) manier hoe je het zou kunnen doen: wat content op je eigen site (70% evergreen, 30% actueel, totaal 10-20 artikelen) en vervolgens enkele maanden inhoudelijk reageren op een handjevol foodblogs (op het blog zelf en/of via social media) en op fora. Zo leren de mensen je een beetje kennen en heb je wat content die wat body geeft aan jouw achtergrond, wat hen ontvankelijker maakt voor gastblogs. Anders is het een beetje 'wie ben jij nou'.fritsjof schreef op woensdag 15 juli 2015 @ 13:19:
Dan een vraag over link building. Ik ben op zoek naar een ingang voor het schrijven van een aantal guest blogs (food niche), maar heb moeite met het leggen van de juiste contacten.
Cogito ergo dubito
Mijn blog bestaat vanaf 2011, dagelijks verse content.heeft >500 posts, 95% origineel, van recepten met foto's en reviews van keukengerei. De rest (5%) is curated content, uiteraard met link naar origineel én met eigen inleiding op het stuk. Een aantal van deze artikelen staat op #1 of #2 in de SERPs, voor het main keyword. Ook voor keukengerei rank ik #1 of #2 op bepaalde producten.
Het zwakke punt: backlinksprofiel.
Ik ga wat meer reageren op fora, kijken of ik daar dan wat voet aan de grond kan krijgen dan maar, het begint haast op 'werk' te lijken... ;-)
Nogmaals dank!
Bekabelde WIFI
Waar beginnen jullie als jullie de SEO willen verbeteren? Allereerst met een zoekwoordenonderzoek leek mij, Ik heb nu een lijst met de productcategorieën waarbij onder elke categorie zoektermen (zowel één, twee als drie zoektermen) staan opgesomd. Veelal zelf bedacht door de website te bekijken, aangevuld met Keyword Planner. Het is lastig om goed te zoeken omdat je bij twee woorden al geen zoekvolume meer hebt volgens Google. Terwijl juist net die longtail zoektermen belangrijk zijn in het begin als webshop. Het is een specifieke markt. Nu ga ik per categorie een aantal zoektermen invullen en de concurrenten op de eerste pagina opsommen met productcategorie, Moz Domain Authority/Page Authoriy en hoeveelheid links van hoeveelheid domeinnamen. Veel Exact Match domeinen winnen het zie ik, dit zijn wij niet. Pagina's als Gamma/Praxis/Wikipedia neem ik niet mee, die zijn niet te verslaan. Wij hebben natuurlijk nu nog amper organisch zoekverkeer, veelal Google Adwords. Na dit concurrentieonderzoek wil ik bij onze productcategorieën een uitgebreide concurrentie analyse hebben met hun USPs tegenover die van mij.
Als ik zo een goed en duidelijk beeld heb van de zoektermen ga ik onze 150/200 productpagina's SEO vriendelijk maken. Het zijn allemaal redelijk technische artikelen die soms zelfs nog in het Engels genoemd worden. Dit is natuurlijk helemaal niet goed en het zal zeker nog een hels karwei worden om allemaal unieke productepagina's te creëren. Wij hebben van 100 productpagina's doorklikpagina's waarin ieder product in 5/6 maten staan. Maar iets in Maat 1 heeft natuurlijk dezelfde omschrijving als Maat 2. Hoe lossen jullie dit op?
Conclusie/TL;DR:
- Wat is jullie stappenplan bij het opzetten van SEO van een website?
- Hoe beginnen jullie een zoektermenonderzoek in een markt waar Google weinig volume in weergeeft?
- Welke quick wins pakken jullie?
- Hoe lossen jullie productpagina's op die producten hebben die in verschillende maten te krijgen zijn?
Ik zou de termen waarop de pagina's van de site nu worden gevonden eerst bekijken, blijkbaar vindt de gebruiker/google dat die pagina's beter/gelijkwaardig zijn dan die van de concurrent. Die zou ik als eerst aanpakken: info toevoegen, extra foto's, instructievideo's, bedrijfsvideo van het merk toevoegen. Op die manier kan je de positie van die pagina's versterken. Behouden wat je hebt (rank) is relatief eenvoudiger dan niet rankende pagina's laten ranken.
Van daaruit verder werken naar de minder goed presterende pagina's.
- Hoe lossen jullie productpagina's op die producten hebben die in verschillende maten te krijgen zijn?
Je zou met tabs kunnen werken: general info over het product onder een tab, maten onder een ander tab. Dan bij elke maat een unieke text, met de gedachte:
Kleinste maat: dit is de kleinste versie van in totaal 5 maten, wordt voornamelijk gebruikt voor...exacte afmetingen zijn...
Een maat groter: niet de kleinste maat....wordt gebruikt voor....exacte afmetingen zijn...
Middelste maat: middelste maat, voornamelijk gebruikt voor.... meest verkochte maat.... exacte afmetingen....alternatief is...
etc.
Je hoeft niet overal veel tekst te hebben, maar net dat beetje info dat je bezoeker het idee geeft dat dit precies is wat hij nodig heeft, zeker 'dit is de meest verkochte maat' werkt goed, mensen hebben dan het idee dat ze een veilige keuze maken.
De tabs kunnen verder op elke pagina gelijk zijn, want de info is voor elke maat gelijk.
Hoop dat je er wat aan hebt.
Bekabelde WIFI
momenteel gebruikt ze wordpress + yoast + een genesis thema met wat schema.org die het in de category blog post stoppen. Als eerste zou ik dit willen aanpakken dat er verschillende post types komen die gebruik maken van de verschillende categorieen zoals recepten en reviews. Dit zou dan gelijk met een nieuw custom made thema moeten worden opgelost waarbij het maken van de theme opgelet gaat worden op Google Page Speed om alles zo snel mogelijk te laten laden.
Inmiddels heeft ze al redelijk veel content 650+ posts en nu vroeg ik mij af heeft het veel zin om alle post dan aan te passen naar de nieuwe post type wat best veel werk is. Of zou het genoeg zijn om een deel van de content te verbeteren ergens tussen de 20 en de 150 posts? of alleen bij nieuwe content?
Daarnaast moeten er meer backlinks gaan komen. volgens backlink watch word er 1129 naar haar site gelinkt en als ik dit vergelijk met 1 van de grootste food blogs die heeft die heeft 12000 backlinks dus daar moet nog hard aan gewerkt worden.
Is dit een goed idee of sla ik nu de plank helemaal mis? Het gaat trouwens of de blog https://bettyskitchen.nl
Anoniem: 58485
Zie https://developers.google...%2F%2Fbettyskitchen.nl%2F
3 tips:
- Compressie toepassen (W3C Total cache)
- Minify CSS (CSS "Verkleinen" voor sneller laden, zit in W3C total cache)
- Minify JS (Maar dat moet je testen, want sommige javascript laat zich niet minifyen zonder stuk te gaan (Ook in W3C Total cache))
Probeer het aantal scripts dat je extern inlaadt (dus niet vanaf je eigen domein) over te zetten op juist wel je eigen domein. Als je Leverage browser caching bekijkt dan zie je dat je behoorlijk wat scripts extern aan het inladen bent. Voor alsnog geldt content is king. Goede artikels schrijven, inplannen en zorgen dat je gevonden wordt.
en goede content schrijven is opzich niet het probleem, het moet alleen beter vindbaar zijn hoger in de google resultaten.
Mijn vraag is dan ook wat het efficients is qua tijd en hoeveelheid werk, alle content aanpassen, een deel van de bestaande content of alleen nieuwe content. We doen dit beide namelijk gewoon naast een fulltime baan.
[ Voor 4% gewijzigd door aegis op 26-12-2015 11:09 ]
Anoniem: 58485
Soms kan je JS ook ipv aan top net voor de </body> plaatsen, dat scheelt namelijk laadtijd, maar dat zijn dingen die je moet testen omdat bepaalde functies niet meer kunnen werken als ze niet als eerst worden geladen.
Verder; links plaatsen. Vind relevante sites, en doe daar een linktrade mee. Zorg dat je content ook waardig genoeg is om voor anderen naartoe te linken. Een goed begin is het maken van eigen startpagina's met gerelateerde onderwerpen. Zet minimaal een link of 50 neer en jezelf aan top. Het heeft geen zin tig low quality startpagina's te maken, want die gaan toch niets doen.
Het plaatsen van js in de footer ken ik dat wil ik ook gaan toepassen.
Anoniem: 58485
1
| <script type="text/javascript" async src="javascripts/jquery.js"></script> |
Async houdt in dat ie de JS gaat laden 'zodra beschikbaar', dus als een browser klaar is met laden van belangrijkste eerst. Echter sommige browsers pakken dit niet op, mobiele browsers snappen het niet, het is heel erg tricky in ieder geval. Ik heb async op sommige sites deels toegepast, maar niet alle JS, omdat het weigert zich in async te laten laden of dat het boven de </head> vereist is bijv.
Ik heb 1 website met een 100/100 score op zowel mobiel als desktop, omdat het een adult gerelateerde site is zal ik de link maar niet delen..
Vooralsnog heb ik geen significante 'boost' met een 100% score in speed & usability, ook niet met HTTPS ondanks dat er een extra punt gegeven zou moeten worden. Het komt toch echt neer op unieke content + inkomende links.
[ Voor 27% gewijzigd door Anoniem: 58485 op 26-12-2015 12:06 ]
Anoniem: 58485
Deze vind ik wel bijzonder en heb ik vaker gehoord. Heb je daar meer informatie over?CrashOne schreef op donderdag 03 april 2014 @ 13:27:
Nee, dat gaat je niet helpen. URL's zijn geen (belangrijke) factor meer, voor zover ze dat ooit waren. Het voordeel wat je wel hebt is dat een deel van je URL nu vetgedrukt weergegeven wordt als het keyword waar mensen op zoeken in de URL staat. Dat kan je een hogere CTR opleveren.
Puur en alleen al om de esthetiek zou ik een URL beschrijvend maken met een duidelijke websitestructuur..
wat gaat dit topic traag trouwens. Ik reageer op een bericht van 10 maanden geleden
[ Voor 8% gewijzigd door Tjebakka op 27-01-2016 14:25 ]
If it aint fixed, it's broken.
De structuur van de website wordt opgebouwd door de interne links. Dus van home link je naar categorie, en van categorie naar product. Met deze links kunnen de zoekmachines de structuur van je site bepalen. Eventueel laat je deze structuur ook terug komen in de URL, maar dat hoeft niet. Je wil niet bij een site van 6 niveaus diep ook 6 subfolders in de URL hebben.Tjebakka schreef op woensdag 27 januari 2016 @ 14:24:
[...]
Deze vind ik wel bijzonder en heb ik vaker gehoord. Heb je daar meer informatie over?
Puur en alleen al om de esthetiek zou ik een URL beschrijvend maken met een duidelijke websitestructuur..
wat gaat dit topic traag trouwens. Ik reageer op een bericht van 10 maanden geleden![]()
Agreed maar wat CrashOne zegt, ik interpreteer dat als:André schreef op woensdag 27 januari 2016 @ 15:40:
[...]
De structuur van de website wordt opgebouwd door de interne links. Dus van home link je naar categorie, en van categorie naar product. Met deze links kunnen de zoekmachines de structuur van je site bepalen. Eventueel laat je deze structuur ook terug komen in de URL, maar dat hoeft niet. Je wil niet bij een site van 6 niveaus diep ook 6 subfolders in de URL hebben.
http://www.domein.nl/nl/categorie/product/variant-A/, is hetzelfde als:
http://www.domein.nl/p=3423?o=1&v=3
Dat lijkt me toch niet?
If it aint fixed, it's broken.
Als is het wel zo dat de laatste foutgevoeliger is, parameters kun je eenvoudig omdraaien bijvoorbeeld. En de eerste heeft als voordeel dat de gezochte woorden vetgedrukt worden.
Google heeft ook net de Webmaster Guidelines iets aangepast.
http://www.thesempost.com...down-of-all-changes-made/ daar zijn alle wijzingen te vinden.
If you decide to use dynamic pages (i.e., the URL contains a “?” character), be aware that not every search engine spider crawls dynamic pages as well as static pages. It helps to keep the parameters short and the number of them few.
Een kennis van mij wil zijn 3jaar oude website regionaal op de 1e pagina krijgen bij Google .
Wat zijn de gemiddelde kosten die de bedrijven rekenen om je bijna bovenaan te krijgen en bovenaan te houden door middel ven zoekwoorden etc... ?
Het gaat om een zonnepanelenbedrijf.
Geen idee in hoeverre je op de hoogte bent van SEO, maar omdat je het hebt over website op eerste pagina krijgen en bovenin de resultaten komen, is onderstaande goed om in het achterhoofd te houdenbert888 schreef op dinsdag 02 februari 2016 @ 19:49:
Ff een vraagje.
Een kennis van mij wil zijn 3jaar oude website regionaal op de 1e pagina krijgen bij Google .
Wat zijn de gemiddelde kosten die de bedrijven rekenen om je bijna bovenaan te krijgen en bovenaan te houden door middel ven zoekwoorden etc... ?
Het gaat om een zonnepanelenbedrijf.
Copy/paste
"Google warns black hat SEO companies in Webmaster Guidelines saying that “No one can guarantee a #1 ranking on Google.” Search results are notoriously unstable depending on Google algorithm updates and on the searcher location, account history and personal settings. Instead of great promises focus on the competence and quality of the service.""
Anoniem: 58485
Ja, die gaan schieten met hagel, hopend dat ze iets raken.bert888 schreef op woensdag 03 februari 2016 @ 13:02:
Maar er zijn wel bedrijven die het aanbieden!
Oftewel; heel veel snelle links vanaf verschillende domeinnamen, en binnen een korte duur lig je er gewoon uit.
Goede en betrouwbare SEO is duur. Ik doe het zelf ook voor klanten voor top keywords. En geloof me, die betalen.
Maar hoeveel betalen ze dan per jaar?Anoniem: 58485 schreef op woensdag 03 februari 2016 @ 15:01:
[...]
Ja, die gaan schieten met hagel, hopend dat ze iets raken.
Oftewel; heel veel snelle links vanaf verschillende domeinnamen, en binnen een korte duur lig je er gewoon uit.
Goede en betrouwbare SEO is duur. Ik doe het zelf ook voor klanten voor top keywords. En geloof me, die betalen.
Graag een richtprijs.
Wat kost een huis? Wat kost een telefoon? Wat kost het om een zwembad aan te leggen? Joh, zoveel factoren en variabelen dat je daar vanuit de losse pols echt niets zinnigs over kan zeggenbert888 schreef op zaterdag 06 februari 2016 @ 14:48:
[...]
Maar hoeveel betalen ze dan per jaar?
Graag een richtprijs.
XXXVI
Oftewel, dit is niet de weg waarop het werkt. Je kunt 2 dingen doen; of je scheel (blijven) betalen op SEO of aan de slag met inbound marketing. Interessante en relevante content maken waar je doelgroep op zit te wachten
Anoniem: 739571
Voor de meeste branches zijn blogs, social media, nieuwsbrieven, etc. al voldoende. Huur een tekstschrijver die goed webteksten kan schrijven in en je bent al heel goed op weg.
Voor iedereen die adverteert in Google, dit zijn de wijzigingen in Adwords:
http://postads.nl/blog/go...ijke-advertentie-posities
eRocket online marketing
Anoniem: 58485
Adwords draait uiteindelijk om geld. En flink wat ook.
[ Voor 8% gewijzigd door stier op 24-02-2016 10:22 ]
Volgens mij doet het bijzonder veel. Zie deze uitgebreide review: http://conversionchamp.co...w-inbound-marketing-tool/stier schreef op woensdag 24 februari 2016 @ 10:17:
Ik hoor veel het Amerikaanse SEO bedrijf 'Hub spot' voorbijkomen maar een korte search maakt mij niet echt wijzer wat voor tent het nou is. Iemand die een korte uitleg kan geven?
Anoniem: 743343
Hebben jullie enige tips voor een onlangs gestartte website, die zich focused op aanbiedingen en kortingen in allerlei productgroepen?
Of misschien kan iemand de site zelfs bekijken en zijn of haar mening geven. Bij voorbaat dank!
Anoniem: 58485
Ik kreeg een mail afgelopen week van Google webmasters met onnatuurlijke links op een website, uitgaande links dus. Het lijkt erop dat google op dit moment controleert of websites onnatuurlijke linkbuilding / pr (mis)bruiken in de vorm van betaalde artikels. De site is van een klant van mij maar grappig dat google dat ook detecteren kan. Google heeft als handmatige actie de website 'minder' populair gemaakt en in afwachting van 'opruimen' van slechte berichten met OBL's.
Als de website echt hagelnieuw is kan hij zich het beste richten op het populair maken van de site. Dus marketing+pr inzetten. Als de site dan ook echt interessant is volgen de inkomende links vanzelf. Tegen die tijd kun je ook de techniek eens aanscherpen/verbeteren.Anoniem: 743343 schreef op woensdag 02 maart 2016 @ 17:42:
Onlangs heeft een vriend van me een site gelaunched. Hij is nog helemaal nieuw met dit hele gebeuren en ook vrijwel onbekend met SEO. Ik heb hem de basics een beetje weten uit kunnen leggen maar ik heb ook te veel gebrek aan kennis omtrent dit topic.
Hebben jullie enige tips voor een onlangs gestartte website, die zich focused op aanbiedingen en kortingen in allerlei productgroepen?
Of misschien kan iemand de site zelfs bekijken en zijn of haar mening geven. Bij voorbaat dank!
Stel ik heb een website hoevekaas.nl. Nu is kaas natuurlijk een belangrijk keyword. Maar hoevekaas begint langzaam ook een keyword te worden waar veel verkeer op komt als merknaam.
Nu zou ik misschien de website willen verplaatsen naar zuivelproducten.nl/hoevekaas. Stel ik doe dit met een 301, heeft dit nadelige effecten voor de ranking van/het verkeer naar de website? Of zou dit theoretisch geen impact moeten hebben?
Helaas zie ik dit bij alle migratie van de afgelopen 2 jaar.
In hoeverre is het reageren op blogartikelen schadelijk voor een website (denk aan Google penalty).
Bij het achterlaten van een reactie vul je natuurlijk je naam, mailadres en website url in. Als je regelmatig reageert op andere blogs, creëer je op die manier dus heel wat (nofollow) backlinks.
Er van uitgaande dat het geen spamreacties zijn, maar wel inhoudelijke reacties op het artikel zelf zijn en dit enkel gebeurt bij gerelateerde websites / blogs... hoeveel kwaad kan dit dan?
Is het in dat geval verstandig om desbetreffende links / domeinen te disavowen in de Google Search Console?
Thanks alvast!
Voedingsadviseur bij Voeding-en-fitness.nl
Anoniem: 58485
Dit is een vorm van blackhatseo. Waarom zou je andermans blogs moeten gebruiken voor het plaatsen en creeeren van links naar je eigen site.
Het is een beetje vreemd als je honderden reacties met links naar je eigen website zet.
Ik strip de hele http:// dan ook van enkele blogs van mij, om dat soort onzin van andere gebruikers te voorkomen.
Het is ook zeker niet de bedoeling om dit in te zetten als SEO strategie. Dat heb ik niet nodig. Maar in het verleden wel veel op relevante blogs gereageerd, wanneer ik interessante artikelen had gelezen. Puur gericht op het artikel zelf uiteraard. Maar daarbij dus wel naam, mailadres en URL ingevuld. Ga er van uit dat het niet teveel kwaad kan, maar beter voorkomen dan genezen
Voedingsadviseur bij Voeding-en-fitness.nl
Ik heb in de afgelopen 10 jaar al zo belachelijk veel op blogs gereageerd en daar nog nooit last van gehad. Het gaat dan op een natuurlijke manier en dat vind Google normaal. Ik zou het dus zeker aanraden. Niet als linkbuilding strategie, maar om marketing redenen. Je laat zo zien waar je verstand van hebt.MarvinG schreef op dinsdag 23 augustus 2016 @ 09:31:
Thanks voor de reacties!
Het is ook zeker niet de bedoeling om dit in te zetten als SEO strategie. Dat heb ik niet nodig. Maar in het verleden wel veel op relevante blogs gereageerd, wanneer ik interessante artikelen had gelezen. Puur gericht op het artikel zelf uiteraard. Maar daarbij dus wel naam, mailadres en URL ingevuld. Ga er van uit dat het niet teveel kwaad kan, maar beter voorkomen dan genezen
Nog nooit gebruikt. Ik moet zeggen dat ik altijd de SEO plugin van Yoast gebruik. Die heeft alles wat je nodig hebt.oadm schreef op dinsdag 23 augustus 2016 @ 10:08:
Kent en gebruikt iemand de plugin SEO Pressor ? Dit is een hulp programma om de SEO van je site van teksten te verbeteren. Ik gebruik het zelf en ben er wel tevreden over.
[ Voor 19% gewijzigd door André op 23-08-2016 10:19 ]
Kan iemand mij hier een duidelijk antwoord op geven?
Afbeeldingen in base64 in CSS zetten vind ik geen voordeel, maar een nadeel.
Ik kan me voorstellen dat google anders met afbeeldingen op een subdomein omgaat.
Is het uiteindelijk dan goed voor je SEO vraag ik me af.
Anoniem: 58485
Alles boven de 85% is in orde. JS onderin plaatsen, css / js minify'en, images optimizen, kom je al een heel eind.
CDN of een apart subdomain voor je images voor een kleine site is onzinnig. Als je betalen wilt kan ik Cloudflare aanraden. Ik heb 1 site met meer dan 20.000 bezoekers per dag, en ondanks by design al rekening houden met snelheid vind ik het de 30 dollar per maand in ieder geval waard.
Je server gaat niet onderuit bij een bezoekersspike, en dat CDN heeft toch iets meer voordeel. Pingen naar Cloudflare gaat bij mij sneller als bij m'n eigen server(s).
http://www.domein.nl/foo -> 301 -> http://www.domein.nl/bar -> 404
Is het dan zo dat /foo door Google uit de zoekresultaten verwijderd zal worden (aangezien hij uiteindelijk op een 404 terecht komt)? Of blijft /foo in in de zoekresultaten staan? Mijn gedachte is dat Google een 301 sowieso zal vervangen door de URL waarnaartoe verwezen wordt, en als deze een 404 geeft hij dus uit de resultaten verwijderd zal worden.
Ik heb hierover een discussie met een SEO expert, ben benieuwd wat er hier gedacht wordt
Dell Vostro 7620 / Intel Core i7 12700H / NVIDIA GeForce RTX 3050 Ti 4GB / 40GB DDR5RAM / Samsung 990 Pro 1TB / Dell WD22TB4 / 2x Dell G2724D / Dell Premier KM900 / Universal Audio Volt 1 / 2x KRK Rokit RP8 G4 / KRK S12.4
Beide URL's zullen uit Google verdwijnen omdat beide uiteindelijk een 404 geven. Wel kan het zijn dat dit niet direct gebeurd, maar als Google de redirect een aantal keer gezien heeft.posttoast schreef op dinsdag 27 september 2016 @ 15:43:
Een eenvoudige vraag mijnerzijds: stel, ik heb een URL die een 301 geeft naar een andere URL, en die andere URL geeft een 404 terug. Dus:
http://www.domein.nl/foo -> 301 -> http://www.domein.nl/bar -> 404
Is het dan zo dat /foo door Google uit de zoekresultaten verwijderd zal worden (aangezien hij uiteindelijk op een 404 terecht komt)? Of blijft /foo in in de zoekresultaten staan? Mijn gedachte is dat Google een 301 sowieso zal vervangen door de URL waarnaartoe verwezen wordt, en als deze een 404 geeft hij dus uit de resultaten verwijderd zal worden.
Ik heb hierover een discussie met een SEO expert, ben benieuwd wat er hier gedacht wordt
Een site verhuizen met een 302 werkt ook niet instant
OK, ik snap dat het niet instant gebeurt maar dat geldt ook als je direct een 404 geeft ipv na een redirect. Kan ik concluderen dat het geen verschil maakt en mijn aanname dus klopt? Of kun je stellen dat een directe 404 sneller verwijderd zal worden dan een 404 na een 301?André schreef op woensdag 28 september 2016 @ 09:25:
[...]
Beide URL's zullen uit Google verdwijnen omdat beide uiteindelijk een 404 geven. Wel kan het zijn dat dit niet direct gebeurd, maar als Google de redirect een aantal keer gezien heeft.
Een site verhuizen met een 302 werkt ook niet instant
Edit: ik lees je reactie nu nog een keer en volgens mij zeg je dus juist dat mijn aanname (deels) niet klopt: als er een 301 tussen zit zal het wat langer duren. Lees ik het goed?
[ Voor 12% gewijzigd door posttoast op 28-09-2016 09:33 ]
Google crawlt en verwerkt pagina's in aparte stappen. Dus eerst zal het de redirect tegenkomen en de 2de URL in de lijst met te crawlen URL's plaatsen. Daarna zal het de 2de URL crawlen en een 404 zien. Over het algemeen zal hier niet zo veel tijd tussen zitten. Maar een rechtstreekse 404 heeft wel de voorkeur.posttoast schreef op woensdag 28 september 2016 @ 09:32:
[...]
OK, ik snap dat het niet instant gebeurt maar dat geldt ook als je direct een 404 geeft ipv na een redirect. Kan ik concluderen dat het geen verschil maakt en mijn aanname dus klopt? Of kun je stellen dat een directe 404 sneller verwijderd zal worden dan een 404 na een 301?
Edit: ik lees je reactie nu nog een keer en volgens mij zeg je dus juist dat mijn aanname (deels) niet klopt: als er een 301 tussen zit zal het wat langer duren. Lees ik het goed?
Helder verhaal, hartelijk dankAndré schreef op woensdag 28 september 2016 @ 09:51:
[...]
Google crawlt en verwerkt pagina's in aparte stappen. Dus eerst zal het de redirect tegenkomen en de 2de URL in de lijst met te crawlen URL's plaatsen. Daarna zal het de 2de URL crawlen en een 404 zien. Over het algemeen zal hier niet zo veel tijd tussen zitten. Maar een rechtstreekse 404 heeft wel de voorkeur.
Ben even een filter aan het maken die op basis van 'opnemen'/include werkt. Had eerst even een uitsluiten/exclude filter gemaakt met bijbehorende segmenten, maar ga nu voor de include met een lijstje van alle gangbare talen die ik de moeite waard vind.
Helaas geen include filter met een totaallijstje mogelijk op basis van alle iso-talen die Google analytics gebruikt (patroon mag niet meer dan 255 tekens zijn), dus ik ben bezig om een RegEx-je te bouwen die de taalcombo's binnen 255 kan pakken.
Zag zo even niet snel een kant en klare lijst op het web, dus ben even lekker aan het hobbyen.
[ Voor 15% gewijzigd door Jivebunny op 07-12-2016 12:25 ]
Pixel 7 | NAS: HP Gen8 e3-1265L v2 16GB 12TB unRAID 6.9.2 | D: Ryzen 5600x 16GB 3000mhz RX 6800 XT MB Acer 27" IPS 144hz | Nissan Leaf 40 Tekna
Yup op al m'n sites komt hij langsJivebunny schreef op woensdag 7 december 2016 @ 12:24:
Zijn er meer mensen die afgelopen week last hebben van de taal-spammers? trump troep en anderen? Zag dat ze ook nog eens van legit sites binnenkwamen: reddit.com en lifehacker.com. Gelukkig is op beide sites al actie genomen om de spam te stoppen. Ging hard op een gegeven moment; 1200 sessies in 3 dagen tijd. Veel irritanter dan de bekende referral ghost spam.
Voor een exclude filter: http://blog.analytics-too...st-google-analytics-spam/
Een include filter heb ik niet, benieuwd waar je op uitkomt.
include patroon:JJ93 schreef op woensdag 7 december 2016 @ 13:04:
[...]
Yup op al m'n sites komt hij langs![]()
Voor een exclude filter: http://blog.analytics-too...st-google-analytics-spam/
Een include filter heb ik niet, benieuwd waar je op uitkomt.
1
| ^[a-zA-Z0-9_]{1,2}(\-|\_)[a-zA-Z0-9_]{2,3}$|^[a-zA-Z0-9_]{1,2}$|\(not set\) |
Deze is een beetje ruimer dan de officiële iso code combo's die je zou kunnen gebruiken. Er zijn namelijk meerdere lijsten met verschillende iso standaarden en ik zag ook op basis van eigen data dat er wel wat combo's bij zaten die niet officieël op de lijsten staan, die ik toch voorlopig wil behouden. Bijvoorbeeld 'en-029' kan nu ook, en die zit er een paar keer tussen. Ik denk dat het ook bot-traffic is maar ga dat later nog wel een keer uitzoeken. Voor nu heb ik hiermee de meeste potentiële combo's (ook een aantal niet legit dus, zz-ZZZ bijv.) te pakken. Dit is niet erg want het gaat de spammers om de boodschap die ze kwijt kunnen in de language settings. En dat is niet de moeite met dit patroon.
Eventueel ook een strikter patroon voor de iANAL analytics users:
1
| ^[a-z]{2}(\-|\_)[A-Z]{2}$ |
Eventueel verdere uiteenzetting op mijn eigen blogje (als dit niet gewenst is mods, sorry!)
[ Voor 6% gewijzigd door Jivebunny op 07-12-2016 14:12 ]
Pixel 7 | NAS: HP Gen8 e3-1265L v2 16GB 12TB unRAID 6.9.2 | D: Ryzen 5600x 16GB 3000mhz RX 6800 XT MB Acer 27" IPS 144hz | Nissan Leaf 40 Tekna
Mijn 'anti spam' weergave niet daar zit een filter op die alleen geldige hostnamen toelaat (had last van ghost spam).
Zie hier een artikel om dat in te stellen https://jonnyjordan.com/b...spam-in-google-analytics/
Dit gaat alleen over een iets andere vorm van spam de laatste dagen. Dit is language settings spam. Er wordt niet altijd een onlogische referral meegegeven. Het komt ook van valide domeinen op het moment. Het enige waar je het duidelijk aan ziet zijn de taalsettings. Dat gaat met de filters op je link ook niet per se werken.Marc3l schreef op woensdag 7 december 2016 @ 14:57:
In mijn weergave zonder filters zie ik het ook terugkomen.
Mijn 'anti spam' weergave niet daar zit een filter op die alleen geldige hostnamen toelaat (had last van ghost spam).
Zie hier een artikel om dat in te stellen https://jonnyjordan.com/b...spam-in-google-analytics/
Referral spam is inderdaad met geldige hostnaam filter op te lossen. Dat is denk ik het eerste wat iedereen doet bij een nieuw ua-id/property.
Pixel 7 | NAS: HP Gen8 e3-1265L v2 16GB 12TB unRAID 6.9.2 | D: Ryzen 5600x 16GB 3000mhz RX 6800 XT MB Acer 27" IPS 144hz | Nissan Leaf 40 Tekna
Vraag: een partij voert voor mij linkbuilding uit en de links die zij verkrijgen zijn van websites met een hoge domain authority. Echter, de pagina waar de link op staat heeft een Page Authority van 1. In hoeverre zien jullie een link op een PA van 1 als waardevol wanneer de DA +60 is b.v..
Zelf denk ik dat het zonde is van de efforts en dat je beter kan focussen op pagina's met hoge authority
Anoniem: 58485
[ Voor 15% gewijzigd door André op 14-04-2017 10:40 ]
partij voert gewoon linkdump uit op niet echt relevante plekken. Meer bedrijfsregisters of plekken waar het gewoonweg toegestaan is om je link te plaatsen op een site die toevallig een prima DA heeft
Niet mijn cup of tea. Tijd om het in-house te halen denk ik
[ Voor 16% gewijzigd door AOC op 01-05-2017 10:33 ]
Onlangs is dat bedrijf onder een andere naam verder gegaan en werd mij gevraagd om de website te rebranden met grotendeels dezelfde content, op een nieuwe domeinnaam welteverstaan. De oude website is niet meer online.
De nieuwe website heeft een Pagespeed score van 89 op de desktop, 77 op mobiel en geen crawlfouten in de Search console. Toch is de site nog niet te vinden onder keywords waarin de oude wel hoog scoorde. Het gaat dan om specifieke diensten die het bedrijf aanbiedt.
Mijn vermoeden is dat de gebrekkige content hier in elk geval aan bijdraagt: er is nooit meer aangeleverd dan wat matige foto's en korte tekstjes, waarbij het inleidende tekstje op de voorpagina nog het grootst is. Hierdoor nemen de terugkerende elementen zoals navigatie steeds het grootste deel van de page size in beslag.
Daarom zit ik te denken om de afzonderlijke pagina's om te zetten naar een single page design met anchors voor elke titel. Is dit überhaupt verstandig, kan het helpen of heeft het geen zin?
Certified smart block developer op de agile darkchain stack. PM voor info.