Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

Je site door Google laten hosten, retesnel?

Pagina: 1
Acties:

  • André
  • Registratie: Maart 2002
  • Laatst online: 27-11 10:04

André

Analytics dude

Topicstarter
Google heeft vandaag weer iets nieuws gelanceerd:

http://code.google.com/speed/pss/index.html

Je kunt je site nu laten serveren door de servers van Google. Kort gezegd gaat dat als volgt:
  • Je verwijst in je DNS je domeinnaam naar Google's servers
  • Je zet een nieuw subdomein op waar je originele site te bereiken is
  • Google download je site vanaf dat subdomein
  • Vervolgens wordt alles gecomprimeerd, samengevoegd en geoptimaliseerd
  • De pagina's worden wereldwijd vanaf de dichtstbijzijnde server aan je bezoekers geserveerd
Er zitten wel een paar nadelen aan (http://code.google.com/speed/pss/faq.html#limitations), dus het werkt niet voor alle sites. Maar voor een simpele site die bijvoorbeeld internationaal bereik heeft is het wel een optie.

Je hoeft geen CDN meer in te zetten, en laadtijdoptimalisatie hoef je ook niet te doen, dat doet Google voor je. Qua hosting kun je iets heel braks nemen, dat dient alleen nog om Google van content te voorzien.

Meningen? Wie zou er belang bij hebben?

  • MueR
  • Registratie: Januari 2004
  • Laatst online: 00:24

MueR

Admin Devschuur® & Discord

is niet lief

Leuk voor simpele HTML sitejes, maar een beetje interactieve site (zeg een forum, webwinkel of alle andere sites waar men meer kan doen dan lezen) is het meteen nutteloos.

Anyone who gets in between me and my morning coffee should be insecure.


  • Stroopwafels
  • Registratie: September 2009
  • Laatst online: 20:09
@MueR
Ik gebruik zelf Cloudflare voor mijn forum (altijd wel ~50 gebruikers online) en merkte een enorm grote verschil dus het is niet meteen nutteloos met Cloudflare.

Geen idee hoe het zit met Google.

[ Voor 12% gewijzigd door Stroopwafels op 28-07-2011 17:14 ]


  • SinergyX
  • Registratie: November 2001
  • Laatst online: 19:35

SinergyX

____(>^^(>0o)>____

MueR schreef op donderdag 28 juli 2011 @ 17:07:
Leuk voor simpele HTML sitejes, maar een beetje interactieve site (zeg een forum, webwinkel of alle andere sites waar men meer kan doen dan lezen) is het meteen nutteloos.
En juist die sites zijn over het algemeen al vrij snel, dat ik de meerwaarde ervan niet zie. Maar dat je een dump-host nodig hebt, betekend dat je content dus niet altijd up-to-date is?

Hopelijk heeft google wel beetje gecommuniceerd met die webspeed mensen? :P
Sorry for the unusually long wait times. There are a lot of tests being submitted right now as a result of the Page Speed Service launch.

[ Voor 19% gewijzigd door SinergyX op 28-07-2011 17:13 ]

Nog 1 keertje.. het is SinergyX, niet SynergyX
Im as excited to be here as a 42 gnome warlock who rolled on a green pair of cloth boots but was given a epic staff of uber awsome noob pwning by accident.


  • ACM
  • Registratie: Januari 2000
  • Niet online

ACM

Software Architect

Werkt hier

André schreef op donderdag 28 juli 2011 @ 16:56:
Qua hosting kun je iets heel braks nemen, dat dient alleen nog om Google van content te voorzien.
Dat blijft van je site afhangen. Als je content produceert die wat jou betreft niet gecached mag worden, dan kan Google's reverse-proxyservice weinig anders doen dan elke request voor de content doorsturen en het resultaat voor die specifieke request optimaliseren. Dan werkt het vanuit jouw servers gezien domweg alsof je een reverse proxy (al dan niet via een cdn) voor je statische content hebt en al je dynamische content nog steeds van je servers blijft komen.

Het kan op zich best interessant zijn om zo'n soort cdn/optimalisatieservice te nemen, hoewel ik dat niet zo gauw bij Google zou hosten (ze krijgen al veel te veel van onze informatie). Wat sowieso ook een leuk bijeffect is, is dat je ineens voor simpele DDoS-aanvallen op Google's capaciteit kan vertrouwen (als de aanvallers doorhebben waar Google's servers hun data bij jou vandaan halen natuurlijk niet meer).
MueR schreef op donderdag 28 juli 2011 @ 17:07:
Leuk voor simpele HTML sitejes, maar een beetje interactieve site (zeg een forum, webwinkel of alle andere sites waar men meer kan doen dan lezen) is het meteen nutteloos.
Volgens mij stel je het nu te simplistisch voor. Het inlinen van css en javascript of zelfs afbeeldingen kan op zich heel nuttig zijn voor laadtijden van elke site. En de andere optimalisaties zijn ook niet per se nutteloos voor zeer dynamische sites. En dan is het een voordeel dat e.e.a. geintegreerd zit met een wereldwijd CDN.

Wat het precies met de latencies doet voor je content weet ik niet, dat zal niet echt verbeteren (de gebruiker doet eerst een request naar de google-server in de buurt, die het dan alsnog bij jou in verwegistan moet ophalen). Maar als de aanvullende statische content allemaal al in dat CDN gecached zit zal je er wellicht weinig van merken.
Mijn mening over de pagespeed module voor apache was sowieso dat we te veel van de optimalisaties toch weer uit zouden "voor de zekerheid" en uiteindelijk weinig meer zouden lijken te winnen dan we nu met handwerk al bereikt hebben. Bovendien leek het inderdaad niet enorm geschikt voor zeer dynamische sites. Maar wellicht verandert dat nog.

  • Mar2zz
  • Registratie: September 2007
  • Laatst online: 20-08 07:53
Is dit ook niet handig voor mobiele versies van websites? daar zijn alle extra's toch al vaak gestript.

  • crisp
  • Registratie: Februari 2000
  • Nu online

crisp

Devver

Pixelated

Ik heb gisteren een run gedaan voor tweakers.net via webpagetest: http://www.webpagetest.or...2cacd1d96409cbdd9ff41a8e/

Helaas nog niet veel tijd gehad om de resultaten te bekijken, maar op het eerste gezicht krijg ik het idee dat eea teveel gericht is op de first-time visitor. Zeker met betrekking tot het combineren van javascripts en css moet je op een site als de onze (met veel recurring visitors) een beetje een gulden middenweg vinden waarbij je optimaal gebruik kan maken van de clientside cache, het aantal simultane requests die (moderne) browsers kunnen maken en de grootte van je gecombineerde files.

Wat me al wel opviel was dat de winst op de complete page load time voornamelijk komt uit het feit dat ze jpegs hercomprimeren naar +/- 50% quality - daar wordt ik niet zo vrolijk van eigenlijk :P

Waar de winst op start render vandaan komt is wellicht wel interessant, maar ik zie dan liever (ook) de resultaten van bijvoorbeeld Chrome, Firefox 5 of IE9 in plaats van IE8. Helaas waren de wachttijden bij andere servers van webpagetest gisteravond nogal lang...

Intentionally left blank


  • Remy
  • Registratie: Februari 2002
  • Laatst online: 12-11 21:57

Remy

I usually get 100% accuracy

Dit is niet echt iets voor TIMarketing, meer voor Netwerken: vandaar move TIM >> IHosting :)

LinkedIn
Instagram


  • The CarNagE Man
  • Registratie: Maart 2002
  • Laatst online: 13-11 23:09

The CarNagE Man

SüperG33K

Net getest met een statische site en het verschil was dat het orgineel sneller laad dan google. Misschien dat het voor simpele sites scheelt maar echt veel gebruikt worden zal het niet denk ik.
Vooral voor sites die in NL draaien zal weinig uitmaken omdat de route bij ons korter is dus een snellere laadtijd mogelijk is.

  • André
  • Registratie: Maart 2002
  • Laatst online: 27-11 10:04

André

Analytics dude

Topicstarter
The CarNagE Man schreef op vrijdag 29 juli 2011 @ 14:24:
Net getest met een statische site en het verschil was dat het orgineel sneller laad dan google. Misschien dat het voor simpele sites scheelt maar echt veel gebruikt worden zal het niet denk ik.
Dat is ook de conclusie die ik veelal tegenkom.
Vooral voor sites die in NL draaien zal weinig uitmaken omdat de route bij ons korter is dus een snellere laadtijd mogelijk is.
Dat vraag ik me af, Google heeft hier ook een parkje staan ;)
Pagina: 1