cariolive23 schreef op vrijdag 06 november 2009 @ 20:21:
@Burne: Tuurlijk, het is allemaal met budget-machines op te lossen, maar of daarmee nu echt de risico's mee laat afnemen? Een server met dubbel uitgevoerde onderdelen (denk aan voeding, schijven, geheugen, netwerkkaarten, etc) kan veiliger zijn en minder kosten.
Ik ben nu een jaar of twaalf bezig met hosting. Ik heb in die tijd van alles in m'n handen gehad, van klanten met ikea-stellingen vol met 2de hands bureaumachines tot rack na rack met Sun Netra's in dure datacenters. Gek genoeg scoren bureau-pc's niet veel slechter dan dure hardware. Iedere enkele machine gaat stuk, dus moet je je redundancy niet halen uit dubbele voedingen of dubbele netwerkkaarten. In 12 jaar heb ik een paar (minder dan 5 elk) stukke voedingen en NIC's gezien, en honderden stukke harddisks, RAM en tientallen CPU's.
Voor 1500 euro heb je geen replicatie, voor dat geld heb je de manuren nog niet eens betaald. En dan heb je de servers en routers nog niet eens besteld, laat staan betaald.
Ik ben met opzetten van mysql-replicatie hooguit twee uur bezig. Als de klant de hardware levert kan 'ie voor 300 euro klaar zijn. Als het grote databases zijn is de replicatie dan nog lang niet af, maar, de klant krijgt een mailtje als dat gebeurt is en ik hoef daar niet voor te blijven zitten.
Voor 1500 euro heeft 'ie twee Supermicro's met elk twee harddisks, en een mooie HP switch met HSRP. Als 'ie handig genoeg is om Asterisk aan de praat te krijgen is MySQL replicatie geen probleem, enkel het verwerven van wat nieuwe kennis. Support genoeg, zelfs als je jezelf 'beperkt' tot GoT.
En misschien is het voor jou triviaal om op te lossen, ik heb niet de indruk dat Gepebril hier ervaring mee heeft. Zo triviaal is het dan niet, het gaat dus meer tijd kosten. Zowel het uitvinden van de juiste opzet, daadwerkelijk opzetten en vervolgens ook nog eens goed testen.
Als 'ie de howtoforge-howto volgt heeft 'ie na afloop gewoon replicatie. Het is feitelijk echt zo simpel als een handvol mysql-commando's.
Overigens moet je niet vergeten ook de applicatie server dubbel uit te voeren, je hebt er niets aan dat je database keurig is gerepliceerd maar niet kan worden gebruikt omdat de applicatie server op zijn gat ligt.
Ik zie niets wat je niet met een tweede machine en rsync op kunt lossen, zeker als een paar minuten downtijd geen probleem is. Voor HA is er het eerder genoemde linuxvirtualserver.org maar dan begin je al een behoorlijk parkje te krijgen. Twee loadbalancers, twee asterisk-dozen, twee mysql-dozen, een switch.
Dan is de replicatie voor niets geweest en heb je een hoop geld verbrand zonder enig rendement er voor te krijgen. Vandaar dat het (zeker met een beperkt budget) handiger is om eerst de basis goed te krijgen en dan pas te gaan kijken naar replicatie. Zonder fatsoenlijk budget, 10k is niets, ga je er weinig mee bereiken.
Als je de consultant-route gaat ben je sneller door je geld heen. Gek genoeg zie ik nooit een klein bedrijfje eerst een consultant inhuren en dan alsnog succesvol worden. Succesvol worden doe je door bovenop je weinige kapitaal te blijven zitten.
Genoeg voorbeelden. Gepebril's insteek is de juiste. Twee aftandse P4's zijn samen betrouwbaarder dan een Dell van 50K€ en kosten evenveel als de DRAC voor je dure Dell.
16GB data klinkt jou wellicht in de oren als veel data, ik heb indexen binnen een database (PostgreSQL) die al van deze orde zijn. En voor 500 queries per seconde hoef je voor een webbased applicatie geen twee servers te nemen, dat kan één server ook wel aan. En dat hoeft echt geen zwaar geschut te zijn.
16G die gelijktijdig in gebruik is door 2500 klanten, vooral. Da's iets heel anders dan 8G logfile in SQL met een 16G index eronder die sporadisch ingekeken wordt. (En de output van mysqldump is een stuk compacter dan dezelfde database 'live', bijvoorbeeld omdat alle indexen ontbreken.)
Natuurlijk, ik kan zo een oplossing uit m'n mouw schudden die €85.000 euro kost en pas over een paar maanden 'klaar' is, met tientallen vergaderingen waar een stel consultants eindeloos zit te emmeren over de kleur van de website, maar dat is niet wat Gepebril zoekt. Die wil iets simpels, iets wat 'ie zelf kan in een paar uur en wat het overgrote deel van z'n problemen oplost. Dat kan, en het is eenvoudiger en goedkoper dan jij nu doet voorkomen.
En fors met geld strooien levert ook niet altijd het gewenste resultaat op. Ik heb meegemaakt dat een duur, landelijk bekend consultancy- en beheers-bureau de database-servers voor een groot, landelijk bedrijf beheerde. Op een dag komt men erachter dat er nog nooit getest is of de failover wel werkt, dus er gaat een briefje naar de klant. De betreffende medewerker was op vakantie, dus die brief bleef liggen. Vervolgens 'test' men de failover zonder toestemming van de klant. En je raadt het al: het werkt niet, en erger: beide database-servers overleven de test niet intact. Harddisk in de ene, CPU in de ander, na het nodige gepower-cycle. Later die dag is er nieuwe hardware en vervolgens lukt het niet om de laatste backup terug te zetten, dus men moet terugvallen op de voorlaatste volledige backup. In een database waarin 30 procent van de entries in een week veranderd, dus enorme problemen en kosten die pas na maanden opgelost waren. En meer dan 2.5 dag downtijd. Waarvoor ruim meer dan een miljoen per jaar betaald werd, en wat met 99.999% garanties geleverd werd.
I don't like facts. They have a liberal bias.