ProLiant 380 Of op een andere manier Downtime minimaliseren

Pagina: 1
Acties:

  • Wilfred
  • Registratie: Januari 2000
  • Laatst online: 22-08-2022
We hebben hier de policy om voor elke applicatie een apparte server aan te schaffen A Eur 20000 per server lijkt me dat niet slim?? Mijn eerste vraag is dan ook hoeveel databases je op een SQL server kan zetten en hoeveel data je naar zo'n ding kan pompen over een 100 Mbit lijntje voor je performance verlies gaat lijden. Het zijn veelal platte databases en er gebeurt weinig tot geen rekenwerk op de server. Het zijn personeelsgegevens of NAW gegevens en hier en daar wat textvelden waar wat grotee blokken opmerkingen etc in staan.
Mijn idee is dat het niet nodig is om voor elke applicatie een apparte server neer te zetten. Maar graag wat info hoe dat bij jullie gaat en warom dat wel slim is of niet.

Verder is mijn vraag wanneer je je downtime wilt minimaliseren is het dan dan beter om een geklusterde server neer te zetten of twee servers waarmee je ook nog eens aan workload balancing doet?

Is het overigens gezien de incomplexiteit van de database niet veel voordeliger om gewoon twee PC's te kopen en die neer te zetten? Wat zijn de voordelen van een Pro liant 380 T.O.V. een zware PC? Kan je met de huidige technologie ook een Raid 5 in een normaale PC bouwen waarbij je HDD's hotswapable zijn?

Laatste: Is het mogelijk om Borland's Interbase 6 naast SQL server te laten draaien op een PC?

edit:
Misschien is zo de titel niet overeenkomstig aan het bericht maar we moeten dus de applicatie op een server zetten op een manier dat iig de downtime minimaal tot 0 is. Het gaat om een systeem met dossiers (100 KB per dossier max)

[ Voor 10% gewijzigd door Wilfred op 30-07-2003 08:33 ]

Sign of my Time


Verwijderd

Een Proliant DL380 (G3 tegenwoordig) bied de mogelijkheid om redundante powersupplies en fan's te plaatsen.
Ook de hot-spare memory feature (waarbij je reserve DIMM(s) hot-standby hebt staan) is erg handig voor hogere beschikbaarheids-oplossingen.
Dit gekoppeld aan 6 schijf-posities voor RAID heb je een goede machine.

Betreffende je Interbase <-> MS SQL vraag: Ja dan kan.

[ Voor 7% gewijzigd door Verwijderd op 30-07-2003 08:39 ]


  • Wilfred
  • Registratie: Januari 2000
  • Laatst online: 22-08-2022
De ProLiant hebben hun Raid controler als Single point of failure.. Dat moet ik dus oplossen door de server dubbel uit te voeren. Ik kom dan echter op een bedrag van 30 000 Eurie..
Als ik 3 PC's koop (2 om neer te zetten en een als reserve) ben ik misschien 10000 euro kwijt. Dit zou ik het liefst doen zeker omdat het om een pilot product gaat en we aan het zoeken zijn naar een ander product wat als vervanging gaat dienen voor deze applicatie.
Ik denk dat de appicatie zoals hij nu gebruikt wordt een processorbelasting gaat leveren van 3-6 %.

Sign of my Time


  • Koffie
  • Registratie: Augustus 2000
  • Laatst online: 23:19

Koffie

Koffiebierbrouwer

Braaimeneer

Laten we eens beginnen wat je bedoelt met "applicatie" :?
Verder begrijp ik dat je dus allemaal 1U servers gebruikt.

En tja .. zware kloonPC, ik zou er niet aan beginnen als je daar je productionele databases op moeten draaien.

Tijd voor een nieuwe sig..


  • Eijkb
  • Registratie: Februari 2003
  • Laatst online: 22-04 21:10

Eijkb

Zo.

Denk ook eens aan de HP Nonstop machine. Die garanderen een uptime van 99,99999%. Dat zijn 2 negens meer achter de komma dan bijvoorbeeld IBM systemen. (* exl onderhoud). Ik denk echter dat het misschien wat overkill is :9

.


  • Wilfred
  • Registratie: Januari 2000
  • Laatst online: 22-08-2022
Koffie schreef op 30 July 2003 @ 08:50:
Laten we eens beginnen wat je bedoelt met "applicatie" :?
Verder begrijp ik dat je dus allemaal 1U servers gebruikt.

En tja .. zware kloonPC, ik zou er niet aan beginnen als je daar je productionele databases op moeten draaien.
Applicatie = database SQLserver. En de applicatie staat erop (de EXE) zodat een nieuwe versie over het netwerk verspreid kan worden.

Wat zijn 1U servers? 1 per applicatie>>dan Ja.

Ja de Productiedatabase draat daarop..

Je hebt de optie clusteren of enkel uitvoeren met redundant fan's, voeding..
Kan je ook twee machine's naast elkaar zetten die niet in een kluster zitten maar wel alletwee dezelfde data bevatten en leveren?

[ Voor 22% gewijzigd door Wilfred op 30-07-2003 09:07 ]

Sign of my Time


Verwijderd

Applicaties hebben nogal eens de neiging om elkaar te bijten. Met name de bij de applicatie horende database engines kunnen conflicteren. Denk b.v. aan SQL en Pervasive van Exact, wat heel regelmatig problemen geeft.

Je machine iig uitrusten met ECC geheugen, redundante voeding en een RAID schijfsysteem. Een redundante array controller is m.i. echt niet nodig en inderdaad een prijzige oplossing. Je moet dit soort zaken gewoon afwegen.

Wat betreft interbase en SQL: durf ik je niet direct te zeggen. Volgens mij heb ik het staan bij een klant maar 100% zeker weet ik het niet. Ik zou zeggen installeer beide apps op een test machine en kijk of het werkt.

En 20000 voor een ML380 vind ik nogal overdreven. Eerder 4000-5000 eypo heur...

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

Wilfred schreef op 30 juli 2003 @ 08:24:
We hebben hier de policy om voor elke applicatie een apparte server aan te schaffen A Eur 20000 per server lijkt me dat niet slim??
Per applicatie een server is voor veel sysadmins juist een droom. Kijk eens naar de voordelen:
• Geen incompatibiliteits problemen met software onderling
• Minder impact bij uitval van 1 server (nl. maar 1 service down)
• Recovery time van 1 service ( = 1 configuratie) is veel korter dan bij veel services
• Een test platform opzetten is veel gemakkelijker doordat er maar 1 service draait.

Ik zie geen enkel nadeel, behalve dan dat het wat extra geld kost, maar zolang de organisatie expliciet kiest voor deze oplossing, dan zou ik de laatste zijn die er over zou beginnen te mompelen.
Mijn eerste vraag is dan ook hoeveel databases je op een SQL server kan zetten en hoeveel data je naar zo'n ding kan pompen over een 100 Mbit lijntje voor je performance verlies gaat lijden.
Onmogelijk te zeggen. Test het eens uit.
Maar wil jij je servers echt tot de maximum aan performance gaan pushen? Je hebt dan namelijk geen groei ruimte meer.
Mijn idee is dat het niet nodig is om voor elke applicatie een apparte server neer te zetten. Maar graag wat info hoe dat bij jullie gaat en warom dat wel slim is of niet.
Nodig zal het misschien technisch niet zijn, maar je verkleint je kans op problemen, je implementatie path (testen van diverse software in combinatie) en je downtime toch wel hoor.
Verder is mijn vraag wanneer je je downtime wilt minimaliseren is het dan dan beter om een geklusterde server neer te zetten of twee servers waarmee je ook nog eens aan workload balancing doet?
Een cluster is wel leuk, maar let dan wel op dat beide servers voldoende specced zijn, om de load van 2 servers te dragen.
Is het overigens gezien de incomplexiteit van de database niet veel voordeliger om gewoon twee PC's te kopen en die neer te zetten?
Servers vervangen door PC's zou ik nooit aan beginnen. Met alle respect - maar deze PC's wil je zeker zelf ook nog gaan bouwen ofzo?

Begrijp me niet verkeerd, services consolideren op servers kan absoluut wel, maar zolang je dat niet hoeft zou ik daar absoluut niet voor kiezen. Uiteraard moet je dit niet in het extreme doortrekken, maar zolang je een goede balans tussen kosten en stabiliteit weet te handhaven is dit ideaal. Persoonlijk ben ik groot voorstander van aparte services op aparte servers omdat het het allemaal gewoon complexer maakt.

Overigens - waarom kies je niet voor goedkopere servers als je denkt dat ze overspecced zijn (eg: de DL360)

[ Voor 3% gewijzigd door elevator op 30-07-2003 09:19 ]


  • Wilfred
  • Registratie: Januari 2000
  • Laatst online: 22-08-2022
Verwijderd schreef op 30 July 2003 @ 09:04:
Applicaties hebben nogal eens de neiging om elkaar te bijten. Met name de bij de applicatie horende database engines kunnen conflicteren. Denk b.v. aan SQL en Pervasive van Exact, wat heel regelmatig problemen geeft.

Je machine iig uitrusten met ECC geheugen, redundante voeding en een RAID schijfsysteem. Een redundante array controller is m.i. echt niet nodig en inderdaad een prijzige oplossing. Je moet dit soort zaken gewoon afwegen.

Wat betreft interbase en SQL: durf ik je niet direct te zeggen. Volgens mij heb ik het staan bij een klant maar 100% zeker weet ik het niet. Ik zou zeggen installeer beide apps op een test machine en kijk of het werkt.

En 20000 voor een ML380 vind ik nogal overdreven. Eerder 4000-5000 eypo heur...
Er is al een reactie van iemand die wist dat dat wel kan.. dus dat ga ik gewoon een keer testen.

Ik wil echt de single point of faillure eruit halen.. Dus twee machine's. om de raid controler dubbel te hebben en ook de moederborden dubbel te hebben.
De gegevens moeten namelijk altijd beschikbaar zijn. het gaat om een ziekenhuis en ik wil er zeker van zijn dat de artsen de gegevens kunnen bekijken.

Sign of my Time


  • Stormtrooper
  • Registratie: December 2001
  • Laatst online: 22:07

Stormtrooper

Stormtroopers Of Death

Je zou kunnen kijken naar een DL380 Packaged Cluster. 2 servers en een RAID-cabinet in 1 "kant-en-klare" doos. Gooi er nog wat harddisken, CPU's en geheugen tegenaan en je hebt een hele mooie oplossing.

Dan praat je overigens wel over de grotere bedragen.....

Stormtroopers toys: Asus Strix 16, Samsung S24 Ultra, HP Z4 G4, HP Z1 G1i.


  • Wilfred
  • Registratie: Januari 2000
  • Laatst online: 22-08-2022
Stormtrooper schreef op 30 juli 2003 @ 09:25:
Je zou kunnen kijken naar een DL380 Packaged Cluster. 2 servers en een RAID-cabinet in 1 "kant-en-klare" doos. Gooi er nog wat harddisken, CPU's en geheugen tegenaan en je hebt een hele mooie oplossing.

Dan praat je overigens wel over de grotere bedragen.....
Jup inderdaad een euro of 30 000 dat is inc Onderhoud en lycenties.

Als je daarvoor in de plaats een Tweetal PC's neerset die door wie dan ook gemaakt zijn ;) met een hotswappable Raid een dual P4 mobo.. 2 gieg geheugen etc etc ben je gewoon zo verschrikkelijk veel goedkoper uit dat ik het bijna niet kan laten... Snappie.
NB de serverbelasting is nu 3% ok tot de limit is niet goed maar dit is een overkill aan specs waar je helemaal eng van wordt.
Dedicated servers ala maar het gaat vooral om een uptime van 99,9999 te halen.
En dan wel zo goedkoop mogelijk.

Sign of my Time


  • MoBi
  • Registratie: Oktober 1999
  • Laatst online: 26-04 13:50
Uptime garanties en zo goedkoop mogelijk gaan niet echt samen. Dual p4 is niet echt wat intel voor het oog heeft, het is dual xeon. Daar zit alweer een ander prijskaartje aan. Geheugen is niet gewoon ddr maar geregisteerd ddr met ecc, factor 2 a 3 duurder dan normaal geheugen. De server die hier allemaal worden genoemd hebben altijd scsi, heeft je zelf bouw bakkie dat ook? Een goede raid controller zit nog steeds rond de 1000 euro per stuk. Je wilt server niet echt zelf bouwen, of je moet weten wat voor onderdelen je nodig hebt en dan ook de goede merken kan kiezen. Bij bakken als compaq kan mits je er de goede leveringsvoorwaarden aanhangt binnen 4 uur iemand staan om het kapotte onderdeel te vervangen, ook al is de server 3 a 5 jaar oud. Je zelf bouw ding kan dat meestal niet. Meestal zijn onderdelen dan niet meer te krijgen.

Volgens mij zit je te lullen, want ik voel nattigheid....


  • Domino
  • Registratie: Juli 1999
  • Laatst online: 27-04 13:40
Wilfred schreef op 30 juli 2003 @ 09:04:
[...]
Wat zijn 1U servers? 1 per applicatie>>dan Ja.
Nee, 1U is een server die een (1) hoogte-eenheid hoog is. Ookwel bekend onder de koosnaam pizzadoos ;).

Verwijderd

MoBi schreef op 30 July 2003 @ 10:05:
Uptime garanties en zo goedkoop mogelijk gaan niet echt samen. Dual p4 is niet echt wat intel voor het oog heeft, het is dual xeon. Daar zit alweer een ander prijskaartje aan. Geheugen is niet gewoon ddr maar geregisteerd ddr met ecc, factor 2 a 3 duurder dan normaal geheugen. De server die hier allemaal worden genoemd hebben altijd scsi, heeft je zelf bouw bakkie dat ook? Een goede raid controller zit nog steeds rond de 1000 euro per stuk. Je wilt server niet echt zelf bouwen, of je moet weten wat voor onderdelen je nodig hebt en dan ook de goede merken kan kiezen. Bij bakken als compaq kan mits je er de goede leveringsvoorwaarden aanhangt binnen 4 uur iemand staan om het kapotte onderdeel te vervangen, ook al is de server 3 a 5 jaar oud. Je zelf bouw ding kan dat meestal niet. Meestal zijn onderdelen dan niet meer te krijgen.
buiten die voordelen kan je met compaq insight manager (hp im tegenwoordig :)) veel problemen van te voren aan zien komen... bv er wordt een processor gedetecteerd die niet meer goed functioneert (maar het nog wel doet) en dan kan je de server down brengen wanneer het het beste uitkomt, cpu vervangen en klaar (zeg 10 mins down). dit in tegenstelling tot een zelfgebouwde server, die gaat gewoon down wanneer de cpu kapot is... voordat je erachter bent wat het is en de server weer draait ben je wel een paar uurtjes verder...

Verwijderd

Het lijkt mij veel slimmer om bijvoorbeeld twee applicaties op een server te draaien, en dan een tweede server ernaast zetten die het binnen no-time over kan nemen als de eerste uitvalt. Data e.d. synchroon houden, en je hebt nauwelijks downtime :)

Overigens bestaat dual P4 niet, da's dual P4 Xeon :)

Verwijderd

Wilfred mag ik jou vragen waar jullie de inkopen doen, want ik mag er rederlijkerwijs toch wel vanuit gaan dat je leverancier je de geschikte oplossing kan aandragen of zijn het geldwolven?

[ Voor 6% gewijzigd door Verwijderd op 30-07-2003 10:54 ]


  • PolarWolf
  • Registratie: November 2001
  • Laatst online: 11-01 19:37

PolarWolf

Debian, of course.

elevator schreef op 30 July 2003 @ 09:17:
[...]
Overigens - waarom kies je niet voor goedkopere servers als je denkt dat ze overspecced zijn (eg: de DL360)
Die DL360 zou ik links laten liggen als je voor beschikbaarheid gaat. Van de 6 die we hier hebben staan zijn inmiddels van 3 de voedingen vervangen. De fans die erin zitten blijken erg zwak te zijn, en wanneer er één (van de 3) kapot gaat, dan is je server down, en blijft down totdat je er een andere voeding in propt. En nee, redundant voeding wordt niet ondersteund. De keuze voor een DL380 is een goeie, 5300 array controller erin, 6 drive bays, DAT streamer, dual P4 Xeon 3.06, redundant voeding (volledig aangekleed kost 'ie ongeveer 7 à 8kEUR)...en neemt niet al te veel plaats in. Wanneer je echt redundant storage wilt, dan zou je kunnen denken aan een extern drive cabinet, dubbel verbonden met FC aan je servertje, zodat je twee onafhankelijke paden naar een disk hebt...is wel schreeuwend duur qua software, Secure Path kost ~6000EUR per server.

Undernet #linux, Undernet #ipsec


  • ZeRoC00L
  • Registratie: Juli 2000
  • Niet online
PolarWolf schreef op 30 July 2003 @ 10:58:
[...]

5300 array controller erin
Zit een array-controller onboard !

[*] Error 45: Please replace user
Volg je bankbiljetten


Verwijderd

PolarWolf schreef op 30 July 2003 @ 10:58:
[...]


Die DL360 zou ik links laten liggen als je voor beschikbaarheid gaat. Van de 6 die we hier hebben staan zijn inmiddels van 3 de voedingen vervangen. De fans die erin zitten blijken erg zwak te zijn, en wanneer er één (van de 3) kapot gaat, dan is je server down, en blijft down totdat je er een andere voeding in propt. En nee, redundant voeding wordt niet ondersteund. De keuze voor een DL380 is een goeie, 5300 array controller erin, 6 drive bays, DAT streamer, dual P4 Xeon 3.06, redundant voeding (volledig aangekleed kost 'ie ongeveer 7 à 8kEUR)...en neemt niet al te veel plaats in. Wanneer je echt redundant storage wilt, dan zou je kunnen denken aan een extern drive cabinet, dubbel verbonden met FC aan je servertje, zodat je twee onafhankelijke paden naar een disk hebt...is wel schreeuwend duur qua software, Secure Path kost ~6000EUR per server.
de 360 serie had idd een slechte voeding/fan... maar ons heeft het niet meer dan 10 mins gekost aangezien de "fan degrade" keurig gedetecteerd wordt door HIM voordat de fan echt failed...

Verwijderd

Verwijderd schreef op 30 juli 2003 @ 10:46:
Het lijkt mij veel slimmer om bijvoorbeeld twee applicaties op een server te draaien, en dan een tweede server ernaast zetten die het binnen no-time over kan nemen als de eerste uitvalt. Data e.d. synchroon houden, en je hebt nauwelijks downtime :)

Overigens bestaat dual P4 niet, da's dual P4 Xeon :)
Volgens mij gaat de belasting voor die server best meevallen. Dan liever alles op 1 server zetten en een 2de ernaast die het binnen notime kan overnemen ipv op 2 bakken 2 databases gaan draaien. Mits de hardware het aankan lijkt me dit de beste oplossing.

offtopic:
@JSS, sorry maar mn Alizee logootje heeft plaats gemaakt voor een tux met zonnebril :)

  • Wilfred
  • Registratie: Januari 2000
  • Laatst online: 22-08-2022
Het zou in dit geval gaan om een dubbel uitgevoerde/geklusterde server waar de data dus gesynchroniseerd wordt
PolarWolf schreef op 30 July 2003 @ 10:58:
[...]


Die DL360 zou ik links laten liggen als je voor beschikbaarheid gaat. Van de 6 die we hier hebben staan zijn inmiddels van 3 de voedingen vervangen. De fans die erin zitten blijken erg zwak te zijn, en wanneer er één (van de 3) kapot gaat, dan is je server down, en blijft down totdat je er een andere voeding in propt. En nee, redundant voeding wordt niet ondersteund. De keuze voor een DL380 is een goeie, 5300 array controller erin, 6 drive bays, DAT streamer, dual P4 Xeon 3.06, redundant voeding (volledig aangekleed kost 'ie ongeveer 7 à 8kEUR)...en neemt niet al te veel plaats in. Wanneer je echt redundant storage wilt, dan zou je kunnen denken aan een extern drive cabinet, dubbel verbonden met FC aan je servertje, zodat je twee onafhankelijke paden naar een disk hebt...is wel schreeuwend duur qua software, Secure Path kost ~6000EUR per server.
Het zou in dit geval gaan om een dubbel uitgevoerde/geklusterde server waar de data dus gesynchroniseerd wordt.
Hiermee heb je dan een downtime van hopelijk 0,0 omdat je als een server iets mankeert de ander hebt die lekker doordraait. Het redundant uitvoeren van de fan's en voedingen is dan imho niet nodig. Dat is alleen nodig als je op een server gaat draaien. De server hoeft echt helemaal niets voor te stellen. Alleen de uptime moet gegarandeerd worden. (vergelijkbaar met de politie ze hoeven niets te doen maar moeten er wel zijn)

Sign of my Time


  • marquis
  • Registratie: Januari 2003
  • Laatst online: 20-12-2025
Verwijderd schreef op 30 juli 2003 @ 10:46:
Het lijkt mij veel slimmer om bijvoorbeeld twee applicaties op een server te draaien, en dan een tweede server ernaast zetten die het binnen no-time over kan nemen als de eerste uitvalt. Data e.d. synchroon houden, en je hebt nauwelijks downtime :)

Overigens bestaat dual P4 niet, da's dual P4 Xeon :)
Doe maar gewoon Xeon, P4 Xeon bestaat ook nie (toch?).

Wij werken hier met een NetCache proxyserver en een paar medebedrijven gebruiken twee van deze servers met een zogenaamde "Hartbeat kabel".
Dat is een glasvezelkabel waarover een signaal gaat, zo kunnen beide servers elkaar controleren of de andere nog wel leeft.
Een server stelt zichzelf op als master en de tweede als slave.
Word alleen moeilijk als je daar een data base synchroon over wil draaien.
En vlgens mij moet je eerst SQL stoppen om eem kopie te kunnen maken van een database.
Is denk ik ook een probleem.

[ Voor 14% gewijzigd door marquis op 31-07-2003 12:32 ]

Adem in...... adem uit. Poeh, weer gered :-)


  • paulhekje
  • Registratie: Maart 2001
  • Laatst online: 30-03 19:31
serieuze databases kunnen zich on-line laten repliceren. o.a. oracle en ms sql ondersteunen dit.
verder bestaan er andere vormen van clustering zoals Legato Standby server.
http://portal2.legato.com/products/costandbyserver/

[ Voor 14% gewijzigd door paulhekje op 30-07-2003 13:48 ]

|=|=|=||=|=|=||=|=|=| http://www.vanwijck.com |=|=|=||=|=|=||=|=|=||=|=|=||=|=|=||=|=|=||=|=|=|


  • Wilfred
  • Registratie: Januari 2000
  • Laatst online: 22-08-2022
Kijk dat is interessant. Twee servers, Hartbeat kabel, Online repliceren van MS SQL.
Wat houd dat Legato precies in?.. Ik zoek het ook wel even op..Voor ik dat weer naar m'n hoofd krijg. TXS iig.

Sign of my Time


  • Brazza
  • Registratie: November 2000
  • Laatst online: 23-04 01:03

Brazza

Byte me!

Niet goed gelezen

[ Voor 88% gewijzigd door Brazza op 30-07-2003 13:31 ]


  • PolarWolf
  • Registratie: November 2001
  • Laatst online: 11-01 19:37

PolarWolf

Debian, of course.

Verwijderd schreef op 30 July 2003 @ 11:34:
[...]


de 360 serie had idd een slechte voeding/fan... maar ons heeft het niet meer dan 10 mins gekost aangezien de "fan degrade" keurig gedetecteerd wordt door HIM voordat de fan echt failed...
Kan best wezen, maar dan ga je er vanuit dat je een complete voeding op spare hebt liggen. Nou, hadden we dus niet :-) Plus dat je toch je downtijd houdt omdat je voor het wisselen van de voeding de server echt uit, voor je op tafel hebt moeten liggen om er een andere voeding in te proppen (mocht je die hebben). Heb je dus geen server hebben draaien die op dat moment de load voor je overneemt, dan ben je dus zgn. "Royally Screwed" :-)
Resultaat is dat we alle DL360's uitfaseren t.b.v. DL380's met redundant, hotswap voedingen.

Undernet #linux, Undernet #ipsec


  • PolarWolf
  • Registratie: November 2001
  • Laatst online: 11-01 19:37

PolarWolf

Debian, of course.

marquis schreef op 30 July 2003 @ 12:45:
[...]

Doe maar gewoon Xeon, P4 Xeon bestaat ook nie (toch?).
Marketing technisch gezien heb je gelijk. Ergens na de Pentium III Xeon is een en ander gewoon "Xeon" gedoopt. Echter om aan te geven dat je het hebt over een nieuwe generatie Xeon is het soms wel handig om even erbij aan te geven op welke core deze is gebaseerd: PII, PIII or in dit geval, P4...dit is zeker in serverland niet direct vanzelfsprekend.

Undernet #linux, Undernet #ipsec


  • PolarWolf
  • Registratie: November 2001
  • Laatst online: 11-01 19:37

PolarWolf

Debian, of course.

ZeRoC00L schreef op 30 July 2003 @ 11:07:
[...]


Zit een array-controller onboard !
Ja, een 5i. Niet wat je zoekt wanneer je een beetje performance uit je 15k disken wilt halen (caching).

Undernet #linux, Undernet #ipsec


  • Eijkb
  • Registratie: Februari 2003
  • Laatst online: 22-04 21:10

Eijkb

Zo.

Toch mooi hoe alle technieken uit de HP Nonstop nu ook tot op de servermarkt doordringen. Alhoewel de Nonstop kiest voor 2 heartbeat kabels (IPB bussen), gezien ook die kapot kunnen gaan. Verder het redundant uitvoeren is leuk, maar doe dit dan ook voor je stroomhuishouding en de netwerkinfrastructuur. De twee infrastructuren overigens niet alleen technisch scheiden maar ook 'geografisch'. Dus als de schoonmaakster struikelt over je kabels ze niet meteen beide netwerkkabels eruit trekt :) Etc etc etc etc.

.


  • Koffie
  • Registratie: Augustus 2000
  • Laatst online: 23:19

Koffie

Koffiebierbrouwer

Braaimeneer

Sorry .. het is PNS , maar kan het ff niet laten >:)
Dus als de schoonmaakster struikelt over je kabels ze niet meteen beide netwerkkabels eruit trekt
No way dat er dus een schoonmaaker/ster in mijn serverhok he ;)

Je hebt wel een punt dat je minimaal 2 krachtige UPS'en neer moet zetten.
Beetje lullig als de UPS uitvalt waardoor beide redeundant servers wegvallen ;)

Tijd voor een nieuwe sig..


Verwijderd

Verwijderd schreef op 30 July 2003 @ 11:41:
Volgens mij gaat de belasting voor die server best meevallen. Dan liever alles op 1 server zetten en een 2de ernaast die het binnen notime kan overnemen ipv op 2 bakken 2 databases gaan draaien. Mits de hardware het aankan lijkt me dit de beste oplossing.
Ja, aangezien hij niet vertelde welke services met welke belasting draaien, was dit mijn voorbeeld ;) Jij drukt het inderdaad goed uit :)
offtopic:
@JSS, sorry maar mn Alizee logootje heeft plaats gemaakt voor een tux met zonnebril :)
Foei, :P
marquis schreef op 30 juli 2003 @ 12:45:
[...]

Doe maar gewoon Xeon, P4 Xeon bestaat ook nie (toch?).
Je hebt van iedere generatie een 'bijbehorende' Xeon (vanaf de Pentium 2), de Pentium III Xeons hadden een wat grotere cache, maar draaiden rond de 1GHz, en nu is er dus ook de Pentium IV Xeon, die vanaf 2,2GHz (?) begint, met in eerste instantie 512kB chache.

Edit: PolarWolf heeft inderdaad gelijk, maar het blijft makkelijker - en mijn gewoonte - het zo uit te drukken.

En zoals Koffie ook aangeeft: voordat je geavanceerde servers en hotswaptechnieken gaat inzetten moet je eerst zorgen dat alle overige invloeden uitgeschakeld zijn. Denk hierbij aan een beveiligde serverruimte, noodstroomvoorziening, UPS om stroom te filteren, goede klimatisering in de serverruimte, etc.
Je kan nog zo'n mooie server hebben, maar als het te warm wordt, of er staat een leuk piekstroompje, haalt dat niets uit :)

[ Voor 48% gewijzigd door Verwijderd op 30-07-2003 16:43 ]


  • SpamLame
  • Registratie: Augustus 2000
  • Laatst online: 27-04 12:44

SpamLame

niks

elevator schreef op 30 July 2003 @ 09:17:
[...]

Per applicatie een server is voor veel sysadmins juist een droom. Kijk eens naar de voordelen:
• Geen incompatibiliteits problemen met software onderling
• Minder impact bij uitval van 1 server (nl. maar 1 service down)
• Recovery time van 1 service ( = 1 configuratie) is veel korter dan bij veel services
• Een test platform opzetten is veel gemakkelijker doordat er maar 1 service draait.
Jaja, vind je het erg als ik mening niet met je deel.

punt 1: mee eens, maar waar het geen problemen oplevert hof je het ook niet te laten
punt2: daar heb je dus redundatie voor (mirroring, dubbele voedingen/ netwerk) evnt. in een (loadbalancing) cluster als het echt 99% beschikbaar dient te zijn..
punt3: als de service (lees ik als app) vernaggeld is, dan hoeft dat nog niet in te houden dat de rest er ook uitligt. Als dat wel het geval is heeft dat meer met brakke programmering te maken. In dit geval maakt het ook niet uit of het dedicated is of niet. Verder maak je daar afspraken met de klant over (SLA voor de ITIL bekenden)
punt4: produktie machine dumpen (naar schijf of tape) en op de testmachine (van schijf of tape) inladen en presto.


Zolang je niet te veel machines hebt , is het nog te doen.
Maar zodra het er "teveel" worden ben je veel geld kwijt aan extra admins (meer te beheren)/ support contracten (meer hardware)/ licenties.

Daarnaast moet ook rekening houden, met de dingen die vaak voor lief genomen worden.
Denk bv. aan vloerbelasting, netwerk (architectuur), stroomgroepbelasting, bekabeling en airco.

Met de snellere(cpu/ schijven) en kleinere (dus hogere dichtheid in een std rack) machines van tegenwoordig moet je daar goed rekening mee houden.

Even 3 vb's van werk.
1) sommige racks van ons zijn uitgerust met 3/4 32A groepen en hebben hun eigen 48 poorts patchpanel. De vloerbelasting zit bijna aan zijn tax.
Onlangs was de airco gesneuveld en daar niet goed op geacteerd. Resultaat was een aangename temperatuur van 28 graden en een gesneuvelde server.

2) iemand heeft het voor elkaar gekregen een dedicated server te bemachtigen voor een proggie wat maar liefst 16 mb aan schijfruimte nodig heeft, hoezo overkill.

3)Een tijd terug hebben we bij ons een consolidatieslag op het UX platform uitgevoerd en eerdaags zal dat ook gebeuren voor het Win platform.

Ik ben me ervan bewust dat sommige apps elkaar bijten en dus apart worden gezet. Maar waar het mogelijk is om op 1 server meerdere apps naast elkaar te draaien doen we dat (uitzonderingen daargelaten).

my 1 2 cent coin

  • PolarWolf
  • Registratie: November 2001
  • Laatst online: 11-01 19:37

PolarWolf

Debian, of course.

Misschien nog even ten overvloede aan de originele poster:
Je hebt het over clusteren, en ik proef er een beetje uit dat je MS SQL Server gaat gebruiken.
Per definitie heb je het dan over windows 200{0|3}, en die hebben versies die clustering ondersteunen. Toevallig is ook SQL Server cluster aware, dus met een shared disk kom je al een heel eind m.b.t. het clusteren van je database.
Overigens hebben de andere posters gelijk dat je je wel concentreerd op de servers, maar dat je ook de omgeving niet moet vergeten.
En om je even uit de droom te helpen...0.0 downtime haal je never nooit niet :-)
Snuffel maar eens rond op het internet om te kijken wat je allemaal nodig hebt om "3 negens" to realiseren (99.9% beschikbaarheid). Dan kom je er niet met een paar geclusterde servers.
En voordat de luitjes met een zelfbouw PC'tje gaan gillen dat ze al 3 maanden uptime hebben gehaald: Dat is niet hetzelfde :-)
Het gaat hier niet om systeemuptime, maar over gegarandeerde beschikbaarheid onder diverse workload, onder diverse omstandigheden.

Undernet #linux, Undernet #ipsec


  • ZeRoC00L
  • Registratie: Juli 2000
  • Niet online
SpamLame schreef op 30 July 2003 @ 17:55:
2) iemand heeft het voor elkaar gekregen een dedicated server te bemachtigen voor een proggie wat maar liefst 16 mb aan schijfruimte nodig heeft, hoezo overkill.
Hoeft geen overkill te zijn, ligt eraan wat die 'applicatie' doet.

[*] Error 45: Please replace user
Volg je bankbiljetten


  • Femme
  • Registratie: Juni 1999
  • Laatst online: 25-04 12:30

Femme

Hardwareconnaisseur

Official Jony Ive fan

PolarWolf schreef op 30 juli 2003 @ 18:32:

Snuffel maar eens rond op het internet om te kijken wat je allemaal nodig hebt om "3 negens" to realiseren (99.9% beschikbaarheid). Dan kom je er niet met een paar geclusterde servers.
En voordat de luitjes met een zelfbouw PC'tje gaan gillen dat ze al 3 maanden uptime hebben gehaald: Dat is niet hetzelfde :-)
Het gaat hier niet om systeemuptime, maar over gegarandeerde beschikbaarheid onder diverse workload, onder diverse omstandigheden.
Mwah. 99,9 procent uptime voor een database-server (wat neer komt op zo'n drie kwartier downtime per maand) vind ik niet echt een super prestatie. Een goed belast Linux servertje met MySQL en off the shelf serverhardware (Tyan moederborden e.d.) kan in een geoptimaliseerde omgeving (geen applicaties die ranzige queries veroorzaken) al zo'n hoge beschikbaarheid bereiken.

  • PolarWolf
  • Registratie: November 2001
  • Laatst online: 11-01 19:37

PolarWolf

Debian, of course.

Bereiken is geen kunst, houden en je hand ervoor in het vuur steken wel.

Uiteraard kun je de berekening van beschikbaarheid op een oneindige hoeveelheid manieren maken. Als je alleen rekent binnen kantoortijden, dan ziet een en ander er al heel anders uit. Bijvoorbeeld waar ik werk is een beschikbaarheid van 99% procent gegarandeerd...echter alleen binnen werktijd, en dat is van 7:30 tot 17:30. Dan krijg je al hele andere getallen wat betreft downtijd, en veel grotere service windows...daarom passen we ook geen clustering toe, niet nodig.

[ Voor 77% gewijzigd door PolarWolf op 30-07-2003 20:05 ]

Undernet #linux, Undernet #ipsec


  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

SpamLame schreef op 30 July 2003 @ 17:55:
punt 1: mee eens, maar waar het geen problemen oplevert hof je het ook niet te laten
Nee, maar het weten dat er geen problemen mee zijn kom je dan wel proefondervindelijk achter (dmv. testen in een niet-productie omgeving), dan wel in productie omgeving.
punt2: daar heb je dus redundatie voor (mirroring, dubbele voedingen/ netwerk) evnt. in een (loadbalancing) cluster als het echt 99% beschikbaar dient te zijn..
Veel verschillende databases zijn, niet goed, te clusteren (zo is bv. een Pervasise database niet ondersteund ter clustering door de leveranciers van ons HRM pakket, is Interbase niet ondersteund in een cluster door de leverancier van ons salaris pakket, en zo kan ik nog even door gaan). Ook is clustering in het algemeen een heel erg dure oplossing die juist (imho) voor de lichte databases waar topic starter het over heeft niet geschikt is (dat wil zeggen - overkill is).
Zolang je niet te veel machines hebt , is het nog te doen.
Maar zodra het er "teveel" worden ben je veel geld kwijt aan extra admins (meer te beheren)/ support contracten (meer hardware)/ licenties.
Zoals ik ook al zei - je moet proberen het niet in het extreme door te voeren, maar in het algemeen is het een stuk gemakkelijker om 1 kritieke dienst per server te hebben, dan 3 kritieke diensten per server. Zo kan je moeilijk aan je gebruikers uitleggen dat ze even niet kunnen mailen omdat de Internet web server weer eens een security upgrade nodig heeft. En dan kunnen die services elkaar misschien wel niet bijten, maar je maakt het er jezelf niet gemakkelijker op.
2) iemand heeft het voor elkaar gekregen een dedicated server te bemachtigen voor een proggie wat maar liefst 16 mb aan schijfruimte nodig heeft, hoezo overkill.
Je kan hier weinig over zeggen. Als dit programma continue datamining doet, de CPU, disken en NIC op 100% taxen, maar toch maar 16mb groot is, wil ik het niet op een andere server hebben.
3)Een tijd terug hebben we bij ons een consolidatieslag op het UX platform uitgevoerd en eerdaags zal dat ook gebeuren voor het Win platform.
Ik weet niet wat voor programma's/diensten we het hier over hebben, dus ik kan er verder niks over zeggen.

Verwijderd

Zo,

Veel antwoorden op Wilfred's vraag. Hoop gelul ook.

"Niet beginnen aan productie database op kloonpc" - want..? "PC's wil je zeker zelf ook nog gaan bouwen" - en dus? Bang de handen vuil te maken? "Je leverancier kan de geschikte oplossing aandragen of zijn het geldwolven?" ...duh! }:O

Ik zie geen steekhoudende argumenten. Hot swappable raid? Kan ook op PC. Meer slots / PCI 64? Wordt niet gebruikt. UPS? Centrale noodstroom. Lagere IO en bus speeds? Lekker belangrijk als de server op 3% draait. En ECC mobo's zijn ook te krijgen.

Wat je natuurlijk niet hebt, is een service-contract. Maar toen laatst een zware compaq server onvrijwillige euthanasie op de raid controller pleegde, had de klant daar toch verdomd weinig aan. Tuurlijk, er komt een compaq buitendienstnerd met systeembeheer koffieleuten en onderwijl een controller installeren, maar daar de volumes ook vernaggeld waren hadden we de tweede dag nodig om de backups terug te zetten. 2 dagen down! Fijn!

Volgens mij is alles te vertalen in uptime, wat je ondervangt door een tweede of derde machine, het kost toch geen drol, in de mottenballen te zetten. Of in load-balancing. Het gaat hier niet om 99,9% anders was de discussie over Tandem (HP nonstop voor snotneuzen >:)) gegaan en helemaal niet over kostenbesparing.

Blijft over: rackmounted server neemt minder ruimte in en ziet er professioneler uit. Accoord, maar hebben we daar dan 15.000 euro voor over? In de zorgsector?

Zit ik ernaast? Vertel op dan.

grt

squarepants

  • SpamLame
  • Registratie: Augustus 2000
  • Laatst online: 27-04 12:44

SpamLame

niks

elevator schreef op 30 July 2003 @ 20:35:
snip....

Zoals ik ook al zei - je moet proberen het niet in het extreme door te voeren, maar in het algemeen is het een stuk gemakkelijker om 1 kritieke dienst per server te hebben, dan 3 kritieke diensten per server. Zo kan je moeilijk aan je gebruikers uitleggen dat ze even niet kunnen mailen omdat de Internet web server weer eens een security upgrade nodig heeft. En dan kunnen die services elkaar misschien wel niet bijten, maar je maakt het er jezelf niet gemakkelijker op.
Deels mee eens, maar bv 3 kritieke websites kunnen weer wel op 1 internet server ipv 3. Hetzelfde kun zou je ook doen voor diensten die de zelfde uptime eisen.
Genoeg capaciteit en "lieve"programma's zijn dan wel een voorwaarde om het op die manier te verkopen
Je kan hier weinig over zeggen. Als dit programma continue datamining doet, de CPU, disken en NIC op 100% taxen, maar toch maar 16mb groot is, wil ik het niet op een andere server hebben.
Excuus onduidelijkheid van mijn kant. Het betreft hier een "thuis"bankierprogramma, wat eerst zonder problemen op een oud gebakje draaide.
Nu huist het dus op een dedicated server met allerlei toetsers en bellen.
Ik weet niet wat voor programma's/diensten we het hier over hebben, dus ik kan er verder niks over zeggen.
Financiele/ transactie/ logistieke en management omgevingen + bijbehorende database etc op, al dan niet, HP-UX clusters. Het betreft voor een groot deel in huis ontwikkelde software. Hierbij heb je de "luxe" dat je het meer in de hand hebt.
Window clustering is bij ons nog niet goed onderzocht, maar wordt nu bekeken om daar ook hoge beschikbaarheid te kunnen garanderen.

Mijn relaas was, deels afschrijven van frustatie.
Heb nu al een paar situaties gehad, als er iemand engens niest of een scheet laat er
een server bijgeplaatst wordt.

Door meerdere diensten van afzonderlijke servers op zwaardere (cluster) machines te groeperen, heb je minder van die dingen nodig.

In het laatste jaar zijn er, naar mij en mijn collega's id, teveel machines naar binnen gereden. Hierdoor wordt er teveel tijd gestopt in het oplossen van acute problemen ipv vooruit kunnen kijken op wat komen gaat en daar op te acteren.

Je opmerking van "dan plaatst je er toch nog 1 bij" is idd een oplossing die niet in het extreme doorgetrokken dient te worden. Helaas bereik je met het te vaak toepassen van die oplossing, dat dat op den duur ook de mentaliteit word.
Werkt het niet, kopen we een nieuwe. Loopt een projekt gevaar door het moeten delen van capaciteit van een machine, kopen we een nieuwe.

/* zucht dat lucht op

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

SpamLame schreef op 30 July 2003 @ 21:41:
Deels mee eens, maar bv 3 kritieke websites kunnen weer wel op 1 internet server ipv 3. Hetzelfde kun zou je ook doen voor diensten die de zelfde uptime eisen.
Genoeg capaciteit en "lieve"programma's zijn dan wel een voorwaarde om het op die manier te verkopen
Natuurlijk ga je voor 3 websites die nauwelijks load genereren geen 3 servers aankopen. Wel kies ik er voor om ipv. een server voor 80% te belasten met kritische websites, er 2 servers neer te zetten die beide voor 50% belast zijn. Hiermee creeer je gewoon ademruimte voor jezelf.
Excuus onduidelijkheid van mijn kant. Het betreft hier een "thuis"bankierprogramma, wat eerst zonder problemen op een oud gebakje draaide.
Nu huist het dus op een dedicated server met allerlei toetsers en bellen.
Nog is het moeilijk hier iets over te zeggen, ik heb progarmma's gezien die wanneer je ze opstartte (DOS) meteen 100% CPU trokken, vervolgens alle functies plat legten, en een reboot vereisten voordat men door kon met het werken op die PC. Als je dat op een apart toestel zet, lijkt me dat niet raar. Uiteraard moet je wel de juiste hardware kiezen voor de juiste problemen :)
Financiele/ transactie/ logistieke en management omgevingen + bijbehorende database etc op, al dan niet, HP-UX clusters. Het betreft voor een groot deel in huis ontwikkelde software. Hierbij heb je de "luxe" dat je het meer in de hand hebt.
Dan denk ik dat het bij jou specifiek gaat om meerdere, bijna-identieke omgevingen, te consolideren naar een kleiner aantal fysieke servers. Ik bedoel - het gaat bij jou niet om een combinatie Oracle, Sybase, en dergelijke, die je samen met je DNS, je SMTP en je Samba server op 1 server gepropt hebt om een fysiek servertje uit te sparen ;)
Window clustering is bij ons nog niet goed onderzocht, maar wordt nu bekeken om daar ook hoge beschikbaarheid te kunnen garanderen.
Wat wil je hier op gaan consolideren?
Mijn relaas was, deels afschrijven van frustatie.
Heb nu al een paar situaties gehad, als er iemand engens niest of een scheet laat er
een server bijgeplaatst wordt.

In het laatste jaar zijn er, naar mij en mijn collega's id, teveel machines naar binnen gereden. Hierdoor wordt er teveel tijd gestopt in het oplossen van acute problemen ipv vooruit kunnen kijken op wat komen gaat en daar op te acteren.
Ik ken het probleem helaas voornamelijk van de andere kant.

Zo heb ik een paar jaar terug een server gehad die zowel Exchange, DHCP, WINS, DNS en file / print server is voor een organisatie van 300 man. Deze server werd onbruikbaar omdat de RAID controller kapot gaat (bleek later), waarna blijkt dat de backup al maanden niet meer op tape pastte omdat Exchange iets te groot gegroeid was, en je geen uitwijk mogelijkheid hebt, omdat al de andere servers zo propvol zitten als bovenstaand toestel dan baal je.

Als je vervolgens je Exchange niet kan repairen omdat je disken te vol zitten voor een offline repair ('goh, die prive schijven van de users moeten ze inderdaad eens opschonen |:('), dan weet je toch heel zeker dat je 1e doel is om het management uit te leggen dat server consolidatie een duivels middel is, en voornamelijk voortkomt uit verkeerde zuinigheid ;)

  • SpamLame
  • Registratie: Augustus 2000
  • Laatst online: 27-04 12:44

SpamLame

niks

elevator schreef op 30 juli 2003 @ 21:58:
snip...

Ik ken het probleem helaas voornamelijk van de andere kant.

Zo heb ik een paar jaar terug een server gehad die zowel Exchange, DHCP, WINS, DNS en file / print server is voor een organisatie van 300 man. Deze server werd onbruikbaar omdat de RAID controller kapot gaat (bleek later), waarna blijkt dat de backup al maanden niet meer op tape pastte omdat Exchange iets te groot gegroeid was, en je geen uitwijk mogelijkheid hebt, omdat al de andere servers zo propvol zitten als bovenstaand toestel dan baal je.

Als je vervolgens je Exchange niet kan repairen omdat je disken te vol zitten voor een offline repair ('goh, die prive schijven van de users moeten ze inderdaad eens opschonen |:('), dan weet je toch heel zeker dat je 1e doel is om het management uit te leggen dat server consolidatie een duivels middel is, en voornamelijk voortkomt uit verkeerde zuinigheid ;)
Dat probleem hebben we gelukkig niet, genoeg spare parts en 1/2 standby machines per type (voor de windows omgeving). De consalidatie moet je uiteraard , net als het 1 service per server, niet te ver doortrekken.
Je punt van verkeerde zuinigheid is een goeie, helaas wilt het management er niet aan een extra vacature te creeren. Dezelfde verkeerde zuinigheid alleen de andere kant op.

En nu dus zoeken naar de balans in het geheel.

  • marquis
  • Registratie: Januari 2003
  • Laatst online: 20-12-2025
Aha, zeer nuttig, dat online repliceren.
Dat wist ik nog nie.
Edit: PolarWolf heeft inderdaad gelijk, maar het blijft makkelijker - en mijn gewoonte - het zo uit te drukken.
Is zo, is ook makkelijker

[ Voor 57% gewijzigd door marquis op 31-07-2003 12:41 ]

Adem in...... adem uit. Poeh, weer gered :-)


Verwijderd

PolarWolf schreef op 30 July 2003 @ 15:10:
[...]


Kan best wezen, maar dan ga je er vanuit dat je een complete voeding op spare hebt liggen. Nou, hadden we dus niet :-) Plus dat je toch je downtijd houdt omdat je voor het wisselen van de voeding de server echt uit, voor je op tafel hebt moeten liggen om er een andere voeding in te proppen (mocht je die hebben). Heb je dus geen server hebben draaien die op dat moment de load voor je overneemt, dan ben je dus zgn. "Royally Screwed" :-)
Resultaat is dat we alle DL360's uitfaseren t.b.v. DL380's met redundant, hotswap voedingen.
nee, wij hadden geen voeding spare maar wel een support contract... ff bellen en een afspraak maken wanneer de voeding vervangen moet worden en klaar... server down brengen voeding vervangen en weer booten kan dus binnen 10 mins en je kan zelf bepalen wanneer je dat doet...

  • PolarWolf
  • Registratie: November 2001
  • Laatst online: 11-01 19:37

PolarWolf

Debian, of course.

Verwijderd schreef op 31 juli 2003 @ 13:09:
[...]


nee, wij hadden geen voeding spare maar wel een support contract... ff bellen en een afspraak maken wanneer de voeding vervangen moet worden en klaar... server down brengen voeding vervangen en weer booten kan dus binnen 10 mins en je kan zelf bepalen wanneer je dat doet...
Heh, dat is mooi, echter helaas is het zo dat wanneer de een ventilator van de voeding kaduuk is, de hele server down gaat, en niet meer opkomt totdat de voeding is vervangen. En met een support contract kan dat toch al gauw een uur of 4 call-to-fix zijn, dus als het tegenzit dan zit je 4 uren zonder. Gelukkig hadden wij nog een servertje op spare staan waar we voeding uit hebben geropt.

Undernet #linux, Undernet #ipsec


  • ReLight
  • Registratie: Augustus 2001
  • Laatst online: 18-04 11:15

ReLight

echo("What Now ? !")

HP Nonstop oftewel HP Marathon leveren je gegarandeerde 99,999% hardware uptime. Dat spul is mooi ! Gewoon 1 server stekker eruit trekken botweg en je CE draait gewoon door. Speciaal gemaakt voor ziekenhuizen, advocaten kantoren e.d.

Marathon bestaat uit standaard harware + speciale kaarten welke met minimaal 4 servers (2 x cpu server, 2x I/O server) als het ware 1 standaard windows 2000 server vormen. dus ook Lan connecties, disks en alles. de 4 servers vormen als het ware 1 machine. Alle data sync en overname is geheel automatisch.
kosten : =- 170.000 Euro. Dat kost het om zeker te weten dat het goed zal gaan. Voor jou 30.000 euro wil ik je nog wel eens een gegarandeerde beschikbaarheids berekening zien doen. Dan zal je zien dat die nooit daar in de buurt komt.

Die laatse .999 kost 90% van de prijs.

Mijn zoon & dochter zijn de toekomst, de rest is tijdsvermaak. Home assistant & & Nibe S2125-12/SMO-S40, RMU-s40 & Tado - Volvo C40 ER, SE


Verwijderd

hierboven : een himalaya kopen is denk ik een beetje te duur ( begint bij 1 miljoen oid? )

smart array spof ? als het een removable is, dan kun je hem zelf binnen 2 minuten vervangen (smart metadata staat op disk) en is backwards comp. een oude werkt dus ook (net als een nieuwere) . neem een 4 uur contract. binnen 4 uur probleem opgelost.
Een cluster is leuk, maar als de applicatie niet cluster aware is, dan heb je er niks aan. en een cluster heeft externe storage nodig.

  • ReLight
  • Registratie: Augustus 2001
  • Laatst online: 18-04 11:15

ReLight

echo("What Now ? !")

Ter vermelding indien niet duidelijk: De HP maraton oplossing is GEEN cluster. Het is een standaard win NT of 2000 server versie die draait bovenop de 4 machines.
De 4 machines zelf draaien ook 2000. en de overkoepelende 2000 is een soort virtuele machine. Al mocht het niet zo genoemd worden volgens HP.

>Nu ik eraan denk> is VMWare niet een optie voor je ?

Mijn zoon & dochter zijn de toekomst, de rest is tijdsvermaak. Home assistant & & Nibe S2125-12/SMO-S40, RMU-s40 & Tado - Volvo C40 ER, SE


Verwijderd

PolarWolf schreef op 31 juli 2003 @ 13:14:
[...]


Heh, dat is mooi, echter helaas is het zo dat wanneer de een ventilator van de voeding kaduuk is, de hele server down gaat, en niet meer opkomt totdat de voeding is vervangen. En met een support contract kan dat toch al gauw een uur of 4 call-to-fix zijn, dus als het tegenzit dan zit je 4 uren zonder. Gelukkig hadden wij nog een servertje op spare staan waar we voeding uit hebben geropt.
dat zeg ik nu net... insight manager geeft van tevoren aan dat de fan niet goed meer is en dan heb je nog een paar dagen voordat tie het echt niet meer doet (en inderdaad down gaat).

Verwijderd

Verwijderd schreef op 04 August 2003 @ 11:26:
[...]


dat zeg ik nu net... insight manager geeft van tevoren aan dat de fan niet goed meer is en dan heb je nog een paar dagen voordat tie het echt niet meer doet (en inderdaad down gaat).
knap, voelt tie dat aankomen ofzo? Als fans er bij mij mee kappen branden ze spontaan door :)

Verwijderd

dat moet je aan compaq/hp vragen... ik geef alleen aan dat het zo werkt.

  • SnowDude
  • Registratie: Januari 2002
  • Laatst online: 21-04 16:15
Meestal gaan die fans eerst wat lanzamer lopen dan normaal en daar kan IM op reageren. Ik snap niet dat er Proliant beheerders zijn die geen Insight Manager gebruiken, IM kan echt dingen aanzien komen en zeker op fan en hdd gebied.

All electric components run on smoke. If you let the smoke out, they won't work anymore.


  • Eijkb
  • Registratie: Februari 2003
  • Laatst online: 22-04 21:10

Eijkb

Zo.

HP Nonstop = HP Marathon = standaard win NT of 2000
HP heeft een NonStop range. Het is niet gelijk aan hoor. Hoogst haalbare bij HP Nonstop blijft de Himalaya (vroeger beter bekend als Tandem, toch squarepants? Ik stam ook nog uit de Tandem tijd hoor :)) en dat draait op een eigen OS (Guardian of OSS). Maar dat kost idd nogal wat.

.


  • Mar
  • Registratie: September 1999
  • Laatst online: 26-05-2025

Mar

TCF

paulhekje schreef op 30 July 2003 @ 13:03:
serieuze databases kunnen zich on-line laten repliceren. o.a. oracle en ms sql ondersteunen dit.
verder bestaan er andere vormen van clustering zoals Legato Standby server.
http://portal2.legato.com/products/costandbyserver/
Heb jij (of iemand) ervaring met dit produkt? Zou voor onze File-server wel eens DE oplossing kunnen zijn om deze te 'mirroren. Alleen lees ik al jaren dezelfde problemen met dit soort oplossingen, dat het onderhoud en in stand houden ervan meer tijd kost en soms meer downtime oplevert, dan dat je zonder dit produkt.

DPC Team ColdFusion


  • Mar
  • Registratie: September 1999
  • Laatst online: 26-05-2025

Mar

TCF

Vorig jaar ook al wat gezocht en gekeken naar oplossingen om een server kompleet te mirroren en kwam ik dit tegen: http://www.nsisoftware.com/pro/doubletake/
Misschien heeft iemand hier iets aan...

DPC Team ColdFusion


  • Wilfred
  • Registratie: Januari 2000
  • Laatst online: 22-08-2022
PolarWolf schreef op 30 July 2003 @ 18:32:
Misschien nog even ten overvloede aan de originele poster:
Je hebt het over clusteren, en ik proef er een beetje uit dat je MS SQL Server gaat gebruiken.
Per definitie heb je het dan over windows 200{0|3}, en die hebben versies die clustering ondersteunen. Toevallig is ook SQL Server cluster aware, dus met een shared disk kom je al een heel eind m.b.t. het clusteren van je database.
Overigens hebben de andere posters gelijk dat je je wel concentreerd op de servers, maar dat je ook de omgeving niet moet vergeten.
En om je even uit de droom te helpen...0.0 downtime haal je never nooit niet :-)
Snuffel maar eens rond op het internet om te kijken wat je allemaal nodig hebt om "3 negens" to realiseren (99.9% beschikbaarheid). Dan kom je er niet met een paar geclusterde servers.
En voordat de luitjes met een zelfbouw PC'tje gaan gillen dat ze al 3 maanden uptime hebben gehaald: Dat is niet hetzelfde :-)
Het gaat hier niet om systeemuptime, maar over gegarandeerde beschikbaarheid onder diverse workload, onder diverse omstandigheden.
Het gaat inderdaad om een SQL server die voor een applicatie gaat serveren. We gaan twee servers aanschaffen en die clusteren. HElaas heeft systeem beheer aar net zo veel verstand van als ik en ze moeten een extern iemand laten komen om het in elkaar te zetten. We moeten ook bij Compaq kopen tegen listprice.. Zodoende komt het neer inc BTW en licenties op 33 000 Euro.. Het kan wel voor de helft van de prijs bij iemand anders maar dat is niet company policy.
De reden dat we op een server per applicatie draaien is dat er soms updates zijn van pakketten en dan moet de server gereset worden. De leveranciers willen niet 's avonds langskomen dus dat gebeurt dan gewoon overdag!! JA ALS JE DAN 10 APPLICATIES OP EEN SERVER HEBT LIGT ALLES ERUIT.. We kopen zodoende z'n 20 servers per jaar mede doordat ze om de 3 jaar afgeschreven zijn.
We kunnen dus zo'n 200 000 euro per jaar besparen door goedkopere servers aan te schaffen of over de prijs te onderhandelen maar dat doen we niet...
We hebben zo voor de lulligste applicatie (20 tabellen 200 MB) een server staan van 30000 euro. Maar de uptime is wel lekker hoog!

Sign of my Time


Verwijderd

kijk eens bij compaq naar blades ....... denk dat dat je antwoordt is. laat ze iig over rapid deployment praten..

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 23-04 15:59

Shuriken

Life is all about priorities

Die DL380 Packaged Cluster is wel leuk ;) We hebben er op het werk ook een. Helaas heeft Koffie em nog niet mogen aanschouwen.

I rather have a bottle in front of me, then a frontal lobotomie


Verwijderd

Tis jammer dat dat cluster scsi based is en niet fibre .. voor je roi en tco was fibre beter geweest...
Pagina: 1