Toon posts:

Redundant netwerk

Pagina: 1
Acties:
  • 577 views sinds 30-01-2008
  • Reageer

Verwijderd

Topicstarter
Beste tweakers,

Mijn bedrijf host momenteel virtuele terminal server werkplekken. Dit moet nu alleen iets beter worden opgezet, een grote nieuwe klant accepteert namelijk vrijwel geen downtime.

Nu hoop ik dat jullie mij kunnen adviseren over het volgende idee:

Je bent zo zwak als je zwakste schakel. Wanneer de internetline van het datacentre plat gaat liggen wij ook plat. Er wordt geen dubbele lijn aangeschaft, dat kost na verhouding te veel geld.

Er draait een P4-1GB Windows 2003 ISA server als firewall. Deze wil ik lekker laten draaien omdat deze eigenlijk nooit een probleem heeft gegeven. Mijn vraag is wel of het mogelijk is om dit eventueel virtueel redundant uit te voeren. Bijvoorbeeld door een tweede virtuele ISA server verderop te laten draaien die het geheel tijdelijk overneemt mocht deze ISA server er uit vallen.

Dan het stukje redundantie. Er komen 2 vrij krachtige servers met beide genoeg geheugen en mirrored harddisks. Beide worden voorzien van windows XP (lekker licht maar toch stabiel). Daarom installeren we VMWare en worden er virtuele Windows 2003 servers gehost (elke klant krijgt namelijk haar eigen server ter beschikking, daarbij moet het ook mogelijk zijn om in de toekomst een virtuele SQL server en Exchange server erbij te draaien).

Als een fysieke server uitvalt dan neemt de andere fysieke server dit direct over (load balancing tussen de virtuele servers op beide fysieke machines).

Het grote probleem en mijn vraag hierbij is alleen de (gebruikers)data. Deze kan volgens mij maar op 1 plek staan. Als beide fysieke servers verwijzen voor de gebruikersdata en net die server vliegt er uit, dan kan alsnog niemand meer bij zijn/haar gegevens (volgens mij is dit niet makkelijk realtime te syncen o.i.d.??).

Ik had hiervoor dus een NAS server bedacht. Volgens mij zijn die stabieler dan zwaar OS based servers, ze draaien standaard een mirror en mailen meteen wanneer een van de schijven er uit ligt. Daarbij draait er een intern OS, wat volgens mij niet snel crashed e.d.

De images en het basis OS komen dus op de fysieke servers, de gebruikersdata op de NAS. Deze wordt dan ook goed gebackupped.

Gaat een update, software installatie, o.i.d. fout dan is een oud virtual-image zonder problemen terug te plaatsen. Valt 1 van de fysieke servers uit dan neemt de ander het direct over. Valt de NAS ooit uit, dan trekken wij hier een nog werkende mirrored schijf uit en plaatsen die in een nieuwe NAS waardoor het direct weer draait. Valt de firewall uit dan moet er een nieuwe worden geplaatst.

De vragen

Is het mogelijk om gebruikersdata gelijktijdig op 2 servers te laten bestaan zodat bij uitval van 1 server zonder tussenkomst direct de data op de 2e server wordt gebruikt (en geeft dit een groot performance verlies?).

Kan je op een NAS server zonder windows OS wel gewoon NTFS formatteren, rechten toekennen en shares aanmaken? (vraag staat ook uit naar de leverancier van een Adaptec SNAP server, maar het antwoord duurt wat lang).

Is er een slimmere / betere manier voor bovenstaande dat niet een extreem hogere investering vereist?

Is het mogelijk om bij uitval van de fysieke ISA server een virtuele server dit automatisch over te laten nemen?

Hoe zit het met licenties? Het geheel wordt redundant uitgevoerd, ook exchange en sql server komen straks op 2 fysieke machines. Moet een gebruiker nu voor beide servers een CAL, sql licentie, etc hebben? (vraag staat uit naar Microsoft, maar ook weer een erg traag antwoord).

  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 16:09

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

Verwijderd schreef op donderdag 21 december 2006 @ 07:48:
een grote nieuwe klant accepteert namelijk vrijwel geen downtime.
Wat gaat er precies in de SLA beschreven worden met betrekking tot downtime. Het is iets makkelijker adviezen geven over redundantie als de daadwerkelijke uptimegaranties bekend zijn.

Let ook even op je NAS, je meldt dat als een disk stuk gaat, dat je deze dan vervangt. Maar wat ga je doen als de single NIC, voeding of CPU van die NAS het begeeft?

Overigens moet ik opmerken dat ik Windows XP als host-OS, met daarop 2K3 VM's als Terminal Servers nu niet super-profi over vind komen. (no offence overigens)

Voor wat betreft je CAL's, als je kiest voor Client-Cal's dan mag de user/werkplek onbeperkt connectie maken naar de betreffende applicatie (Exchange, SQL), ongeacht waar deze vandaan komt.

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


Verwijderd

Topicstarter
Bedankt voor je snelle antwoord. Ons datacenter geeft 95% uptime garantie. In onze SLA staat om de 2 weken op zaterdag een downtime periode van 4 uur (onderhoud, patches, updates, etc). Verder kost het ons gewoon een heleboel geld elk uur dat het systeem niet bereikbaar is.

Als de NAS stuk gaat dan trekken we een van de (hopelijk nog wel hele) mirrored schijven er uit en stoppen deze asap in een nieuwe NAS die op voorraad ligt. Met een beetje geluk is dit binnen 4 uur te realiseren.

Windows XP leek mij zelf als host OS het meest lichte (goedkope) maar toch stabiele systeem. Welk OS is beter te adviseren? We zitten ook nog te twijfelen tussen Microsoft Virtual Server, maar hebben toch het idee dat VmWare al iets verder is met virtualisatie. Als er een betere oplossing mogelijk is zijn we zeer zeker geinteresseerd (tenzij dat inhoud om voor elke klant een fysieke server aan te schaffen).

Bedankt voor het CAL antwoord. Het worden in elk geval al CAL's omdat de mensen op afstand aanmelden van willekeurige werkstations. Dit zou dan dus goed moeten gaan. Ik zal dan op beide windows 2003 systemen dezelfde CAL licenties invoeren.

  • Liam
  • Registratie: Februari 2000
  • Laatst online: 29-12-2023

Liam

Wat nou 1 proc is genoeg.. :P

Kan je niet beter i.p.v. te investeren in 2 machines gewoon 1 machine nemen die goed redundant is uitgerust?

Hoe laat je je "Virtual" Servers het overnemen van een andere server als hij eruit knalt? Het lijkt mij dat dit op VMware erg traag gaat werken, zeker als je veel services gaat aanbieden. Ik heb geen ervaring met een Exchange productieserver onder VMWare, maar ik kan me zeker voorstellen dat het langzaam zal zijn.

Wat ik dus bedoel is, kan je niet beter gewoon geld steken in 1 goede server (meerdere NIC's, goed support contract, goede backup, raid, een sloot geheugen, redundant voeding) en dat soort zaken.

En hoezo draai je eigenlijk Windows XP op je servers? VMware is er ook in Linux uitvoering, wat mij persoonlijk een stuk stabieler lijkt als oplossing.

Het is mij niet helemaal duidelijk hoe of wat je het nou precies wil gaan aanpakken. Het begrip "bijna geen downtime" is ook een beetje vaag.... ik bedoel, als je firewall eruit vliegt of je link knalt eruit, dan heeft je klant dus downtime.... maar zoals je zelf al aangaf is een tweede link te duur.... maar hoe wil je dan "bijna geen downtime" gaan realiseren. Wat verwacht de klant van je? Hoe gaat het in het SLA komen te staan?

If it bleeds, we can kill it!! |Werkbak specs|CCNP, bezig met Master.


  • aZuL2001
  • Registratie: September 2002
  • Laatst online: 31-01 11:11
Weet je wel waar je aan begint ?

Je praat heel makkelijk over sla's, virtuele machine's, terminal services werkplekken en wil toch windows XP gebruiken als basis voor je hele produkt ?

Gokje, het zijn nog packard bell machines ook ?

_Ik_ zou daar niets onder willen brengen.

Ga eens voorzichtig beginnen met een tekening van je hele geplande opzet en begin dan stap voor stap spf's te elimineren.

Je huidge opzet komt nogal hobby matig over, en je maakt wel een topic aan in PNS.

My 2 ct's

Abort, Retry, Quake ???


  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 16:09

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

Verwijderd schreef op donderdag 21 december 2006 @ 10:23:
Bedankt voor je snelle antwoord. Ons datacenter geeft 95% uptime garantie.
Ik bedoel de SLA die jij met de klant af gaat spreken ;)

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • StevenK
  • Registratie: Februari 2001
  • Laatst online: 22:31
Verwijderd schreef op donderdag 21 december 2006 @ 10:23:
Bedankt voor je snelle antwoord. Ons datacenter geeft 95% uptime garantie. In onze SLA staat om de 2 weken op zaterdag een downtime periode van 4 uur (onderhoud, patches, updates, etc). Verder kost het ons gewoon een heleboel geld elk uur dat het systeem niet bereikbaar is.

Als de NAS stuk gaat dan trekken we een van de (hopelijk nog wel hele) mirrored schijven er uit en stoppen deze asap in een nieuwe NAS die op voorraad ligt. Met een beetje geluk is dit binnen 4 uur te realiseren.
En laat je ook iemand in het datacenter slapen ?

Waarom bouw je niet een oplossing, waarbij je produkten gebruikt zoals ze bedoeld zijn:
  • 2 firewalls die samen een redundant firewall vormen
  • Clustering voor je storage
  • Een platform zoals citrix om redundant te zijn over je terminal servers

Was advocaat maar vindt het juridische nog steeds leuk. Doet tegenwoordig iets in de metaal.


Verwijderd

Topicstarter
:-)

De 2 servers die er komen te staan zijn echt wel erg stevige HP machine's die in principe niet snel om zouden vallen. Beide hebben redundante schijven en zijn voorzien van genoeg ECC geheugen, dual processors en mirrored SCSII schijven.

Een NAS server lijkt mij alleen veiliger voor de data. Gebruikersdata moet na mijn mening toch altijd op 1 locatie. Het zou mooi zijn als dit direct kon syncen over de 2 servers, maar daar zie ik geen oplossing voor. Het is natuurlijk mogelijk om de data op 1 van de 2 servers neer te zetten, maar crashed het basis OS ooit (update, whateve), dan is ook die data niet meer toegankelijk.

We hebben al redelijk wat virtual servers draaien, de overhead merken we nauwelijks en ze draaien tot nu toe altijd zeer stabiel. Daarbij kan je backups maken van de virtual images die je na een grote update of nieuwe programma release die fout mocht gaan gewoon kan herstellen tot het punt voor de aanpassing. Ook het afscheiden van klanten door nieuwe virtual machine's te starten werkt erg prettig. Met voldoende geheugen is dit ook absoluut geen probleem.

De klant gaat akkoord met de 95 uptime garantie van het dataregiocentre, maar wij zijn de @ voor meer downtime. Zodra ze dit melden gaat bij ons gewoon de boeteclausule lopen. Behalve dan dus in het onderhoud weekend die we gaan gebruiken voor upkeep, patching, etc.

Met Linux hebben we te weinig ervaring, maar je hebt gelijk, deze heeft waarschijnlijk nog minder overhead als windows XP en is wellicht stabieler (en nog gratis ook). Misschien dat we hier dan een externe partij voor inhuren.

Als de fysieke ISA server er uit knalt dan kan deze wellicht de internet lijn doorgeven. Als daarachter dan gewoon een tweede (wellicht virtuele) isa server draait is dit misschien redundant op te zetten. Dit moeten wij alleen nog uitzoeken.

Het geheel staat er nog niet en we zijn nog op onderzoek, alles gaat gerust wel goed aangepakt worden, hopelijk komen hier nog meer goede ideeen die er dan zeker in verwerkt gaan worden.

@StevenK, inderdaad een nog mooiere oplossing, maar helaas te duur. 2 firewalls gelijktijdig is ook 2x een aparte internetlijn. Het Citrix platform bleek ook extreem duur te zijn. Clustering voor storage, bedoel je daar SAN mee? Ik ben namelijk erg geinteresseerd in zo'n soort oplossing. SAN kost alleen helaas ook een vermogen, maar als data clustering met NAS (of met gewoon 2 servers) ook mogelijk is dan zou dat mooi zijn... en ohja... ik woon vrijwel naast het datacentre :)

@Liam: er zijn 2 fysieke servers die beide virtuele terminal servers draaien. Valt op de ene fysieke server zo'n virtuele server uit (of valt de hele fysieke server uit), dan neemt de andere virtuele server op de tweede fysieke server dit automatisch over. Probleem is alleen dat de gebruikersdata dan niet op 1 van die servers moet staan, vandaar de NAS oplossing.

[ Voor 16% gewijzigd door Verwijderd op 21-12-2006 11:30 ]


  • TheBrain
  • Registratie: Oktober 2000
  • Niet online
Verwijderd schreef op donderdag 21 december 2006 @ 07:48:
Dan het stukje redundantie. Er komen 2 vrij krachtige servers met beide genoeg geheugen en mirrored harddisks. Beide worden voorzien van windows XP (lekker licht maar toch stabiel). Daarom installeren we VMWare en worden er virtuele Windows 2003 servers gehost (elke klant krijgt namelijk haar eigen server ter beschikking, daarbij moet het ook mogelijk zijn om in de toekomst een virtuele SQL server en Exchange server erbij te draaien).
Ik heb dit echt drie keer moeten lezen en nog steeds snap ik het niet.

Of je doet VMware op Windows en dan op een echt server OS (W2K3R2) of je doet VMware op Linux (Ubuntu LTS bijvoorbeeld of een betaalde distro als Suse Linux Enterprise Server of RedHat Enterprise).

Tevens zou ik persoonlijk niet dit soort productie willen draaien op VMware Server (maar op ESX / VI3) maar je kan het natuurlijk gokken.

  • aZuL2001
  • Registratie: September 2002
  • Laatst online: 31-01 11:11
Verwijderd schreef op donderdag 21 december 2006 @ 11:23:
Een NAS server lijkt mij alleen veiliger voor de data. Gebruikersdata moet na mijn mening toch altijd op 1 locatie. Het zou mooi zijn als dit direct kon syncen over de 2 servers, maar daar zie ik geen oplossing voor.
Waarom zou je een NAS willen syncen over 2 servers ?
Dan hoef je geen NAS aan te schaffen.

De grap van zo'n ding is dat je dat via het netwerk benadert, en dus op beide machine's via unc of een mapping kunt benaderen.

(maar wat zijn de spf's van je NAS?)

Abort, Retry, Quake ???


  • StevenK
  • Registratie: Februari 2001
  • Laatst online: 22:31
Verwijderd schreef op donderdag 21 december 2006 @ 11:23:
@StevenK, inderdaad een nog mooiere oplossing, maar helaas te duur. 2 firewalls gelijktijdig is ook 2x een aparte internetlijn.
Lijkt mij niet: je pakt, neem ik aan, een datacentre dat redundant aan het Internet hangt ?
Het Citrix platform bleek ook extreem duur te zijn.
Het alternatief is de functionaliteit *niet* bieden.
Clustering voor storage, bedoel je daar SAN mee?
nee, daar bedoel ik clustering mee.

[ Voor 36% gewijzigd door StevenK op 21-12-2006 11:43 ]

Was advocaat maar vindt het juridische nog steeds leuk. Doet tegenwoordig iets in de metaal.


  • WooK
  • Registratie: Maart 2000
  • Laatst online: 19:13

WooK

PC in de soep? Heerlijk!

Verwijderd schreef op donderdag 21 december 2006 @ 10:23:
Bedankt voor je snelle antwoord. Ons datacenter geeft 95% uptime garantie. In onze SLA staat om de 2 weken op zaterdag een downtime periode van 4 uur (onderhoud, patches, updates, etc). Verder kost het ons gewoon een heleboel geld elk uur dat het systeem niet bereikbaar is.
Leuk dat je hardwarematig allerlei zaken afvangt maar kijk even goed naar wat je hier schrijft. Náást de 4 uur downtime per 2 weken "garanderen" ze 95% uptime. Dat is echt heel weinig. Dit zou namelijk betekenen dat ze naast de reguliere aangekondigde downtime, nog eens ruim 18(!!) dagen down kunnen gaan zonder dat je er iets over 'mag' zeggen...

Overigens heeft een fatsoenlijk datacenter een redundant verbinding liggen naar het internet.

I'm not as think as you stoned I am


  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 16:09

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

Verwijderd schreef op donderdag 21 december 2006 @ 11:23:
@StevenK, inderdaad een nog mooiere oplossing, maar helaas te duur. 2 firewalls gelijktijdig is ook 2x een aparte internetlijn. Het Citrix platform bleek ook extreem duur te zijn. Clustering voor storage, bedoel je daar SAN mee? Ik ben namelijk erg geinteresseerd in zo'n soort oplossing. SAN kost alleen helaas ook een vermogen, maar als data clustering met NAS (of met gewoon 2 servers) ook mogelijk is dan zou dat mooi zijn... en ohja... ik woon vrijwel naast het datacentre
Redudantie kost $$$ Simpel.

Leuk dat je vrijwel naast het datecenter woont, maar blijf jij 24x7 thuis?

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

StevenK schreef op donderdag 21 december 2006 @ 11:42:
[...]

Lijkt mij niet: je pakt, neem ik aan, een datacentre dat redundant aan het Internet hangt ?
Als ik 't goed zag zitten ze bij http://dataregiocentre.nl/. Dus als ze naar een fatsoenlijke colo verhuizen met een normalere SLA hebben ze al 4.9% extra downtime die ze zelf in mogen vullen ;) (Even voor de duidelijkheid, da's anderhalve dag per maand.)

All my posts are provided as-is. They come with NO WARRANTY at all.


Verwijderd

Topicstarter
@TheBrain: Okee, al snap ik nog niet dat je als host Windows 2003 server zou moeten gebruiken. Linux lijkt wel "lichter" en wellicht stabieler, dus misschien dat we daar voor gaan als host. We onderzoeken nog welke software de virtualisatie gaat draaien. Momenteel was de keus tussen MS Virtual Server en Vmware, dacht dat de overige alternatieven te duur waren en MS iets achter lag op VMWare.

@azul2001: NAS is natuurlijk al mooi omdat het zelf mirrored schijven heeft. Maar wat als de voeding dood gaat, de netwerkkaart, whatever. Het liefst wil ik de NAS zelf dus redundant uitvoeren omdat toegang tot de data het meest belangrijk is. Als de data redundant te maken is tussen de 2 servers (dus gebruik makend van de mirrored schijven in de 2 fysieke servers) dan is dat volgens mij de mooiste oplossing.

@Overig: Tot nu toe heeft het datecenter in 2 jaar tijd slechts 6 uur downtime gehad. Dat de klant hiermee akkoord is gegaan is voor ons alleen maar +. Waarom dan nog verhuizen...

Redundantie kost inderdaad $$$, maar in welke mate. Je kan het ook overdrijven en volgens mij geeft de geschetste oplossing toch een vrij stabiele situatie (alvast heel wat meer dan alles op 1 server).

  • TheBrain
  • Registratie: Oktober 2000
  • Niet online
Verwijderd schreef op donderdag 21 december 2006 @ 12:06:
@TheBrain: Okee, al snap ik nog niet dat je als host Windows 2003 server zou moeten gebruiken. Linux lijkt wel "lichter" en wellicht stabieler, dus misschien dat we daar voor gaan als host. We onderzoeken nog welke software de virtualisatie gaat draaien. Momenteel was de keus tussen MS Virtual Server en Vmware, dacht dat de overige alternatieven te duur waren en MS iets achter lag op VMWare.
VMware is hoe dan ook verder dan Microsoft op dit moment. De keuze voor het host-OS hangt ervan af of je al ervaring hebt met Linux of dat je een puur Microsoft georiënteerd bedrijf bent. Linux is wel de betere keuze qua performance maar als je daar onverantwoorde hoeveelheden extra beheer aan gaat hebben omdat je geen ervaring met Linux hebt dan is dat de besparing niet waard.

  • Qwerty-273
  • Registratie: Oktober 2001
  • Laatst online: 22:05

Qwerty-273

Meukposter

***** ***

Een stabiel redundante omgeving opzetten kost inderdaad een behoorlijke duit. Het ligt er maar net aan (grote van bedrijf/klanten, sla's, etc.) of dit inderdaad onbetaalbaar is of een kostenpost die op te brengen is. Een punt om Linux te nemen ipv een Windows OS is het besparen op een OS licentie wat je al een paar honder euro kan besparen. Zelfde geldt voor je firewall/gateway constructie die je ingedachten hebt.

Punt met VMware is wel dat je elke guest moet uitrusten met een volledige licentie van het OS, terwijl je met Virtual Server van MS op een W2K3R2 server je de licentie mag hergebruiken voor 2 guests??? (als ik me het goed herinner). Dat kan behoorlijk schelen in je licentie kosten.

Denk er aan bij redundantie om ook je netwerk dubbel uit te rusten. Niets zo vervelend dat je hele omgeving wel up is, maar niets bereikbaar is vanwege een weigerende switch. Bij de meeste co-locaters kan je meerdere ip-addressen aanvragen, dus 2 ip's met elk een router, en daar achter alles dubbel uitgevoerd en alles gecrossed zodat wanneer er 1 apparaat uitvalt alles via de andere verloopt.

Punt is nog wel alleen je stroom voorziening, biedt het datacenter een dubbel uitgeruste voorziening of zitten ze zelf met maar 1 connectie aangesloten? Niets zo vervelend als constructie werken die per ongeluk een stroomkabel doorsnijden.

[ Voor 11% gewijzigd door Qwerty-273 op 21-12-2006 12:25 ]

Erzsébet Bathory | Strajk Kobiet | You can lose hope in leaders, but never lose hope in the future.


  • djluc
  • Registratie: Oktober 2002
  • Laatst online: 23:34
Je userdata kan je met DFS simpel mirroren over 2 servers, werkt prima.

  • Spectre75
  • Registratie: Januari 2006
  • Laatst online: 26-12-2024
Verwijderd schreef op donderdag 21 december 2006 @ 11:23:


@Liam: er zijn 2 fysieke servers die beide virtuele terminal servers draaien. Valt op de ene fysieke server zo'n virtuele server uit (of valt de hele fysieke server uit), dan neemt de andere virtuele server op de tweede fysieke server dit automatisch over. Probleem is alleen dat de gebruikersdata dan niet op 1 van die servers moet staan, vandaar de NAS oplossing.
Dat zie je toch verkeerd hoor, las 1 van je fysieke servers eruit gaat zijn alle TS gebruikers op die server hun sessie en niet ge-savede data kwijt. En ze zullen opnieuw moeten inloggen op de andere server.
Hou ook rekening met de belasting van je fysieke machines, als beide op 80% belasting staan. Kan 1 server dat nooit overnemen als de andere server eruit gaat. Dus als je een fail over wilt mogen je fysieke servers niet boven de 50%-60% komen.


VMware in productie omgeving = ESX 3 (geen disscussie)

Je kan voor je userdata 2 opslagservers gebruiken (NAS of 'normale' servers) en deze via een DFS (Dynamic File System) laten sync'en en de failover laten afhandelen.

Informeer je heel goed, ik krijg een beetje het idee dat je global wel een idee hebt hoe het allemaal moet, maar dat er qua detail/technische kennis toch nog wat gaten zijn. Dit idee wat je hier post is niet iets dat je zo een-twee-drie opzet.....

  • magic45
  • Registratie: Mei 2002
  • Laatst online: 15-01 09:01
Spectre75 schreef op donderdag 21 december 2006 @ 12:29:
[...]
VMware in productie omgeving = ESX 3 (geen disscussie)
Mijn idee, verder biedt HP ook packaged clusters(hardware failover middels een redundate MSA500 drivebay onder 2 stuks DL380's).
Windows XP als host OS voor VMWare is gewoon not-done, zoals je zelf al schreef is je configuratie zo sterk als je zwakste schakel. Je zwakste schakel is imo. op dat moment je Host OS hetgeen toch absoluut stabiel, secure en robuust moet zijn.

ESX3 vereist een redelijk inverstering echter is het op alle fronten beter als Windows XP voor het doel dat je voor ogen hebt.

  • JackBol
  • Registratie: Maart 2000
  • Niet online

JackBol

Security is not an option!

Er moet echt wat sense in dit topic geschopt worden. Ik zie alleen maar halfbakken hobby-bob ideeen. Windows XP als host-OS? Dat is ZIEK (en volgens mij laat de licentie het niet eens toe).

Je moet even duidelijk snappen waar je me bezig bent. Je geeft al aan dat de teller begint te lopen als er downtime is. Het is heel eenvoudig. Je klanten betalen voor betrouwbaarheid en van dat geld kun je mooi ESX3 en een SAN/NAS kopen. Dat zijn imho toch de minimale dingen die je moe gaan gebruiken.

Ik heb ook nog geen woord gezien over hoe je de toko wil gaan monitoren. Windows XP als host OS? How te freak wil je uptime gaan garanderen?

Opbrengst van mijn Tibber Homevolt met externe kWh meter. | Opbrengst van mijn Tibber Homevolt volgens de Tibber Data API.


  • knutsel smurf
  • Registratie: Januari 2000
  • Laatst online: 21:32

knutsel smurf

Grote Smurf zijn we er bijna ?

magic45 schreef op donderdag 21 december 2006 @ 12:40:
[...]

Mijn idee, verder biedt HP ook packaged clusters(hardware failover middels een redundate MSA500 drivebay onder 2 stuks DL380's).
Windows XP als host OS voor VMWare is gewoon not-done, zoals je zelf al schreef is je configuratie zo sterk als je zwakste schakel. Je zwakste schakel is imo. op dat moment je Host OS hetgeen toch absoluut stabiel, secure en robuust moet zijn.

ESX3 vereist een redelijk inverstering echter is het op alle fronten beter als Windows XP voor het doel dat je voor ogen hebt.
Precies, ik zou bij HP kijken of ze je die DL380's kunnen leveren met redundante failover en wellicht direct op Linux Redhat Enterprise laten installeren. Voordeel van dit is dat HP support dan namelijk ook nog voor een deel het OS.

Daarna zou ik voor een iets duurdere SAS oplossing gaan die dus volledig intern redundant is. DotHill heeft mooie systemen voor zulke zaken.

Ow en een zorg dat je 2 goeie switches in je cabinet hebt hangen, 2x 24ports gigabit met 4 glas uplinks moet voldoende zijn. Mocht er dus later nog een andere link bij komen dan kan je simpel bijprikken.

Verwijderd

Topicstarter
@TheBrain: We hebben inderdaad geen Linux ervaring en zijn puur MS based. We gaan er nu toch voor om wel 2003 server ook als host OS in te zetten.

@QWERTY273: We hebben een MS SPLA contract, dus huren de licenties per maand. Een windows 2003 licentie kost op die manier slechts een paar euro. Inderdaad wel een goede tip + pluspunt voor Microsoft Virtual Server. Ik heb ook het idee dat die wel behoorlijk met een inhaalrace bezig zijn.

@djLuc: Tnx! Dit is eigenlijk precies de oplossing die ik zocht. Hierdoor is geen NAS meer nodig, maar ga ik de mirrored schijven van de 2 servers gebruiken om de data redundant op te zetten. Weet je misschien ook of dit een (groot) performance issue geeft?

@spectre75: De server load-balancen, dus het gedeelte dat op de uitgevallen server werkt zal inderdaad de sessie kwijtraken. Ze kunnen alleen wel direct weer opnieuw aanmelden, maar zijn onopgeslagen data kwijt. Klopt, maar is acceptabel. Zolang ze maar direct weer kunnen werken en geen uren offline blijven. Je hebt inderdaad gelijk, ik ben eerst bezig om het globale idee duidelijk te krijgen en zal dan voor de invulling / uitvulling extra expertise gebruiken / inhuren.

@Magic45 /spectre75: Is wat jullie betreft MS Virtual Server ook nog een optie? (met Win2003 server als host os?)

Dank weer voor alle info!

Verwijderd

Topicstarter
@_DH / Knutselsmurf: Stel er staan 2x HP servers van zo'n 5000 per stuk. Beide met 2x 2 schijven in mirror. Op de servers staat Windows 2003 server (vrij stabiel). Hierop draait MS Virtual Server met daarin per klant een Win2003 server, met backup member op de andere fysieke server.

Alle data komt op een DFS omgeving die in stand is gebracht met de mirrored schijven op beide fysieke servers. De bestaande ISA server blijft als firewall dienen, en een extra reeds ingerichte server houden we apart mocht deze crashen.

Klinkt dan toch niet echt hobby- achtig meer. Natuurlijk kan je nog een heleboel geld meer uitgeven, maar de vraag is hoeveel beter het daar dan van gaat worden en of het voor de klant nog wel betaalbaar blijft.

Het datacentre is vrij stabiel, een stevige UPS, brandbeveiliging en inbraakbeveiliging d.m.v. een sluit. Elke nacht FTP-en we een backup naar een off-site omgeving.

Ik denk dat dit vrij goed kan gaan performen, waarbij met hardwarematige uitval snel actie te ondernemen is zonder dat de klant verbinding verliest.

Alle servers hebben overigens een management netwerkkaart, dus kunnen ook op afstand gereboot worden etc.

Verwijderd

Dan het stukje redundantie. Er komen 2 vrij krachtige servers met beide genoeg geheugen en mirrored harddisks. Beide worden voorzien van windows XP (lekker licht maar toch stabiel). Daarom installeren we VMWare en worden er virtuele Windows 2003 servers gehost (elke klant krijgt namelijk haar eigen server ter beschikking, daarbij moet het ook mogelijk zijn om in de toekomst een virtuele SQL server en Exchange server erbij te draaien).
ik ben hier gestopt met lezen. Server met xp en daarop vmware en hoge uptime. Dream on.

  • StevenK
  • Registratie: Februari 2001
  • Laatst online: 22:31
Verwijderd schreef op donderdag 21 december 2006 @ 13:47:
@_DH / Knutselsmurf: Stel er staan 2x HP servers van zo'n 5000 per stuk. Beide met 2x 2 schijven in mirror. Op de servers staat Windows 2003 server (vrij stabiel). Hierop draait MS Virtual Server met daarin per klant een Win2003 server, met backup member op de andere fysieke server.

Alle data komt op een DFS omgeving die in stand is gebracht met de mirrored schijven op beide fysieke servers. De bestaande ISA server blijft als firewall dienen, en een extra reeds ingerichte server houden we apart mocht deze crashen.

Klinkt dan toch niet echt hobby- achtig meer. Natuurlijk kan je nog een heleboel geld meer uitgeven, maar de vraag is hoeveel beter het daar dan van gaat worden en of het voor de klant nog wel betaalbaar blijft.
Hoeveel gebruikers gaan erop draaien ? En welke functie heeft die ISA server ?

Was advocaat maar vindt het juridische nog steeds leuk. Doet tegenwoordig iets in de metaal.


  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Sja, lijkt me dat je voor een dubbeltje op de eerste rang wil zitten, wat ik ook best begrijp, want zo werkt het nu eenmaal in het mkb.

Redundantie is gewoon erg duur. Een datacenter met een garant. uptime van 95% is belachelijk, de shoarmaboer op de hoek biedt een betere gegarandeerde uptime :(

XS4ALL biedt voor hun colo 99,9%, en da's al bijna 9 uur per jaar. Maar goed, hoe meer negens je wilt, de prijs gaat exponentieel omhoog.

Ondanks dat wij ook Microsoft toko zijn, draaien we ook op ESX server, da's de enige productiewaardige virtualisatieoplossing. ESX starter heb je voor 999$ voor een dual processor bak. Als je dat er niet voor over hebt zou ik voor VMware server gaan, maar MS loopt met zijn virtual server een behoorlijk eind achter. Maar da's mijn persoonlijke mening (en die van 10.000'en anderen) en een onderwerp van 'religious wars'. Meer: http://www.vmware.com/community.

Als je redundancy wilt, koop je de duurdere versies van ESX op 2 dozen, met een SAN en de VMotion optie. Beide ESX servers slaan de data op op het SAN, en repliceren onderling het RAM van de guests. Op het moment dat een ESX host onderuit gaat, neemt de ander het over zonder downtime. Onderhoud aan een machine? Je zet'm uit, en de andere ESX server neemt ze gewoon over. Maar dan ben je sowieso tienduizenden euro's kwijt, en je moet gewoon met de klant om tafel gaan zitten, wat ie ervoor over heeft. Je wilt als je dat gaat opzetten ook een externe expert inhuren.

En dan over die firewalls.. Je zou twee ISA servers kunnen neerzetten die met NLB balancen, kost je dan niet veel.. 2 redundante cisco pixen mirrorren of loadbalancer ben je ook meteen een grote zak geld kwijt.

Maarruh, het is allemaal een afweging, en de klant moet ja of nee zeggen. Het is alleen aan jou lijkt me om verschillende voorstellen te doen, en zoveel mogelijk 'bang for the buck' eruit te halen.

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


  • Spectre75
  • Registratie: Januari 2006
  • Laatst online: 26-12-2024
Verwijderd schreef op donderdag 21 december 2006 @ 12:58:
@TheBrain: We hebben inderdaad geen Linux ervaring en zijn puur MS based. We gaan er nu toch voor om wel 2003 server ook als host OS in te zetten.


@Magic45 /spectre75: Is wat jullie betreft MS Virtual Server ook nog een optie? (met Win2003 server als host os?)

Dank weer voor alle info!
Server OS W2k3 + Ms Virtual Server zou ik in jou opzet niet doen.

Je zal je fysieke server OS regelmatig moeten updaten, zaken als anti virus moeten draaien -> performance verlies. Iets dat je tot een minimum wilt houden als je bezig bent virtuele servers te hosten.
VMWare ESX is een minimale Linux kernel waarop je virtualisatie laag draait => nauwelijks onderhoud, super stabiel en een strakke performance.

Kijk eens op de site van VMware en lees je een beetje in mbt tot ESX, dan zal je al gauw de voordelen zien. En er zijn ook basic versies van ESX, alleen je virtualisatie (zonder alle extra's van de Enterprise ESX) en dus een stuk goedkoper.

Kijk ook even welke applicaties in je TS omgeving gaan draaien. Niet alle apps draaien even goed onder een TS/Citrix omgeving bovenop een virtualisatie laag. Zaken als contex switches en processor interrupt time kunnen je performance doen kelderen. ESX 3 is geoptimaliseerd voor Citrix (tot 50% performance verbetering, volgens VMWare O-) ) hoe het zit met TS op ESX 3 weet ik eerlijk gezegd niet (vermoed dat dit min of meer gelijk loopt met de Citrix optimalisatie).
Maar ook onder ESX 3 + PS 4.0/TS kan je nog apps tegenkomen die een ruk perfomance hebben.

Verwijderd

Topicstarter
@iis5_rulez: Jammer.

@StevenK: 50 gebruikers met een virtuele omgeving, waarschijnlijk continu 20 gelijktijdig. De ISA server bepaalt wie bijvoorbeeld het internet op mag, naar welke sites, content filtering, firewall functie, etc.

@Axis / Spectre75: Tnx, ik ga er zeker eens naar kijken, wellicht dat we dan toch een basis ESX versie gaan draaien in plaats van Win2003 als host OS. Ook tnx voor het verhaal van de antivirus.Voordeel van een virtuele server per klant is wel dat de ene klant nooit de andere klant kan verstoren (ook niet met een virus). De applicaties die er op gaan draaien vallen verder wel mee, ook op de huidige omgeving gaat dat prima.

We gaan eerst goed testen hoe DFS gaat performen. Omdat we een 2e firewall op voorraad houden hoeft die in principe niet redundant (scheelt 57 euro per maand aan een ISA server licentie).

Het datacenter heeft dan misschien geen hoge uptime garantie, maar is aan de andere kant vrijwel nooit down, zit vlakbij, is snel en tegen een goed betaalbare prijs.

Verwijderd

Voordeel van een virtuele server per klant is wel dat de ene klant nooit de andere klant kan verstoren (ook niet met een virus).
wees daar niet al te zeker van. Ik neem aan dat je niet elke klant in een eigen subnet zet en dan kan het zomaar gebeuren dat een virus op klant A, toch bij klant B terecht komt omdat beide machines dezelfde exploit hebben. (virussen die via netwerk verspreiden hebben meestal wel een algorithme die minstens 20% van de pogingen op hun eigen subnet doen).
Het datacenter heeft dan misschien geen hoge uptime garantie, maar is aan de andere kant vrijwel nooit down, zit vlakbij, is snel en tegen een goed betaalbare prijs.
Dat het bijna nooit down is, is niet een maatstaf. Stel hij gaat 5 dagen achtereen plat... hoe groot is dan de claim die jij krijgt van je klanten? En vooral, kan je dat lijden...

  • The Eagle
  • Registratie: Januari 2002
  • Laatst online: 23:24

The Eagle

I wear my sunglasses at night

Los van hardware e OSss'sen en die hele inhoudelijke discussie, zou ik er als ik de TS was wel voor zorgen dat ik als bedrijf NIET verantwoordelijk was voor de datalijn(en) naar de klant, maar dat de klant die zelf aan mag laten leggen en er zelf een SLA over mag afsluiten met de leverancier. Want anders mag jij die datalijn ook opnemen in je 95% availability / uptime / whatever. En aangezien dat van een externe partij afhankelijk is, moet je die dan met een hogere availability pakken, dus duurder enzo. Plus jij krijgt het gezeik als de lijn er uit knalt. Geloof me, dat wil je echt niet :)

Al is het nieuws nog zo slecht, het wordt leuker als je het op zijn Brabants zegt :)


  • rdfeij
  • Registratie: September 2001
  • Laatst online: 23-03 13:46
TS had ook vragen over licenties....

Daar zou ik me ook maar eens in gaan verdiepen, je "verhuurt" licenties aan klanten omdat je een web oplossing biedt aan je klanten. (Gewone MS licenties zijn "VERBODEN" om voor dit soort toepassingen te gebruiken.)

Dat betekend dus dat je MS SPLA licentie's nodig hebt.
Dit zijn geen eenmalige kosten, maar deze licenties worden per maand afgerekend, verlies je een klant, kun je minder licenties opgeven aan MS en betaal je zelf ook minder. (voordeel boven " harde licenties" kopen.)

"Microsoft SPLA" is je volgende zoekopdracht ;)

edit:

niet goed gelzen door de ellenlange lappen tekst ;)

[ Voor 5% gewijzigd door rdfeij op 21-12-2006 15:40 . Reden: edit ]


  • StevenK
  • Registratie: Februari 2001
  • Laatst online: 22:31
rdfeij schreef op donderdag 21 december 2006 @ 15:34:
"Microsoft SPLA" is je volgende zoekopdracht ;)
Verwijderd schreef op donderdag 21 december 2006 @ 12:58:
@QWERTY273: We hebben een MS SPLA contract, dus huren de licenties per maand. Een windows 2003 licentie kost op die manier slechts een paar euro. Inderdaad wel een goede tip + pluspunt voor Microsoft Virtual Server. Ik heb ook het idee dat die wel behoorlijk met een inhaalrace bezig zijn.

Was advocaat maar vindt het juridische nog steeds leuk. Doet tegenwoordig iets in de metaal.


  • rdfeij
  • Registratie: September 2001
  • Laatst online: 23-03 13:46
en vm-ware op hardware nivo? "Intel Virtualisation"
Maakt vm-ware overbodig, je hebt alleen wel servers met ondersteuning voor virtualisation nodig.

  • JackBol
  • Registratie: Maart 2000
  • Niet online

JackBol

Security is not an option!

rdfeij schreef op donderdag 21 december 2006 @ 15:41:
en vm-ware op hardware nivo? "Intel Virtualisation"
Maakt vm-ware overbodig, je hebt alleen wel servers met ondersteuning voor virtualisation nodig.
Dat is alleen de hardware. Je hebt nog steeds een hypervisor a la Xen of VMWare nodig...

Opbrengst van mijn Tibber Homevolt met externe kWh meter. | Opbrengst van mijn Tibber Homevolt volgens de Tibber Data API.


Verwijderd

Topicstarter
Ok, ESX valt af. Dat zou dus een lekkere $3750 per server gaan kosten http://www.vmware.com/pdf/vi_pricing.pdf (de starter werkt niet met een clustered file system, daarbij is die nog $1000). Ik kan mij niet voorstellen dat dit extreme bedrag dan zoveel beter gaat werken dan wanneer vmware op een windows 2003 server draait.

@The_Eagle, wij zijn niet verantwoordelijk voor downtime door externe partijen, zoals het datacenter. Alleen als onze serveroplossing down gaat hebben wij een probleem. Voor een paar uur is dat ook nog wel te overzien, maar het liefst vangen we dat dus zo redundant mogelijk af.

@iis5_rulez: Dat is ook waar, elke virtuele server zal dan ook haar eigen antivirus gaan draaien, hopelijk lost dat, inclusief een vrij stevige firewall en de onmogelijkheid voor de meeste gebruikers om op de virtuele plek te internetten toch een hoop problemen op.

@rdfeij, hardware virtualisation klinkt ook leuk, had ik eigenlijk nog niet eerder gezien, maar wordt ook wel weer een erg dure grap.

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

Wow, je zou maar klant zijn van Mammaplank's bedrijf, duidelijk communiceren dat downtime niet acceptabel is (zie TS), en het bedrijf waar je dat contract mee afsluit is op deze manier aan het prutsen.. Brrr... :X

Iig - voor je redudantie: DFS kent geen distributed locking waardoor je maar een "single-updater" mag hebben (en dat is vziw weer niet ondersteunt door DFS), dat kan een probleem worden als je met bewerkbare data werkt en daardoor is het imho niet geschikt voor "user data" :)

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Verwijderd schreef op vrijdag 22 december 2006 @ 06:54:
Ok, ESX valt af. Dat zou dus een lekkere $3750 per server gaan kosten http://www.vmware.com/pdf/vi_pricing.pdf (de starter werkt niet met een clustered file system, daarbij is die nog $1000). Ik kan mij niet voorstellen dat dit extreme bedrag dan zoveel beter gaat werken dan wanneer vmware op een windows 2003 server draait.
Dat is de prijs die je betaalt voor redundancy.. Daar zijn ook wel weer manieren omheen (ESX Starter kan wel NAS gebruiken als storage, je guests zouden iSCSI initiator kunnen draaien of data op SAN/NAS gebruiken), maar als je een professionele oplossing wilt bieden, tja..

Lees je in op http://www.vmware.com/community waarom ESX zoveel beter is. Of probeer het zelf, je komt er uiteindelijk vanzelf achter, maarja, dan staat alles al. Ik zeg niet dat 2003 een slechte oplossing is, maar ESX is wel extreem veel beter ja.
@rdfeij, hardware virtualisation klinkt ook leuk, had ik eigenlijk nog niet eerder gezien, maar wordt ook wel weer een erg dure grap.
Wederom denk ik dat je jezelf moet inlezen, dit is namelijk een gratis grap, aangezien de nieuwe processors een extra bitje hebben, VT, waar rdfeij op doelt. Maar dan moet je inderdaad nog steeds software hebben die daarvan gebruik kan maken zoals VMware software, Xen, etc.

Met alle respect naar jou toe, denk ik dat je om een professionele oplossing te maken, eerst een gedegen professional moet zijn. En ik denk persoonlijk dat je daar nog niet bent. Dat is een ontwikkeling die we allemaal door moeten maken, en daar kom je door veel te lezen, en om te gaan met professionals zoals hier in PNS, en kijken welke dingen 'done' zijn, en welke 'not done', en nog belangrijker, waarom. En ik zou als ik jullie was zelfs voor deze opdracht een consultant inschakelen, aangezien je zelf gewoon niet genoeg kennis in huis hebt. Of net voor een halfbakken oplossing (die misschien uiteindelijk ook wel werkt, maar goed)

Het feit dat je in eerste instantie met XP als host aan de slag wilt, een enkele ISA server hebt, en het verschil tussen een NAS en een SAN niet weet of er nooit mee gewerkt hebt, gegarandeerde uptime niet waardeert, etc, geeft daar blijk van. Begrijp me niet verkeerd, ik zeg niet dat je een slecht persoon bent, of een slechte systeembeheerder, heleemaal niet. Maar deze enterprise-level oplossingen zijn gewoon een andere tak van sport, en het duurt lang voor je daar helemaal in zit.

Just my 2 cents.

[ Voor 8% gewijzigd door axis op 22-12-2006 08:40 ]

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


  • djluc
  • Registratie: Oktober 2002
  • Laatst online: 23:34
elevator schreef op vrijdag 22 december 2006 @ 07:24:
[...]
Iig - voor je redudantie: DFS kent geen distributed locking waardoor je maar een "single-updater" mag hebben (en dat is vziw weer niet ondersteunt door DFS), dat kan een probleem worden als je met bewerkbare data werkt en daardoor is het imho niet geschikt voor "user data" :)
Hoe bedoel je dit concreet? Ik gebruik het wel in een MKB bedrijf namelijk als test en vind het prima werken tot nu toe. Hoe heeft je opmerking toepassing op bijvoorbeeld een word document wat door 2 personen geopend wordt om het simpel te houden? In principe is de laatste persoon die saved toch degene wiens data blijft staan?

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

djluc schreef op vrijdag 22 december 2006 @ 12:25:
Hoe bedoel je dit concreet? Ik gebruik het wel in een MKB bedrijf namelijk als test en vind het prima werken tot nu toe. Hoe heeft je opmerking toepassing op bijvoorbeeld een word document wat door 2 personen geopend wordt om het simpel te houden? In principe is de laatste persoon die saved toch degene wiens data blijft staan?
Precies zoals ik het zeg :P

Als jij twee mensen hebt werken in dezelfde Excel krijg je normaal een "Already in use - open readonly copy" message, bij DFS waarbij de users op verschilende dfs servers zitten krijgen ze dus allebei een readwrite versie en gaat iemands wijzigingen verloren.

Bij Access hetzelfde terwijl dat al helemaal raar is :)

  • Gomez12
  • Registratie: Maart 2001
  • Laatst online: 17-10-2023
Verwijderd schreef op vrijdag 22 december 2006 @ 06:54:

@The_Eagle, wij zijn niet verantwoordelijk voor downtime door externe partijen, zoals het datacenter. Alleen als onze serveroplossing down gaat hebben wij een probleem. Voor een paar uur is dat ook nog wel te overzien, maar het liefst vangen we dat dus zo redundant mogelijk af.
Dan hoop ik voor jullie dat jullie dit heel erg goed en duidelijk contractueel vastgelegd hebben, want als ik een oplossing wil hebben die geen downtime kent zal het mij geen snars uitmaken naar wie jij verwijst. Ik heb met jouw een afspraak dat ik geen downtime van mijn programma zal hebben.
Als het datacenter offline gaat kan misschien het programma nog wel draaien ( theoretisch dus geen downtime ) maar ik als klant ervaar wel downtime want ik kan niet in het programma, wie denk je dat ik bel???
@iis5_rulez: Dat is ook waar, elke virtuele server zal dan ook haar eigen antivirus gaan draaien, hopelijk lost dat, inclusief een vrij stevige firewall en de onmogelijkheid voor de meeste gebruikers om op de virtuele plek te internetten toch een hoop problemen op.
Je begrijpt hopelijk toch wel dat er maar 1 rotte gebruiker tussen hoeft te zitten om het te verpesten?
@rdfeij, hardware virtualisation klinkt ook leuk, had ik eigenlijk nog niet eerder gezien, maar wordt ook wel weer een erg dure grap.
Dat duur hoor ik hier iets te vaak in dit topic, als de klant 99,9% uptime wil hebben moet hij hier ook voor betalen. Wil hij hier niet voor betalen dan moet je het ook niet proberen aan te bieden...

Sorry hoor, maar als ik jouw reacties in dit topic zo eens lees krijg ik echt het idee dat jullie een totaal verkeerde prijs hebben afgegeven voor iets.
Als ik jouw was zou ik snel eens met de klant gaan praten en gewoon eerlijk zeggen dat jullie voor die prijs niet de gewenste garanties af kunnen geven, of de prijs moet omhoog of de garanties naar beneden. Grote kans dat de klant dit meer waardeert dan elk jaar een x bedrag een boeteclausules te moeten innen.

Verwijderd

Topicstarter
Hmmm..., volgens mij begrijpen sommige mensen mij niet helemaal. Dat is wel logisch, want die kennen de klant ook niet.

Wij proberen voor de klant de beste oplossing te bedenken. Wil die echt extreem veel geld uitgeven, dan hadden we de klus uitbesteed door een partij die hier dan vast met ESX, veel meer hardware, etc gaat werken. We hebben alleen een budget, en daar moeten we het mee doen.

De klant weet dit ook, is goed duidelijk gemaakt dat het datacenter een downtime heeft van 95% en accepteerd dit ook. In plaats van er nu dus 1 terminal server neer te zetten, die altijd al prima heeft gedraaid, gaan we dit nu dus al een heel stuk beter oplossen. Het definitieve contract wordt nog gemaakt, verdere downtime zal na onderzoek ook goed naar de klant worden gecommuniceerd. Wordt dit te veel, dan komen er andere, wellicht duurdere oplossingen.

Een goed begin is altijd je eerst te verdiepen in de materie. Inderdaad, ik weet daar allemaal nog niet 100% vanaf. Ik zeg ook nergens dat ik dat weet of dat ik dit alleen ga doen. Daarbij is er is nog tijd om dit te leren, te praten met andere experts en informatie in te winnen op forums als deze, waar een heleboel fijne tips tussen zitten en een hoop mensen die meteen bij een vraag al gaan lopen roepen en bleren. Allemaal prima.

Ondertussen zitten we alleen wel met een volledig tevreden klantenbestand, dus zo slecht kan de aanpak tot nu toe niet zijn.

Als ik de opmerkingen hier lees en overleg met de klant dan is ESX gewoon te duur. De klant wil gewoon wat hij nu heeft (want dat draait al tijden perfect), maar dan met wat meer zekerheid. Natuurlijk wel weer in combinatie met het voor een dubbeltje op de eerste rang zitten.

Omdat de klant meerdere sub-klanten heeft vind ik nog steeds gescheiden virtual servers een valide oplossing. Een server per sub-klant wordt ook gewoon weer te duur.

Het redundant uitvoeren van deze virtuele servers over 2 verschillende fysieke machines is dan een goedkope manier om uitval toch al een heel stuk te beperken. Na mijn mening ook goed doordacht en niks mis mee.

En dubbele firewall waarvan de licentie al 57 per maand kost, dus dan 114 gaat kosten wanneer je er ook een op de plank kan houden is dan misschien geen slim plan.

DFS is nieuw voor ons, maar we hebben nog tijd genoeg om dit grondig te testen. Ik hoor hier al geluiden die zorgen opwekken. Een echt betaalbaar alternatief heb ik alleen nog niet echt gezien.

Je kan dus makkelijk zeggen dat we maar wat aan het prutsen zijn, en als je een grote enterprise bent met een veel groter budget dan kan ik mij voorstellen dat dit zo overkomt. Ik kan je alleen verzekeren dat het uiteindelijke resultaat perfect gaat aansluiten bij de wensen van deze klant.

Ik zou het dan ook zeer op prijs stellen wanneer we de discussie over het contract, de SLA, datacentre, etc achterwege kunnen laten. Tips voor een betaalbare stabiele virtuele werkplek omgeving waarin bij uitval van een server een gebruiker weer aan kan melden (met verlies van zijn/haar op dat moment bewerkte data), maar wel gewoon weer bij zijn/haar data kan komen.

Dank

  • djluc
  • Registratie: Oktober 2002
  • Laatst online: 23:34
elevator schreef op vrijdag 22 december 2006 @ 12:28:
[...]
Als jij twee mensen hebt werken in dezelfde Excel krijg je normaal een "Already in use - open readonly copy" message, bij DFS waarbij de users op verschilende dfs servers zitten krijgen ze dus allebei een readwrite versie en gaat iemands wijzigingen verloren.

Bij Access hetzelfde terwijl dat al helemaal raar is :)
Wat je zegt klopt wel inderdaad. We hebben het probleem hier gelukkig nog niet gehad. Sowieso draaien databases op servers, niet op clients, daar zijn we wel heel strikt in om er voor te zorgen dat de gebruikers niet zelf databases op gaan zetten e.d.

In principe geldt het dus alleen voor groepsmappen. Userdata (documenten/desktop/enz) hebben verder geen last van het beschreven probleem.

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

Verwijderd schreef op vrijdag 22 december 2006 @ 20:24:
DFS is nieuw voor ons, maar we hebben nog tijd genoeg om dit grondig te testen. Ik hoor hier al geluiden die zorgen opwekken. Een echt betaalbaar alternatief heb ik alleen nog niet echt gezien.
Kijk eens naar GeoCluster / Doubletake - zeker als je met VMware GSX Server gaat werken kan dat interessant zijn omdat je dan ook nog eens je virtuele machines kan repliceren en op die manier redudant houden :)
Ik zou het dan ook zeer op prijs stellen wanneer we de discussie over het contract, de SLA, datacentre, etc achterwege kunnen laten.
Dat raad ik sterk af - jij opent een topic op GoT en daaruit vloeit een discussie voort, dat die discussie misschien breder raakt dan jouw initiele vraag is iets waar je alleen maar van kan leren en in ieder geval jezelf aan kan spiegelen, je ogen er voor sluiten is geen goede oplossing ;)


djluc schreef op vrijdag 22 december 2006 @ 20:34:
Wat je zegt klopt wel inderdaad. We hebben het probleem hier gelukkig nog niet gehad. Sowieso draaien databases op servers, niet op clients, daar zijn we wel heel strikt in om er voor te zorgen dat de gebruikers niet zelf databases op gaan zetten e.d.
De enige manier zo'n beetje om dat te doen is zorgen dat er geen Access of gelijkaardige software draait :P
In principe geldt het dus alleen voor groepsmappen. Userdata (documenten/desktop/enz) hebben verder geen last van het beschreven probleem.
Niet helemaal - in een terminal services omgeving met bijvoorbeeld seamless applications heb je nog de 'bijzondere' situatie dat je bijvoorbeeld een sessie op een Citrix server kan hebben die op een andere DFS server werkt dan de lokale sessie. Omdat DFS ook nog eens niet gaat repliceren voordat de file gesloten is, kan dit best enge zaken opleveren.

Overigens is dat laatste ook iets om rekening mee te houden - als iemand z'n werk bestaat uit het om 08:00 openen van een Excel, en die aanvullen tot 17:00, dan betekent dat dat die dus tussen 08:00 en 17:00 niet gerepliceerd wordt :)

[ Voor 39% gewijzigd door elevator op 22-12-2006 20:40 ]


Verwijderd

Topicstarter
Als ik de documentatie lees over DFS, dan lijkt dit op een Windows 2003 omgeving toch zeer snel te synchroniseren. Ook lees ik alleen database mutaties worden bijgewerkt. Verwacht dat het hier dan gaat om Microsoft databases als Access. Ik vraag mij af of dit dan een merge betreft o.i.d.

We gaan in elk geval een test opzetten en eens kijken wat daar de bevindingen mee zijn. Een paar gebruikers gebruikt snelstart, wat helaas een access database draait (al is dit ook over te zetten op SQL), dus het moet daar wel goed mee overweg kunnen en de database zeker niet corrupt achterlaten.

Voor gemeenschappelijke bestanden is DFS dan wel een drama als er geen alleen-lezen waarschuwing meer is. Ik begin in dit geval toch weer meer te voelen voor een redundante NAS oplossing.

  • StevenK
  • Registratie: Februari 2001
  • Laatst online: 22:31
DFS is ideaal voor bijvoorbeeld het sychroniseren van installatie-punten en read-only data. Wil je de 'reguliere' data redundant aanbieden, dan zul je toch echt met clustering aan de gang moeten. En da's niet goedkoop.

Was advocaat maar vindt het juridische nog steeds leuk. Doet tegenwoordig iets in de metaal.


  • djluc
  • Registratie: Oktober 2002
  • Laatst online: 23:34
Wat is dan concreet wel een oplossing binnen het budget van de TS? We gebruiken DFS hier al maanden voor alle data en het werkt super.
De enige manier zo'n beetje om dat te doen is zorgen dat er geen Access of gelijkaardige software draait
Klopt, alleen database clients mogen op de clients staan.

Die terminal services opmerking begrijp ik niet helemaal, maargoed we gebruiken dat toch alleen als administrators ;)


Ik kan deze opmerking trouwens vinden
If DFS with multiple targets is something you must stick with you might want
to consider upgrading to Server 2003 R2. FRS 2.0 has a conflict resolution
console that you (as an admin) could recover files that get overwritten.
Er is dus wel iets van een systeempje aanwezig om problemen op te vangen.

[ Voor 4% gewijzigd door djluc op 22-12-2006 22:05 ]


  • StevenK
  • Registratie: Februari 2001
  • Laatst online: 22:31
djluc schreef op vrijdag 22 december 2006 @ 22:04:
Wat is dan concreet wel een oplossing binnen het budget van de TS? We gebruiken DFS hier al maanden voor alle data en het werkt super.
En hoeveel failovers en crashes heeft het systeem al overleefd ?

Was advocaat maar vindt het juridische nog steeds leuk. Doet tegenwoordig iets in de metaal.


  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20-01 19:37
het enigste platform waarop je fatsoenlijk kan virtualiseren is esx server (3.0) en daarin kan je op 1 TS nog geen 12 users kwijt :z meer als 12 en het is DRAMA kwa performance

(dual 2.8ghz met 2gb ram)...

http://www.brianmadden.com/content/content.asp?ID=620

kortom: citrix/terminalserver wil je liever niet virtualiseren :) believe me ik heb het ook wel eens gedaan dat wil je liever niet.

vmwareserver of virtualserver is leuk om mee te spelen in een testomgeving maar productie... ho maar!

wat voor verbinding heeft de klant eigenlijk op lokatie :? leuk dat het datacenter 95% uptime kan garanderen (te weinig ook nog..) maar laat me raden de klant heeft op lokatie een xs4all dsl lijntje :? :D

A wise man's life is based around fuck you


  • DataGhost
  • Registratie: Augustus 2003
  • Laatst online: 27-03 10:10

DataGhost

iPL dev

Verwijderd schreef op vrijdag 22 december 2006 @ 20:24:
De klant weet dit ook, is goed duidelijk gemaakt dat het datacenter een downtime heeft van 95% en accepteerd dit ook.
:D

Maareh, zou je niet met een soort master/slave-opzet kunnen werken? Aangezien je een tweede server wilt hebben als failover kan(mag) je sowieso niet meer clients in totaal aan het werk laten dan dat 1 server aankan. Immers, als er eentje down gaat komt alles op de tweede neer. Met een master/slave-opzet heb je het probleem ook niet meer dat vanaf server 1 gegevens naar server 2 gerepliceerd worden en tegelijkertijd andersom, maar staat toch op beide machines dezelfde informatie. Hoe je dit precies moet implementeren weet ik niet precies, maar volgens mij is het niet zo gruwelijk lastig.

Edit: Ohja, en wat Zwelgje hierboven zegt natuurlijk :) Elke machine heeft een eigen deel van het geheugen nodig, dat zal al een grote bottleneck zijn. Als je elke machine 256MB geheugen geeft kan je er met goed fatsoen niet meer dan 7 op draaien (met 2 GB geheugen), anders gaat je bak swappen als een gek. Gevolg: performance van ALLE machines zakt als een kaartenhuisje in elkaar, qua geheugen en qua disk I/O. Inderdaad niet iets wat je wilt. Zorg tenminste dat de servers qua geheugen ruim bemeten zijn, zeker als je Windows gaat draaien (als host EN guests).
CPU-power is afhankelijk van de soort load ook belangrijk trouwens. Multicores zijn mooie uitvindingen :)

Het blijft helaas zo, wat je denkt te besparen met aparte servers moet je alsnog in 1 bak stoppen. Het zal wel iets goedkoper zijn, en afhankelijk van de gemiddelde belasting kan je heel netjes uitkomen, maar als de kracht echt nodig is moet je alsnog toereikende hardware aanschaffen.

[ Voor 37% gewijzigd door DataGhost op 22-12-2006 23:21 ]


  • Qwerty-273
  • Registratie: Oktober 2001
  • Laatst online: 22:05

Qwerty-273

Meukposter

***** ***

Verwijderd schreef op vrijdag 22 december 2006 @ 20:24:
Tips voor een betaalbare stabiele virtuele werkplek omgeving waarin bij uitval van een server een gebruiker weer aan kan melden (met verlies van zijn/haar op dat moment bewerkte data), maar wel gewoon weer bij zijn/haar data kan komen.
NetBSD/Linux icm Xen en een NAS. Licentie kosten zijn er niet, alleen zit je wel met het punt dat je een hele goede kennis moet hebben van BSD/Linux/Xen etc. Gebruikers niet meer hun vertrouwde Windows omgeving hebben etc.
Een stabiele omgeving viruteel aanbieden heeft gewoon een minimum investering nodig. Als dat buiten het budget valt van de klant zal je andere opties moeten bekijken. Aan de andere kant zijn er genoeg bedrijven met hele grote klanten die zeer kritische applicaties afleveren maar een behoorlijk hobby bob gehalte intern hebben. Dus wat dat betreft maakt het voor het succes van een bedrijf ook niet weer al te veel uit :+

Erzsébet Bathory | Strajk Kobiet | You can lose hope in leaders, but never lose hope in the future.


  • djluc
  • Registratie: Oktober 2002
  • Laatst online: 23:34
StevenK schreef op vrijdag 22 december 2006 @ 22:19:
[...]

En hoeveel failovers en crashes heeft het systeem al overleefd ?
Failovers op diverse manieren gesimuleerd (hard stekker er uit, netwerkkabel er uit,, server afsluiten) en tevens enkele malen een pakket dat het systeem geheel vast liet lopen (hadden we eigenlijk moeten virtualiseren maar daardoor werkte de software niet meer). Daarnaast rebooten we gewoon overdag de server in plaats van 's avonds omdat de gebruikers toch gewoon door kunnen werken. In principe maakt het sowieso niet uit dat een server uitvalt, dat is wel prettig.


Even wat puntjes die ik heb opgezocht over DFS:
offtopic:
1. Als user A op server A werkt en user B op serverB en ze beide hetzelfde bestand editten: Zodra de servers gaan synchroniseren plaatst DFS een backup in de map: DfsrPrivate\ConflictandDeleted. Wel een probleem dus maar de gegevens zijn niet meteen verloren.

2. Microsoft adviseert Sharepoint indien je met meerdere mensen tegelijkertijd aan een bestand wilt werken.

3. In geval van 1 locatie is het synchroniseren van roaming profiles e.d. geen enkel probleem. Alleen bij trage verbindingen en users die snel van locatie verplaatsen zitten er wat risico's.

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

djluc schreef op zaterdag 23 december 2006 @ 03:01:
Even wat puntjes die ik heb opgezocht over DFS:
1. Als user A op server A werkt en user B op serverB en ze beide hetzelfde bestand editten: Zodra de servers gaan synchroniseren plaatst DFS een backup in de map: DfsrPrivate\ConflictandDeleted. Wel een probleem dus maar de gegevens zijn niet meteen verloren.
Mjah en dat is dus al snel niet wenselijk - tenminste, als beheerder wil je meestal dat je gebruikers bezig zijn met hun werk en niet met het oplossen van "dfs conflicts", dat zijn implementatie details die de gebruiker niet eens hoort te kennen :)

  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 16:09

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

Verwijderd schreef op vrijdag 22 december 2006 @ 20:24:
We hebben alleen een budget, en daar moeten we het mee doen.
Wat is je budget dan? Welke apparatuur staat er momenteel, en wat moet er aangeboden worden aan de klant?

Misschien dat er met deze informatie meer info door mede-tweakers gegeven kan worden over het doen van investeringen. Momenteel zijn de meeste posts gericht op de term "High Available" en komen dus met (prijzige) oplossingen om een HA omgeving aan te bieden.

Het enige wat ik uit je posts kan halen is dat je "werkplekken" en data-storage aanbied, geen mailvoorziening voor deze werkplekken?

Overigens vind ik de werkwijze wel vreemd; de klant vraagt om meer zekerheid, het is dan gebruikelijk om als hosting-partij een hogere uptime aan te bieden. Deze afspraak vat je samen in een SLA, waarin deze uptime met bijbehorende maandelijkse kosten verwerkt zijt. De afschrijving van de apparatuur, verbindingen, licenties en manuren verwerk je in deze prijs. Hoe jij als hosting-partij deze extra uptime realiseerd, is voor de klant niet belangrijk.

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


Verwijderd

Topicstarter
Nog een vraagje over NAS (Zijn DFS aan het testen en de testresultaten vallen tegen). Ik zie hele mooie NAS server van bijvoorbeeld DELL. Deze draaien op Windows 2003 Storage server. Op zich mooi, maar het lijkt mij wat overkill. Ik zou toch denken dat je voor een NAS server geen dual Xeon processor en 2GB ram nodig moest hebben.

Adaptec heeft ook leuke servertjes, SNAP servers. Deze zijn een stuk goedkoper, en volgens mij draait deze een eigen soort software (wat vast een hoop in prijs scheelt, want Win2003 is niet echt goedkoop qua licentie). Daarbij zou het mooi zijn als een server het OS in firmware draait, want ik verwacht dat dat dan toch een heel stuk stabieler draait.

De grote vraag is alleen hoe die niet-Windows gebasseerde servers omgaan met sharing en security. Ik wil straks natuurlijk wel gewoon NTFS shared schijven hebben waaraan ik gebruikers(groepen) rechten kan gaan toekennen. Iemand enig idee hoe dat zit? Of welke term zo'n server moet hebben wil hij dat ondersteunen?

Verder vraag ik mij af of NLB (Network load balancing) ook te draaien is op de gewone versie van Windows 2003, of dat je wanneer je dit soort dingen wilt toch over moet stappen naar de enterprise licentie.

@Zwelgje, de verbinding van de klant is uitgesloten in ons SLA, als die problemen heeft dan ligt dat bij de provider. Daarbij is aangegeven dat ze minimaal een snelle breedband verbinding moeten hebben.

Verder vreemd dat virtualisatie dan toch zoveel overhead geeft. Hiervoor draaide zo'n 15 klanten gelijktijdig op een enkele, vrij normale server, en dat draaide altijd prima.

@DataGhost, we gaan nu ook werken met een redundante server met NLB. Valt 1 server uit, dan zal de performance inderdaad tijdelijk drama zijn, maar er is in elk geval uptime.

@Qwery-273, Klopt, maar de gebruikers vereisen echt een windows omgeving.

@Question mark, Zo'n 12000 euro was in eerste instantie het idee. Dit voor 2 toch best wel krachtige kwaliteitsservers. Nu komt daar alleen nog een NAS server bij. Inderdaad (nog) geen mailvoorziening, maar omdat e.e.a. op virtuele servers gaat draaien is in de toekomst te kijken of het systeem nog een virtuele exchange server aan kan.

  • AcoLyte!
  • Registratie: September 2006
  • Laatst online: 27-03 09:36

AcoLyte!

*evil grin*

Wil niet bashen, maar ik proef weinig eigen initiatief, meer de beruchte 'ik knal m'n vragen gewoon
op GoT en wacht op antwoorden' insteek. Aangaande je security, spit de site eens door, staat
er allemaal keurig beschreven: http://www.snapserver.com/Collateral/Datasheets.shtml
NLB? even Microsoft raadplegen: http://www.microsoft.com/...ae85ea8d5ab.mspx?mfr=true

tja.. paar minuutjes werk. anyway, verdiep je in de materie, steek er iets van op. Twijfel je,
gebruik dan GoT om te 'sparren' met mensen met ervaring. Merry Christmas trouwens :P

don't mistake lack of talent for genius.


Verwijderd

Topicstarter
Klopt, ook gelezen. Ik blijf alleen steeds goekoper uitkomen door gewoon een Dell server te nemen van 800 euro met 1GB LAN en 2x 160GB in mirror. Daar dan Windows 2003 storage server op installeren. Goedkoper dan een SNAP server en je weet zeker dat je security enzo goed werkt.

NLB verhaal heb ik ook gelezen. Staat dat het op alle versies kan, maar je moet enterprise hebben voor de session directory. Dat vind ik dus een beetje vaag, want volgens mij is het bagger zonder session directory, dus moet je eigenlijk wel enterprise edition hebben. Anders zou het dus al fout gaan als iemand per ongeluk zijn sessie scherm sluit. Als ze daarna via de NLB toevallig op de andere server komen gaat het mis.

Ook een merry christmas :)

  • StevenK
  • Registratie: Februari 2001
  • Laatst online: 22:31
Verwijderd schreef op dinsdag 26 december 2006 @ 12:54:
Klopt, ook gelezen. Ik blijf alleen steeds goekoper uitkomen door gewoon een Dell server te nemen van 800 euro met 1GB LAN en 2x 160GB in mirror. Daar dan Windows 2003 storage server op installeren. Goedkoper dan een SNAP server en je weet zeker dat je security enzo goed werkt.
Als je alleen naar het investeringsbedrag kijkt. Wat ik in jouw aanpak toch wel een beetje mis, is 'the big picture'. Een w2k3 doos zal veel meer beheer kosten dan een storage appliance.

Gezien het beperkte budget snap ik dat overigens wel. Ik draai ook op diverse plekken echte budget-oplossingen, terwijl ik ook wel eens op basis van een zo ongeveer ongelimiteerd budget een heel dik cluster heb neergezet.
NLB verhaal heb ik ook gelezen. Staat dat het op alle versies kan, maar je moet enterprise hebben voor de session directory. Dat vind ik dus een beetje vaag, want volgens mij is het bagger zonder session directory, dus moet je eigenlijk wel enterprise edition hebben. Anders zou het dus al fout gaan als iemand per ongeluk zijn sessie scherm sluit. Als ze daarna via de NLB toevallig op de andere server komen gaat het mis.
Yep, da's correct. Als je enterprise-level functionaliteit wil, dan zijn er fabrikanten die ook van je verwachten dat je daarvoor betaalt.

[ Voor 8% gewijzigd door StevenK op 26-12-2006 13:27 ]

Was advocaat maar vindt het juridische nog steeds leuk. Doet tegenwoordig iets in de metaal.


Verwijderd

Topicstarter
@StevenK, het is wel Windows 2003 Storage server, een voor mij nieuwe variant bedoeld voor dit soort taken. Ik verwacht dat de beheerkosten daar minimaal van blijven, daarbij hangt deze gewoon in het domein, dus zijn groepsrechten etc gewoon toe te kennen. Het is dan misschien een budget oplossing, maar ik zie er meer functionaliteit mee mogelijk dan bijvoorbeeld een SNAP server. Omdat de server een 1Gbit LAN kaart krijgt denk ik ook nog eens dat het beter performed.

Verder vind ik het een beetje belachelijk dat er niet gewoon goedkope redundantie oplossingen zijn voor het MKB, of zoals dit soort kleinschalige hosting (want <50 gebruikers is toch nog kleinschalig).

  • StevenK
  • Registratie: Februari 2001
  • Laatst online: 22:31
Verwijderd schreef op dinsdag 26 december 2006 @ 14:32:
@StevenK, het is wel Windows 2003 Storage server, een voor mij nieuwe variant bedoeld voor dit soort taken. Ik verwacht dat de beheerkosten daar minimaal van blijven, daarbij hangt deze gewoon in het domein, dus zijn groepsrechten etc gewoon toe te kennen. Het is dan misschien een budget oplossing, maar ik zie er meer functionaliteit mee mogelijk dan bijvoorbeeld een SNAP server. Omdat de server een 1Gbit LAN kaart krijgt denk ik ook nog eens dat het beter performed.
Bij dat soort dingen moet je niet denken, maar meten. En dan zul je zien dat je eigenlijk nooit boven de 12,5 MB/s uit zult komen, omdat er veel meer beperkende faktoren in je netwerk zitten dan je denkt.
Verder vind ik het een beetje belachelijk dat er niet gewoon goedkope redundantie oplossingen zijn voor het MKB, of zoals dit soort kleinschalige hosting (want <50 gebruikers is toch nog kleinschalig).
Voor een MKB oplossing is de redundantie van een RAID oplossing met een goede backup over het algemeen al genoeg. Wanneer je echter uptime % moet gaan garanderen, dan wordt het een afweging tussen prijs en functionaliteit en dan snap je ook dat je voor het enterprise level van Microsoft meer moet betalen, juist vanwege die functionaliteit.

Maar je moet ook realistisch zijn en beseffen dat je op basis van Microsoft oplossingen geen cluster bouwt voor minder dan 25k.

[ Voor 4% gewijzigd door StevenK op 26-12-2006 14:44 ]

Was advocaat maar vindt het juridische nog steeds leuk. Doet tegenwoordig iets in de metaal.


  • Spectre75
  • Registratie: Januari 2006
  • Laatst online: 26-12-2024
DataGhost schreef op vrijdag 22 december 2006 @ 23:15:
[...]


Edit: Ohja, en wat Zwelgje hierboven zegt natuurlijk :) Elke machine heeft een eigen deel van het geheugen nodig, dat zal al een grote bottleneck zijn. Als je elke machine 256MB geheugen geeft kan je er met goed fatsoen niet meer dan 7 op draaien (met 2 GB geheugen), anders gaat je bak swappen als een gek. Gevolg: performance van ALLE machines zakt als een kaartenhuisje in elkaar, qua geheugen en qua disk I/O. Inderdaad niet iets wat je wilt.
Dit is niet waar, op ESX heb je zoaiets als shared memory (volgens mij een ESX only feature).
Dit zorgt ervoor dat alle mem pages die identiek zijn, maar 1x in het geheugen worden geladen.

Dit zorgt voor een zeer effiecient geheugen gebruik.

Bij voorbeeld:

Als er 10GB granted is wordt er dmv shared memory maar 2GB effectief gebruikt !!!!

  • DataGhost
  • Registratie: Augustus 2003
  • Laatst online: 27-03 10:10

DataGhost

iPL dev

Spectre75 schreef op dinsdag 26 december 2006 @ 16:05:
[...]


Dit is niet waar, op ESX heb je zoaiets als shared memory (volgens mij een ESX only feature).
Dit zorgt ervoor dat alle mem pages die identiek zijn, maar 1x in het geheugen worden geladen.

Dit zorgt voor een zeer effiecient geheugen gebruik.

Bij voorbeeld:

Als er 10GB granted is wordt er dmv shared memory maar 2GB effectief gebruikt !!!!
Maar ga eens uit van een worstcase scenario en je bak staat alsnog heel de dag te swappen :) Daar ging het me meer om. Als dit niet erg is is het simpel :) Maar volgens mij was ESX server ook iets te duur voor dit project, vandaar dat je zo'n gigantische overhead houdt bij virtualisatie.

  • Spectre75
  • Registratie: Januari 2006
  • Laatst online: 26-12-2024
En zie hier weer een reden om toch voor ESX te gaan :*)

  • JackBol
  • Registratie: Maart 2000
  • Niet online

JackBol

Security is not an option!

Okay, dit topic loopt echt nergens op uit.

TS, je moet je echt eens gaan beraden of jij hier verantwoordelijk voor wilt zijn met je huidige kennis niveau. No offence, maar een dienst leveren is meer dan ergens een doos neerhangen. Er komt veel meer bij kijken.

Je volgende reactie getuigt daar wel van:
Ik verwacht dat de beheerkosten daar minimaal van blijven
Punt 1 wat mis gaat: je wil % garanderen, terwijl je infrastructuur niet eens % garandeerd (nee, 95% is geen garantie. vanuit mijn huis kan ik een hogere uptime garanderen). Soit, punt 2: vervolgens wil je geen geld uitgeven (nee, 12k is geen geld). Je zal dus never-nooit niet een fatsoenlijke infrastructuur kunnen bouwen waar ik 99% op zou afgeven.

Begrijp me niet verkeerd, je kan voor 12k best een oplossing bouwen die zijn werk goed doet, maar je kan daar dus nooit een garantie op afgeven. Best Effort heeft vervolgens wel weer als voordeel dat er dus geen meter gaat tellen als je down gaat.

Begin eerst nu maar eens met het opstellen van een business case, want mijn gevoel zegt dat die er nooit is geweest (hoe kom je aan die 12k btw?). Waarom zou je een dienst gaan leveren die jou veel risico oplevert, terwijl de klant voor een duppie op de eerste rij zit? Zo werkt het niet in deze wereld.

Dus, eerst een business case in elkaar schroeven, dan oplossing bedenken.

Opbrengst van mijn Tibber Homevolt met externe kWh meter. | Opbrengst van mijn Tibber Homevolt volgens de Tibber Data API.

Pagina: 1