Laatste check nieuwe server

Pagina: 1
Acties:

  • robbietjuh
  • Registratie: Januari 2013
  • Laatst online: 02-02 17:27
Hey mede-Tweakers,

Op het moment hebben we hier een zwaar verouderde server staan die echt nodig aan vervanging toe is en dat willen we dan ook voor het einde van het jaar doen. We zijn de capaciteit van de huidige server compleet ontgroeit en gezien de hardware van de betreffende machine alweer 5 jaar oud wordt, ben ik van plan het volgende systeem als vervanging in elkaar te zetten.

#ProductPrijsSubtotaal
1Intel Xeon E3-1230 V3 Boxed€ 217,50€ 217,50
1ASRock Q87M vPro€ 98,40€ 98,40
2WD Blue WD10EZEX, 1TB€ 53,07€ 106,14
1WD Green SATA 6 Gb/s, 3TB€ 101,49€ 101,49
1Cooler Master N300 (Closed)€ 33,-€ 33,-
1ICIDU S-ATA Power Kabel€ 5,37€ 5,37
4Sharkoon SATA Kabel€ 1,80€ 7,20
1Corsair XMS3 CMX32GX3M4A1333C9€ 268,50€ 268,50
1Delock SATA-300 PCI Express Card, 2 Port€ 18,-€ 18,-
1Seasonic G-Serie 360Watt€ 54,30€ 54,30
Bekijk collectie
Importeer producten
Totaal€ 909,90


Op deze machine zal ESXi komen te draaien. Hij gaat ~10 VMs draaien die o.a. ZFS, firewall, Nagios monitoring, backups van client computers, Exchange, Active Directory, een redelijke hoeveelheid Django web apps, grote MySQL databases, media streaming, (interne) Git hosting, ticket- en projectmanagement en Continuous Integration zullen serveren. Twee vrienden willen daarnaast misschien ook nog 2 VMs 'huren' om een kleine gameserver op te draaien omdat ze daar zelf het geld niet voor hebben liggen en ik niet de beroerdste ben 8)

Met behulp van ZFS zullen de 2x 1TB schijven in RAID1 komen te draaien voor wat redundantie, zodat niet de hele boel uitvalt als er 1 schijf kapot gaat. Ook heb ik nog een extra 3TB WD Green schijf liggen die ik in deze machine ga gebruiken zodat er 6TB (RAID0) aan opslag beschikbaar is.

De goedkope SATA controller zal worden gebruikt voor de opstartschijf waar ESXi en de ZFS VM op komen te staan. Vanaf daar zal ZFS de datastore voor de VMs aanbieden in de vorm van de 2x 1TB schijven in RAID1. De schijf van de oude server zal ik gebruiken als opstartschijf aan de SATA controller. Deze extra SATA-controller is nodig omdat ESXi de schijven die op het mobo zullen hangen, niet zal zien: deze zal namelijk doorgegeven worden aan de ZFS VM met behulp van VT-d.

Ik ben geen DVD/CD brander/lezer nodig, dus vandaar dat deze mist in het lijstje.

Ik ben benieuwd of iemand nog suggesties voor betere of snellere hardware heeft, of misschien nog wat kleine euro'tjes van de totaalprijs af weet te schrapen :)

Alvast bedankt!

[ Voor 2% gewijzigd door robbietjuh op 29-11-2013 16:35 . Reden: Wishlist geupdate ]


  • Teun.
  • Registratie: Mei 2013
  • Niet online
Ik zie er geen probleme mee, maar ik zou voor een wat duurdere, effieciëntere en bovendie betrouwbare power supply gaan, bijv. de 360w seasonic gold: pricewatch: Seasonic G-Serie 360Watt

Eventueel kan het geheugen nog wat goedkoper. http://tweakers.net/categ...VJKhkbmZtZALXnJlbAebW1tQA

Een een z77 moederbord lijkt me overbodig. h77 ondersteund zover ik weet gewoon raid etc.
pricewatch: ASRock H77 Pro4-M

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 22:28

Zenix

BOE!

Eens met Teun als het gaat om de voeding.
pricewatch: Seasonic G-Serie 360Watt

Waarom trouwens geen Haswell? Heb je meer upgrade mogelijkheden in de toekomst.
pricewatch: Intel Xeon E3-1230 V3 Boxed
pricewatch: ASRock Q87M vPro Ik kies voor dit moederbord omdat het vpro heeft wat wel een mooie feature is. Tevens heeft dit bord een Intel onboard NIC.

Let wel op dat de Xeon geen interne GPU heeft, dus je hebt een aparte GPU nodig om beeld te krijgen.

[ Voor 4% gewijzigd door Zenix op 26-11-2013 20:08 ]


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 00:06
Ik zie dat je een flink aantal VM's wil zetten op een hardeschijf? Ik mis een ssd in dat rijtje. ;)

  • Teun.
  • Registratie: Mei 2013
  • Niet online
GioStyle schreef op dinsdag 26 november 2013 @ 20:10:
Ik zie dat je een flink aantal VM's wil zetten op een hardeschijf? Ik mis een ssd in dat rijtje. ;)
RAID0.

En inderdaad, haswell lijkt me wel slim; maar het maakt opzich niet heel veel uit kwa prestaties.

  • robbietjuh
  • Registratie: Januari 2013
  • Laatst online: 02-02 17:27
Bedankt voor de feedback jongens, daar kan ik wat mee :)
Teun. schreef op dinsdag 26 november 2013 @ 19:56:
Ik zie er geen probleme mee, maar ik zou voor een wat duurdere, effieciëntere en bovendie betrouwbare power supply gaan, bijv. de 360w seasonic gold: pricewatch: Seasonic G-Serie 360Watt

Eventueel kan het geheugen nog wat goedkoper. http://tweakers.net/categ...VJKhkbmZtZALXnJlbAebW1tQA

Een een z77 moederbord lijkt me overbodig. h77 ondersteund zover ik weet gewoon raid etc.
pricewatch: ASRock H77 Pro4-M
Ik zat ook al te twijfelen over die voeding inderdaad, de pricewatch: Seasonic G-Serie 360Watt lijkt mij inderdaad dan ook een betere keus. Ik ga het aanpassen :)

Het geheugen kan inderdaad wat goedkoper door gebruik te maken van 2 bankjes van 16GB in plaats van 4 bankjes van 8GB. Ik ga er nog even naar kijken, bedankt!

Wat betreft het mobo zit je ook goed, eigenlijk heeft dat verder geen meerwaarde. De raid functionaliteit op het mobo is faik-raid, dus daar zal ik geen gebruik van (kunnen) maken, wordt namelijk niet ondersteund door ESXi. Vandaar de ZFS VM, softwarematige raid dus.
Zenix schreef op dinsdag 26 november 2013 @ 20:04:
Waarom trouwens geen Haswell? Heb je meer upgrade mogelijkheden in de toekomst.
pricewatch: Intel Xeon E3-1230 V3 Boxed
pricewatch: ASRock Q87M vPro Ik kies voor dit moederbord omdat het vpro heeft wat wel een mooie feature is. Tevens heeft dit bord een Intel onboard NIC.

Let wel op dat de Xeon geen interne GPU heeft, dus je hebt een aparte GPU nodig om beeld te krijgen.
Ik heb geen Haswell gekozen omdat deze iets prijziger is, in de korte en lange termijn. Het stroomverbruik ligt wat hoger (lange termijn) en het CPU'tje zelf is ook iets duurder (korte termijn, nou is dat laatste natuurlijk eigenlijk geen probleem, slechts 20 euro, maar hey, het viel me op :X). Verder heb je volgens mij niet veel performance verbeteringen met de Haswell versie en weet ik bijna zeker dat ik de CPU niet zal gaan upgraden in de toekomst, vandaar eigenlijk een beetje de keuze.

De Intel onboard NIC is natuurlijk een plus, maar ik ben geen vPro nodig. Daar zul je me dus nog even van moeten overtuigen :p

Ik ben er van op de hoogte dat de Xeon geen interne GPU heeft, dat is een van de redenen dat ik voor de Xeon ben gegaan in plaats van een Core. Ik heb hier nog wel een GPU liggen die ik er in gooi voor de installatie, voor de rest zal ik er toch geen scherm aan hangen, en mocht dat wel nodig zijn ligt er altijd wel een GPU ergens stof te vangen 8)7
GioStyle schreef op dinsdag 26 november 2013 @ 20:10:
Ik zie dat je een flink aantal VM's wil zetten op een hardeschijf? Ik mis een ssd in dat rijtje. ;)
Klopt! Ik heb dat inderdaad nog overwogen, vooral ook met het oog op Exchange en de databases gezien dat natuurlijk lekker veel I/O vraagt, maar ik denk dat RAID in deze wel volstaat. Het verhoogt de snelheid, nog lang niet tot de snelheid van een SSD natuurlijk, en tegelijkertijd de redundantie (niet alles is meteen down bij het uitvallen van 1 disk). Als ik er twee SSDs in zou willen zetten met genoeg opslagcapaciteit beginnen de prijzen toch wel een beetje omhoog te schieten dus ik ben voor nu eigenlijk wel tevreden met 2 hardeschijven in RAID. In de toekomst kan ik daar altijd nog wat SSDs in zetten natuurlijk.

Any thoughts verder? :)

[ Voor 3% gewijzigd door robbietjuh op 28-11-2013 15:48 ]


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 00:06
Hyper-V (Core) als host draaien? Dan hoef je ook geen extra SATA-controller aan te schaffen, scheelt je 20 euro. ;)

  • robbietjuh
  • Registratie: Januari 2013
  • Laatst online: 02-02 17:27
Ook daar heb ik over nagedacht, maar ESXi is me toch wat bekender :) Tevens biedt ZFS natuurlijk ook nog wel wat andere voordelen buiten het RAID om, wat Hyper-V niet zal bieden (mits je Hyper-V wil gebruiken om het fakeraid werkend te krijgen in de plaats van de ZFS VM) en daar wil ik dan best die 20 euro voor neerleggen.

  • mkroes
  • Registratie: Oktober 2010
  • Laatst online: 27-02 14:02
ZFS is ook prima te combineren met Hyper-V. Ik heb hier Ubuntu 12.04 met ZFS on Linux draaien. Werkt perfect. Laat dat niet de reden wezen om Hyper-V af te wijzen.
Gewoon even kijken wat voor vm's je voornamelijk gaat draaien met welk OS en kijken welke deze beter ondersteund. Hyper-V of ESXi.

  • sjaak
  • Registratie: Maart 2000
  • Laatst online: 17:01

sjaak

un giorno credi

robbietjuh schreef op dinsdag 26 november 2013 @ 21:35:
Klopt! Ik heb dat inderdaad nog overwogen, vooral ook met het oog op Exchange en de databases gezien dat natuurlijk lekker veel I/O vraagt, maar ik denk dat RAID in deze wel volstaat. Het verhoogt de snelheid, nog lang niet tot de snelheid van een SSD natuurlijk, en tegelijkertijd de redundantie (niet alles is meteen down bij het uitvallen van 1 disk). Als ik er twee SSDs in zou willen zetten met genoeg opslagcapaciteit beginnen de prijzen toch wel een beetje omhoog te schieten dus ik ben voor nu eigenlijk wel tevreden met 2 hardeschijven in RAID. In de toekomst kan ik daar altijd nog wat SSDs in zetten natuurlijk.
Voor Exchange heb je, afhankelijk van de versie die je in gaat zetten, geen SSD nodig. Één van de van de sterke punten van Exchange 2013 is dat er meer cache wordt gebruikt waardoor je minder IOPS nodig hebt, 2007 - 2010 was al een verbetering van 70% en van 2010 naar 2013 nog eens 50% geloof ik. Zie ook http://technet.microsoft....e832792(v=exchg.150).aspx voor wat adviezen mbt disken.

Voor de OS schijven zou ik wel een SSD (op den duur) inzetten, zelfs ten op zichte van RAID is het zo'n grote verbetering!

  • robbietjuh
  • Registratie: Januari 2013
  • Laatst online: 02-02 17:27
mkroes schreef op woensdag 27 november 2013 @ 06:33:
ZFS is ook prima te combineren met Hyper-V. Ik heb hier Ubuntu 12.04 met ZFS on Linux draaien. Werkt perfect. Laat dat niet de reden wezen om Hyper-V af te wijzen.
Gewoon even kijken wat voor vm's je voornamelijk gaat draaien met welk OS en kijken welke deze beter ondersteund. Hyper-V of ESXi.
Uiteraard, ik antwoordde met de veronderstelling dat er bedoeld werd Hyper-V te draaien puur om FakeRAID te kunnen gebruiken. Het draaien van een ZFS guest is natuurlijk ook gewoon mogelijk op Hyper-V, dat wilde ik niet uitsluiten :)
sjaak schreef op woensdag 27 november 2013 @ 07:06:
[...]

Voor Exchange heb je, afhankelijk van de versie die je in gaat zetten, geen SSD nodig. Één van de van de sterke punten van Exchange 2013 is dat er meer cache wordt gebruikt waardoor je minder IOPS nodig hebt, 2007 - 2010 was al een verbetering van 70% en van 2010 naar 2013 nog eens 50% geloof ik. Zie ook http://technet.microsoft....e832792(v=exchg.150).aspx voor wat adviezen mbt disken.

Voor de OS schijven zou ik wel een SSD (op den duur) inzetten, zelfs ten op zichte van RAID is het zo'n grote verbetering!
Dat is zeker weten iets dat ik in de toekomst ga doen. Ik wist trouwens nog niet dat er zo veel vooruitgang geboekt was met de nieuwe exchange versies. Interessant om te weten! Ik ga Exchange 2013 draaien :)

[ Voor 3% gewijzigd door robbietjuh op 28-11-2013 15:47 ]


  • kroegtijger
  • Registratie: Juli 2001
  • Laatst online: 16:41
Of dit zal volstaan is natuurlijk volledig afhankelijk van hoe zwaar je deze omgeving gaat belasten. Betreft het een hobby-thuis-servertje, dan kan je hier in principe wel mee uit de voeten. Betreft het een zakelijke (productie)omgeving met pakweg meer dan 10 users, dan zou ik heel erg ver bij deze configuratie weg blijven en naar een "echte" leverancier stappen zoals Dell, HP of IBM

iRacing Profiel


  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 22:28

Zenix

BOE!

robbietjuh schreef op dinsdag 26 november 2013 @ 21:35:
Bedankt voor de feedback jongens, daar kan ik wat mee :)

Ik heb geen Haswell gekozen omdat deze iets prijziger is, in de korte en lange termijn. Het stroomverbruik ligt wat hoger (lange termijn) en het CPU'tje zelf is ook iets duurder (korte termijn, nou is dat laatste natuurlijk eigenlijk geen probleem, slechts 20 euro, maar hey, het viel me op :X). Verder heb je volgens mij niet veel performance verbeteringen met de Haswell versie en weet ik bijna zeker dat ik de CPU niet zal gaan upgraden in de toekomst, vandaar eigenlijk een beetje de keuze.

De Intel onboard NIC is natuurlijk een plus, maar ik ben geen vPro nodig. Daar zul je me dus nog even van moeten overtuigen :p
De haswell is idle zuiniger daarom zou ik voor die kiezen, server is vaak idle. Load scheelt het amper wat.
http://www.tomshardware.c...-haswell-cpu,3590-12.html

vPro heeft ook AMT http://www.intel.com/cont...anagement-technology.html Dus dan heb je ook KVM. Als er nu iets mis gaat met je server zonder GPU, moet je hem eerst uitzetten los maken GPU erin doen, terwijl je met AMT gewoon kan kijken.

Let ook op dat de Realtek NIC's sinds ESXI 5.5 niet meer ondersteund worden en dat je dus driver moet toevoegen aan de ESXi installatie. De Intel zal waarschijnlijk gelijk werken.

  • robbietjuh
  • Registratie: Januari 2013
  • Laatst online: 02-02 17:27
Oeehhh, AMT! Tof, je hebt me over :)

Ik wist van de Realtek problemen af, bij sommige mensen werkte het meteen, bij sommige ook niet. Intel netwerkkaarten werken altijd met ESXi, dus dat is altijd een pluspuntje, maar er waren ook erg veel 'fixes' om de Realtek te laten werken.

Ik dacht dat de V3 iets meer energie verbruikte, maar ik zie inderdaad dat er idle toch wel een groot verschil is. Daar leg ik graag even wat geld bij dan. Heel erg bedankt!

Zal het lijstje bijwerken. Any thoughts nog?

  • slb
  • Registratie: Augustus 2000
  • Laatst online: 19:51

slb

Bwoah......

Nou ik heb er nog wel wat.
Ik weet niet hoe kritisch de data is, maar zou toch overwegen om voor ECC geheugen te gaann. Zeker wanneer je ZFS draait.

Misschien een mobo van SuperMicro? Bijvoorbeeld deze pricewatch: Supermicro X10SLH-F
of deze pricewatch: Supermicro X10SAE-O

Het eerste model is er een uit de "7 years life"-reeks. Het tweede heeft 8 SATA poorten (6x via PCH en 2x via ASMedia controller)
Die bordjes zijn gebouwd om 24/7 te draaien.

prompt $p $g


  • Trommelrem
  • Registratie: Februari 2009
  • Laatst online: 09-11-2021
Dit is leuk voor een thuisomgeving die je 's nachts uit zet. Voor een zakelijke omgeving zou ik hier heel ver weg van blijven.

[ Voor 11% gewijzigd door Trommelrem op 29-11-2013 22:14 ]


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 00:06
slb schreef op vrijdag 29 november 2013 @ 22:04:
Nou ik heb er nog wel wat.
Ik weet niet hoe kritisch de data is, maar zou toch overwegen om voor ECC geheugen te gaann. Zeker wanneer je ZFS draait.
ECC geheugen kan je beter pas gebruiken als ALLE pc's in je netwerk gebruiken maken van ECC geheugen anders heeft het niet zoveel nut, dan kan je kritische data al corrupt zijn voordat het op de server komt. ;)

  • slb
  • Registratie: Augustus 2000
  • Laatst online: 19:51

slb

Bwoah......

GioStyle schreef op vrijdag 29 november 2013 @ 22:55:
[...]


ECC geheugen kan je beter pas gebruiken als ALLE pc's in je netwerk gebruiken maken van ECC geheugen anders heeft het niet zoveel nut, dan kan je kritische data al corrupt zijn voordat het op de server komt. ;)
Wat een drogreden! Je vergeet blijkbaar dat ZFS veel in RAM leest/schrijft.
Het heeft geen zin om deze discussie opnieuw te voeren.
... If you aren't detail oriented and don't want to understand what is going on deep level in ZFS, then just go with ECC RAM. For those of you that want to understand just how destructive non-ECC RAM can be, keep reading. Remember, ZFS itself functions entirely inside of system RAM. Normally your hardware RAID controller would do the same function as the ZFS code. And every hardware RAID controller you've ever used that has a cache has ECC cache. The simple reason: they know how important it is to not have a few bits that get stuck from trashing your entire array. The hardware RAID controller(just like ZFS) absolutely NEEDS to trust that the data in RAM is correct.

...
Lees verder...
Conclusie: ZFS gebruiken? Dan ook voor ECC-geheugen kiezen!

prompt $p $g


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 00:06
Hoezo drogreden? Als je 10 cliënts hebt en 1 zfs server waarvan alleen je server ECC geheugen heeft, en je 10 cliënts schrijven dagelijks data naar je server, dan kan je wel fijn ECC geheugen hebben op je server, maar dan kan je kritische data allang corrupt zijn voordat het überhaupt op je server is beland.

  • Joenino
  • Registratie: November 2011
  • Laatst online: 20:26
Ben ik dan de enige die 32 GB erg weinig vindt voor 10 vm's waaronder een Exchange en diverse Database servers die elk stuk voor stuk wel een sloot geheugen fijn vinden. En die dedicated gameservers zullen ook wel wat lusten.

Verder een enkele quadcore met zoveel vm's? Je heb dus geen eisen aan performance zie ik?

Ook maar 1 enkele NIC waar je zoveel data door gaat pompen? Wordt ook erg krap aan vooral nagios en je andere monitoringstool zullen flink wat bandbreedte weghalen en dan komen je database verzoeken, exchange mails etc etc er nog doorheen. 1GB ethernet klinkt leuk maar hou er rekening mee dat er op een echte server vaak 2 poorten zitten waar je ze bundelt of loadbalanced zodat niet alle traffic door 1 poort heen gaat, dit wordt erg lastig in jouw geval. Of heb ik iets gemist in je setup en komt er nog een insteek netwerkkaart in?

Ik zou eerder een echte server gaan kopen bij een Dell of HP zoals eerder al is aangegeven door kroegtijger. Want denk dat je met jouw samen gestelde "server"een kat in de zak zal gaan kopen betreffende performance.

Lian Li OI11 - Ryzen 9 5900x - 32GB DDR 4 - RX9070XT


  • Damic
  • Registratie: September 2003
  • Laatst online: 01:23

Damic

Tijd voor Jasmijn thee

Wat heb je eigenlijk nu staan?

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


  • kroegtijger
  • Registratie: Juli 2001
  • Laatst online: 16:41
GioStyle schreef op maandag 02 december 2013 @ 10:14:
Hoezo drogreden? Als je 10 cliënts hebt en 1 zfs server waarvan alleen je server ECC geheugen heeft, en je 10 cliënts schrijven dagelijks data naar je server, dan kan je wel fijn ECC geheugen hebben op je server, maar dan kan je kritische data allang corrupt zijn voordat het überhaupt op je server is beland.
Met 10 clients zou ik nooit aan een dergelijk knutselprojectje beginnen, maar een echte server in huis halen. 10 man die stil zitten kost dermate veel dat je het risico er niet voor kan lopen lijkt me.
Joenino schreef op maandag 02 december 2013 @ 12:27:
Ben ik dan de enige die 32 GB erg weinig vindt voor 10 vm's waaronder een Exchange en diverse Database servers die elk stuk voor stuk wel een sloot geheugen fijn vinden. En die dedicated gameservers zullen ook wel wat lusten.
Uiteraard afhankelijk van wat er precies mee gedaan gaat worden. Ik heb zelf voor test-doeleinden een Exchange 2013 op server 2012 draaien met 4GB en 2 cores, en dat loopt prima voor 2 users. Hang je er 10 users aan die intensief gebruik maken hiervan met gebruik van veel mail-verkeer, agenda's delen etc, dan wordt het waarschijnlijk een heel ander verhaal..
Hetzelfde geldt voor een database-server. Betreft het een MySQL op Linux, dan heb je aanzienlijk minder resources nodig dan voor een MS SQL op Windows. Webservers hebben over het algemeen ook niet zulke extreme eisen.
Aan de andere kant gebruiken we op mn werk tot 128GB in een ESX-host, maar dan praat je ook over heel andere omgevingen. Zonder wat meer achtergrond-informatie is het dus erg lastig om daar wat zinnigs over te zeggen, maar ik zou zeker voor hardware kiezen waarbij de ruimte tot upgrade open blijft (dus een bord kiezen dat toch minimaal tot 64GB ondersteund).
Verder een enkele quadcore met zoveel vm's? Je heb dus geen eisen aan performance zie ik?
Ook hier zou dat best wel weer kunnen, maar inderdaad met (heel) magere performance, en zeker bij de game-server(s)
Ook maar 1 enkele NIC waar je zoveel data door gaat pompen? Wordt ook erg krap aan vooral nagios en je andere monitoringstool zullen flink wat bandbreedte weghalen
1 NIC kan meer dan genoeg zijn, mits je traffic allemaal van VM naar VM gaat. Ik neem dan ook aan dat Nagios gewoon als virtual appliance zal worden toegepast. Daarbij zou je dan ook over een switch moeten beschikken die loadbalancing op de NIC's support, en, indien het om externe traffic gaat, er een router achter staat die voldoende sessies aan kan. Monitoring over het netwerk zoals bijvoorbeeld met Nagios of Whatsup Gold resulteert in niet echt hoog bandbreedte-verbruik, maar vaak wel in een enorm hoog aantal sessies. De meeste routers (en zeker de huis-tuin-en-keuken-routers) gaan daarop over hun nek. De CPU van deze devices trekt het dan simpelweg niet meer. Valt wel een oplossing voor te vinden, maar wel iets om rekening mee te houden (en dan ga ik er voor het gemak vanuit dat de WAN-connectie wel voldoende bandbreedte bied om alles enigszins op redelijke snelheid af te handelen)
en dan komen je database verzoeken, exchange mails etc etc er nog doorheen. 1GB ethernet klinkt leuk maar hou er rekening mee dat er op een echte server vaak 2 poorten zitten waar je ze bundelt of loadbalanced zodat niet alle traffic door 1 poort heen gaat, dit wordt erg lastig in jouw geval. Of heb ik iets gemist in je setup en komt er nog een insteek netwerkkaart in?
Dit wordt meestal gedaan met het oog op bedrijfszekerheid, en niet zozeer op bandbreedte. Dit omdat je storage eerder een bottleneck vormt dan je bandbreedte. Pas als je de storage naar een iSCSI-omgeving gaat brengen wordt het echt interessant, omdat je dan echt alle data eroverheen moet proppen. Ook dan geldt natuurlijk weer dat je hardware daarvoor dus wel weer up-to-specs moet zijn en de controller in je SAN of NAS dit wel allemaal aan moet kunnen. En ook dan zijn de devices gericht op thuis-gebruik vaak te kort, en kom je al snel uit bij MSA’s (HP StorageWorks) of MD’s (Dell).
Ik zou eerder een echte server gaan kopen bij een Dell of HP zoals eerder al is aangegeven door kroegtijger. Want denk dat je met jouw samen gestelde "server"een kat in de zak zal gaan kopen betreffende performance.
Zeker voor een zakelijke omgeving. Voor thuis-spelerij is het natuurlijk leuker om het allemaal zelf samen te stellen, maar bedenk wel dat je dan altijd wel wat beheer-werk eraan hebt, vaak niet de performance haalt die je zou willen halen, en down-time geen uitzondering blijkt.

iRacing Profiel


  • Ultimation
  • Registratie: Februari 2010
  • Laatst online: 26-12-2025

Ultimation

Het is als Appels en peren

Voor een professionele omgeving zou ik liever naar iets als dit kijken: http://www8.hp.com/nl/nl/...html?oid=5449490#!tab=oas

En dan zelf voorzien van de hoeveelheid geheugen, bijvoorbeeld 32/64/128Gb.

MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]


  • kroegtijger
  • Registratie: Juli 2001
  • Laatst online: 16:41
Ultimation schreef op maandag 02 december 2013 @ 13:45:
Voor een professionele omgeving zou ik liever naar iets als dit kijken: http://www8.hp.com/nl/nl/...html?oid=5449490#!tab=oas

En dan zelf voorzien van de hoeveelheid geheugen, bijvoorbeeld 32/64/128Gb.
Dat is wel erg optimistisch om nu al zo'n specifieke een afweging in hardware te kunnen maken natuurlijk. Voor een professionele omgeving zou ik eens een telefoontje naar HP en naar Dell er tegenaan gooien en ze je laten adviseren. Je zou zelfs nog, afhankelijk van hoe de bedrijfsomgeving in elkaar steekt, en hoe belangrijk up-time is, de boel ofwel erg redundant uit kunnen voeren op 1 server (dus 2 voedingen, Raid6 of Raid10, 2 NIC's etc) maar ik zou dan de voorkeur geven bij bedrijfs-kritieke omgevingen aan 2 servers met een iSCSI-based SAN en VMWare 5-omgeving (uiteraard dan weer met bij voorkeur licenties voor HA en VMotion). Daarmee ben je redelijk gegarandeerd dat je omgeving blijft draaien. Vergeet dan niet om de stroomvoorziening wel op orde te brengen met een UPS, anders ligt alles nog steeds in no-time plat

iRacing Profiel


  • Jazzy
  • Registratie: Juni 2000
  • Laatst online: 23:13

Jazzy

Moderator SSC/PB

Moooooh!

Het geheugen is inderdaad wat te weinig en met 10 VM's ga je qua IOPs niet blij worden van 2 SATA disks in mirror. Dus extra schijven, meer geheugen en zelfbouw hoort inderdaad niet in een professionele omgeving.

Maar mijn ervaring is dat dat laatste advies op GoT doorgaans aan dovemansoren gericht is.

Exchange en Office 365 specialist. Mijn blog.


  • Freezerator
  • Registratie: Januari 2000
  • Laatst online: 21:28
Wat ik nogsteeds mis in het verhaal hoeveel mensen gebruik gaan maken van de setup? Want als het puur voor thuis is en allemaal voor je alleen dan kom je wel uit, maar met meerdere mensen kom je echt in de knoop met je IOPS. Nu haal je max circa 120 IOPS, nou dat is niet veel als je veel gelijktijdig wil doen.

  • Joenino
  • Registratie: November 2011
  • Laatst online: 20:26
kroegtijger schreef op maandag 02 december 2013 @ 13:51:
[...]

Dat is wel erg optimistisch om nu al zo'n specifieke een afweging in hardware te kunnen maken natuurlijk. Voor een professionele omgeving zou ik eens een telefoontje naar HP en naar Dell er tegenaan gooien en ze je laten adviseren. Je zou zelfs nog, afhankelijk van hoe de bedrijfsomgeving in elkaar steekt, en hoe belangrijk up-time is, de boel ofwel erg redundant uit kunnen voeren op 1 server (dus 2 voedingen, Raid6 of Raid10, 2 NIC's etc) maar ik zou dan de voorkeur geven bij bedrijfs-kritieke omgevingen aan 2 servers met een iSCSI-based SAN en VMWare 5-omgeving (uiteraard dan weer met bij voorkeur licenties voor HA en VMotion). Daarmee ben je redelijk gegarandeerd dat je omgeving blijft draaien. Vergeet dan niet om de stroomvoorziening wel op orde te brengen met een UPS, anders ligt alles nog steeds in no-time plat
Aan HA en Vmotion had ik nog niet eens gedacht aangezien de topicstarter het maar over 1 server heeft. Maar mocht het zakelijk zijn dan is minimaal 2 voor een HA/vmotion paar zeker aan te raden. Zelf hebben we op mijn werk 4 esxi 5.1 hosts (kan nog niet naar 5.5 tot onze primaire storage van MSA p2000g3 naar een netapp fas2240 is gebracht zodat mijn backup software niet geüpgrade hoeft te worden) en dan is het zeker fijn dat je gewoon alles even on the fly kan migreren als je onderhoud moet doen of de resources kan verdelen over 2 of meer hosts.

Laten we eerst maar eens afwachten wat de topicstarter te zeggen heeft over hoeveel man er überhaupt gebruik gaat maken van de omgeving voordat we straks verkeerde aannamen gaan doen en een totaal verkeerd advies geven.

Lian Li OI11 - Ryzen 9 5900x - 32GB DDR 4 - RX9070XT


  • kroegtijger
  • Registratie: Juli 2001
  • Laatst online: 16:41
Freezerator schreef op maandag 02 december 2013 @ 13:56:
Wat ik nogsteeds mis in het verhaal hoeveel mensen gebruik gaan maken van de setup? Want als het puur voor thuis is en allemaal voor je alleen dan kom je wel uit, maar met meerdere mensen kom je echt in de knoop met je IOPS. Nu haal je max circa 120 IOPS, nou dat is niet veel als je veel gelijktijdig wil doen.
Helemaal mee eens inderdaad. Om een gegrond advies te kunnen geven zullen we echt moeten weten hoe de omgeving in elkaar steekt, hoe kritisch welke toepassing precies is etc. Het is nu compleet koffiedik kijken.
Hardware zou eigenlijk een sluitstuk in je besluitvorming moeten zijn, en niet waarmee je begint. Zolang we het doel niet kennen valt er geen hardware te adviseren om dat doel te bereiken natuurlijk.

iRacing Profiel


  • robbietjuh
  • Registratie: Januari 2013
  • Laatst online: 02-02 17:27
Wowo, wat een replies in een keer, dat had ik niet verwacht :P Laat ik iedereen dan meteen even gerust stellen wat betreft het hele 'zakelijke' gedeelte: het is niet voor een bedrijf oid, het ding komt hier gewoon thuis te staan, anders was het feit dat ik hier nog even navraag sowieso al genoeg om te laten zien dat ik dit helemaal niet zou moeten bestellen - als je in een business environment dit niet zeker weet denk ik sowieso dat je het beter aan een ander over kan laten. Omdat dit gewoon thuis komt te staan leek het me nog wel even verstandig na te vragen, just in case.

Nagios zal een virtual appliance zijn om de rest van de VMs te monitoren. Het kan altijd gebeuren dat iets zomaar down gaat of een hickup heeft en dan heb ik daar graag meteen een melding van.

Exchange wordt door 4 gebruikers intensief gebruikt met een totaal van ongeveer 10 users (waarvan dus ongeveer 6 zo nu en dan eens in zullen loggen maar alles behalve intensief gebruik zullen eisen).

Er zal een redelijke hoeveelheid Django apps op komen te draaien, o.a. voor development en twee die intensief 'intern' zullen worden gebruikt (invoersysteem en inventarisatiesysteem, erg lang verhaal :P). Dit zal gekoppeld worden aan de database waardoor die aardig groot kan worden en op drukke momenten een redelijke hoeveelheid traffic kan verwachten, maar dit zal over het algemeen allemaal binnen het netwerk blijven (vandaar dat 1Gbit NIC hier ook voldoende is).

Het media streaming gedeelte is ook niet zo heel veel speciaals verder. Hier in huis zal het gebruikt worden voor streamen van tv-shows e.d., gewoon naar XBMC. Er zal verder zo nu en dan eens een verbinding naar buiten gelegd worden omdat vrienden ook een account hebben voor dit streaming gedeelte, die kunnen dan gewoon inloggen op hun eigen account en hun eigen media streamen. Op die manier hoeven al die shows maar 1x opgeslagen te worden en tevens maar 1x gedownload te worden, of misschien zelfs helemaal niet als iemand anders dat al eens heeft gedaan en de bestanden dus al aanwezig zijn. Dit streamen naar buiten zal echter niet vaak gebeuren en dat twee mensen tegelijk zitten te streamen zal een erg kleine kans zijn.

Git projecten zal ik ook op de server hosten, die dan meteen in verbinding met JIRA en Bamboo (CI) staan zodat ze meteen naar de development omgeving deployed worden, falende tests meteen terug worden gekoppeld aan JIRA, etc.. Ideaal :)

Twee vrienden willen daarnaast nog een kleine gameserver 'huren'. Dit gaat niet om zware games oid, gaat gewoon om twee kleine Minecraft servers met max. 10 spelers, dat is verder totaal geen probleem.

Ik zag ook nog een post waar iemand in vroeg wat er nu draait. Zet je schrap want het is erg oude hardware en de VMs die ik wil draaien, draaien daar nu ook niet op (daar zijn de resources immers niet voor aanwezig: Nagios, een deel van de Django sites, een MySQL database en de Exchange server draaien hier nu alleen op. De rest draait tot mijn frustratie op mijn eigen computer en de opslag van series staat op een NAS, ik wil dat gewoon allemaal centraal verplaatsen naar de server):

#ProductPrijsSubtotaal
1Intel Pentium Dual-Core E5300 Boxed€ 0,-€ 0,-
1Hitachi Travelstar Z5K320, 320GB€ 39,62€ 39,62
18GB RAM, Corsair--

  • kroegtijger
  • Registratie: Juli 2001
  • Laatst online: 16:41
Schattig dat de HDD nog in de pricewatch vermeldt wordt :')
Gegeven het doel van je omgeving zou ik dan voornamelijk rekening houden met de mogelijkheid tot uitbreiden. Het begint altijd met "zoveel heb ik niet nodig" en eindigt vervolgens met een compleet nieuwe build omdat er geen upgrade-ruimte meer was :')

De meeste tekorten zal je in disk-space en geheugen gaan kennen, en in de snelheid van je storage. Ik zou mede daarom eerder kiezen voor 3x3TB in Raid5, zodat je wat meer performance in je VM's zal hebben en ook je data redelijk beschermt is. Daarbij is de verwachting dat een 3TB disk nog wel wat langer verkrijgbaar is dan een 1TB-disk, én gebruik je 1 disk minder, wat naast stroomverbruik en geluidsproductie ook ruimte voor upgrade over laat. Daarnaast zijn 3TB-disk in prijs per GB gunstiger dan 1TB-disks. Wel zou ik voor 7200RPM's kiezen. Deze zijn weliswaar iets minder zuinig en maken iets meer geluid, maar de performance ervan ligt dermate veel hoger dat het 't weer waard is naar mijn mening.

Ik heb nog even nagezocht, maar kan geen enkel mobo helaas vinden dat op socket 1150 meer dan 32GB geheugen ondersteund. Hierin uitbreiden is dus met dit systeem geen optie!

Verder lijkt het systeem dan wel redelijk te kloppen. Het zal er allemaal wel op gaan werken verwacht ik.

iRacing Profiel


  • Jazzy
  • Registratie: Juni 2000
  • Laatst online: 23:13

Jazzy

Moderator SSC/PB

Moooooh!

RAID5 is nou niet direct de beste methode om betere perfromance te krijgen, het is zelfs nog slechter dan de RAID1 die tot nu toe het plan was. Ik zou aanraden om 4 disks in RAID10 te zetten, dan heb je redundancy en performance.

Exchange en Office 365 specialist. Mijn blog.


  • kroegtijger
  • Registratie: Juli 2001
  • Laatst online: 16:41
Jazzy schreef op dinsdag 03 december 2013 @ 08:35:
RAID5 is nou niet direct de beste methode om betere perfromance te krijgen, het is zelfs nog slechter dan de RAID1 die tot nu toe het plan was. Ik zou aanraden om 4 disks in RAID10 te zetten, dan heb je redundancy en performance.
Raid5 (uitgaande van een goede controller) is in principe sneller dan een stand-alone disk of een Raid1. Zeker naarmate het aantal disks toeneemt.
Tuurlijk is raid10 nog beter, maar dan heb je 4 disks nodig. Gegeven de situatie zou ik geen 4 connecties willen opgeven, tenzij je naar grotere disks zou stappen, omdat je anders niet meer kan uitbreiden.

iRacing Profiel


  • Jazzy
  • Registratie: Juni 2000
  • Laatst online: 23:13

Jazzy

Moderator SSC/PB

Moooooh!

Huh? RAID5 is veel langzamer met schrijven omdat bij iedere schrijfactie ook de parity berekend en weggeschreven moet worden. En als je een recovery moet doen dan wordt ook lezen heel erg traag. Bij RAID 10 is schrijven en lezen sneller en van recovery merk je helemaal niets.

Ik denk dat RAID5 vooral iets van vroeger is toen schijven nog klein en duur waren. Als RAID 10 dan te duur was kon je terugvallen op RAID5: uitval van 1 disk mogelijk en toch nog aardig wat netto opslagcapaciteit over. Maar wat kost een 2TB schijf tegenwoordig, 75 euro? Dan zou ik het wel weten, lekker een paar van die dingen in RAID10 voor performance en redundancy zonder de nadelen van RAID5.

Exchange en Office 365 specialist. Mijn blog.


  • kroegtijger
  • Registratie: Juli 2001
  • Laatst online: 16:41
Jazzy schreef op dinsdag 03 december 2013 @ 09:53:
Huh? RAID5 is veel langzamer met schrijven omdat bij iedere schrijfactie ook de parity berekend en weggeschreven moet worden.
Dat is dus ook precies de reden waarom een goede controller van groot belang is bij een Raid5. Bij Raid1 en Raid0 is dat veel minder van toepassing, omdat de bewerking daar relatief eenvoudig is. Met een goede controller (en in dit geval wordt de CPU daarvoor gebruikt, dus meer dan genoeg rekenkracht) wordt raid5 naarmate het aantal disks toeneemt alleen maar sneller, aangezien je over de schijven nog steeds tegelijkertijd wegschrijft en leest.
En als je een recovery moet doen dan wordt ook lezen heel erg traag. Bij RAID 10 is schrijven en lezen sneller en van recovery merk je helemaal niets.
Dat striping / mirroring sneller is klopt ja. Maar dat betekend dus dat je ofwel 4x 1TB, ofwel 4x 3TB zou moeten gaan doen. 4x 1TB geeft imho een tekort aan ruimte (zeker als je daardoor ook weinig ruimte over houdt om te upgraden) en 4x 3TB geeft waarschijnlijk een te hoge investering ten opzichte van het rendement. Immers, 50% van je diskspace kan je niet gebruiken. Daarmee wordt Raid10 voor thuis-gebruik imho niet interessant.
Ik denk dat RAID5 vooral iets van vroeger is toen schijven nog klein en duur waren. Als RAID 10 dan te duur was kon je terugvallen op RAID5: uitval van 1 disk mogelijk en toch nog aardig wat netto opslagcapaciteit over. Maar wat kost een 2TB schijf tegenwoordig, 75 euro? Dan zou ik het wel weten, lekker een paar van die dingen in RAID10 voor performance en redundancy zonder de nadelen van RAID5.
Raid5 wordt nog steeds wel toegepast, maar niet zo heel veel meer. Meestal ga je dan naar Raid6 toe, of naar Raid50. De voornaamste gedachte hierachter is niet performance, maar Raid5 wordt voor zakelijke toepassingen niet betrouwbaar genoeg gevonden. Immers, 1 disk stuk kan je hebben, maar een 2e disk niet, en het blijkt dat disks vaak vlak na elkaar stuk gaan. (immers, meestal hebben ze dezelfde aankoop-datum en zelfde aantal draai-uren, dus het valt dan ook te verwachten). Zelfs een Raid5-set met Hotspare wordt niet meer als betrouwbaar gezien.
Die 75,- moet je voor het gemak dus wel even x4 doen, wat dus op 300,- neerkomt voor effectief 4TB storage-capaciteit... Dat is vrij prijzig naar mijn mening.

iRacing Profiel


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 00:06
kroegtijger schreef op dinsdag 03 december 2013 @ 02:30:

Ik heb nog even nagezocht, maar kan geen enkel mobo helaas vinden dat op socket 1150 meer dan 32GB geheugen ondersteund. Hierin uitbreiden is dus met dit systeem geen optie!
Dat is logisch, omdat geen enkele 1150 processor meer dan 32GB ondersteunt. ;)

  • kroegtijger
  • Registratie: Juli 2001
  • Laatst online: 16:41
GioStyle schreef op dinsdag 03 december 2013 @ 10:26:
[...]


Dat is logisch, omdat geen enkele 1150 processor meer dan 32GB ondersteunt. ;)
Da's best wel een tekortkoming imho dan :{

iRacing Profiel


  • Ultimation
  • Registratie: Februari 2010
  • Laatst online: 26-12-2025

Ultimation

Het is als Appels en peren

Als je meer geheugen wilt zou ik gaan kijken naar socket 2011. In dit bord kan je bijvoorbeeld 512Gb kwijt. Is wel wat prijzig maar als je tekort komt kan je altijd meer toevoegen. Alleen kan je dan geen gebruik meer maken van VMWare, de gratis licentie dan tenminste.

Aangaande de storage zal je wat consessies moeten doen. Misschien dat je hierin onderscheid kan maken tussen de VM's die veel IOPS nodig hebben en VM's die met minder genoeg nemen. Dan kan je 2 pools aanmaken, 1 pool op een aantal SSD's en 1 op een aantal harddisks.

Ik denk ook dat je de hoeveelheid data die gaat verzenden en ontvangen onderschat. 2 of meerdere netwerkpoorten is wel iets wat je moet overwegen. Meer kan in ieder geval geen kwaad.

[ Voor 20% gewijzigd door Ultimation op 03-12-2013 10:39 ]

MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]


  • kroegtijger
  • Registratie: Juli 2001
  • Laatst online: 16:41
Ultimation schreef op dinsdag 03 december 2013 @ 10:35:
Als je meer geheugen wilt zou ik gaan kijken naar socket 2011. In dit bord kan je bijvoorbeeld 512Gb kwijt. Is wel wat prijzig maar als je tekort komt kan je altijd meer toevoegen. Alleen kan je dan geen gebruik meer maken van VMWare, de gratis licentie dan tenminste.
En daarmee wordt het meteen niet meer interessant voor thuis. Een VMWare licentie is zo achterlijk duur, dat het geen optie meer is imho.
Aangaande de storage zal je wat consessies moeten doen. Misschien dat je hierin onderscheid kan maken tussen de VM's die veel IOPS nodig hebben en VM's die met minder genoeg nemen. Dan kan je 2 pools aanmaken, 1 pool op een aantal SSD's en 1 op een aantal harddisks.
Dat is inderdaad wel de ideale situatie ja. Met name (grote) databases hebben daar baat bij, maar ook hier weer een kosten-aspect dat niet grappig kan zijn.
Ik denk ook dat je de hoeveelheid data die gaat verzenden en ontvangen onderschat. 2 of meerdere netwerkpoorten is wel iets wat je moet overwegen. Meer kan in ieder geval geen kwaad.
Dat lijkt me dus volledig afhankelijk van hoe je de boel gaat gebruiken. Blijft alles binnen de ESX-host, dan heb je daar weinig omkijken naar. Heb je veel traffic van/naar je clients toe, dan wordt het een ander verhaal. Over het algemeen heb je voor thuis-situaties niet zo gek veel nodig, en trek je de gigabit-verbinding niet dicht. Je kan met deze setup rustig een paar FullHD-streams starten zonder problemen.

iRacing Profiel


  • Ultimation
  • Registratie: Februari 2010
  • Laatst online: 26-12-2025

Ultimation

Het is als Appels en peren

Misschien dat je beter als Hypervisior iets van Fedora XFCE met KVM kan gebruiken als je kosten wilt besparen op een licentie?

Ik trek trouwens al mijn gigabit verbinding dicht als ik met mijn MacBook Pro een TimeMachine back-up maak en een film wil kijken via mijn AppleTV.

Ik mis ook eigenlijk een beetje het 'wat-mag-het-kosten' verhaal. Of heb ik daarover heen gelezen?

MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]


  • kroegtijger
  • Registratie: Juli 2001
  • Laatst online: 16:41
Ultimation schreef op dinsdag 03 december 2013 @ 13:43:
Misschien dat je beter als Hypervisior iets van Fedora XFCE met KVM kan gebruiken als je kosten wilt besparen op een licentie?
vSphere 5.5 is prima en als je een klein beetje oplet met wat je doet, kun je ook dit gewoon gratis gebruiken. Alleen als je additionele funcitonaliteiten wilt of naar grote hoeveelheden geheugen loop je tegen licentie-kosten aan (en die zijn dan ook meteen heel stevig)
Ik trek trouwens al mijn gigabit verbinding dicht als ik met mijn MacBook Pro een TimeMachine back-up maak en een film wil kijken via mijn AppleTV.
Ik weet niet wat die TimeMachine Backup aan bandbreedte slurpt, maar daar zal het wel vandaan komen. Een fullHD stream trekt nog geen 10% van je gigabit-verbinding dicht.

Maar nogmaals, zolang er geen data-uitwisseling op grote schaal plaats gaat vinden buiten de gevirtualiseerde omgeving, heeft een grotere bandbreedte naar die ESX-host geen meerwaarde. Immers, als ik maar 200mbit verstook is er geen enkele verbetering merkbaar door in plaats van 1000mbit naar 2000mbit te gaan. Als er nou sprake is van grote hoeveelheden data-uitwisseling tussen machines binnen en machines buiten de gevirtualiseerde omgeving, dan wordt het een ander verhaal. In dit geval zie ik dat niet snel gebeuren, aangezien de ESX-host ook de storage zal bevatten, en de data-stromen die we tot nu toe te weten zijn gekomen van TS zullen bestaan uit een paar films die tegelijkertijd gestreamd moeten kunnen worden. Dat kan met speels gemak op 1GB-verbindingen
Ik mis ook eigenlijk een beetje het 'wat-mag-het-kosten' verhaal. Of heb ik daarover heen gelezen?
Voor alsnog lijkt het me eerder aan de orde om vast te stellen wat nu echt precies nodig is om het doel te bereiken, en daarna eens naar de kosten te kijken. Het is naar mijn mening verkeerd om redeneren om uit te gaan van wat het mag kosten, en daar dan iets bij te zoeken, aangezien het mogelijk wel eens veel meer of (helaas minder vaak, maar ook nog wel eens aan de orde) veel minder kosten te maken dan vooraf was bedacht. Een oplossing die niet voldoet is, hoeveel het ook gekost heeft, waardeloos.

iRacing Profiel


  • slb
  • Registratie: Augustus 2000
  • Laatst online: 19:51

slb

Bwoah......

GioStyle schreef op maandag 02 december 2013 @ 10:14:
Hoezo drogreden? Als je 10 cliënts hebt en 1 zfs server waarvan alleen je server ECC geheugen heeft, en je 10 cliënts schrijven dagelijks data naar je server, dan kan je wel fijn ECC geheugen hebben op je server, maar dan kan je kritische data allang corrupt zijn voordat het überhaupt op je server is beland.
Je hebt dit draadje niet gelezen.

Als je redeneert dat kritische data toch al corrupt is vóór het op de ZFS server terechtkomt, wat heeft het dan nog voor nut om voor ZFS te kiezen? Het gaat toch juist om de data die zich op/in deze server bevindt/bewerkt/afgehaald wordt? Dat bedoel ik met een drogreden.

ZFS werkt in vergelijking met andere bestandssystemen veel meer in RAM. ZFS houdt van RAM.
ZFS is ontworpen om corruptie binnen het bestandssysteem te voorkomen en niet ontworpen om corruptie -achteraf- te repareren. Daarom is er ook geen chkdsk of fsck voor ZFS. Maar om eventuele corruptie te detecteren moet de kans op corruptie in het werkgeheugen dan wel zo klein mogelijk zijn.

Zodra je geen redundancy hebt (diskuitval) en het ZFS bestandssysteem gecorrumpeerd is, ben je de Sjaak. En dan sla je je zelf voor de kop, omdat je een paar tientjes wilde besparen. Been there, done that, helaas.

IMO is het eenvoudig: kiezen voor ZFS omdat je wilt dat je data veiliger is, is kiezen voor ECC, zeker met de huidige prijzen. Als je data niet zo belangrijk is, dan kun je misschien zelfs beter voor een ander bestandssysteem kiezen. Dat wilde ik naar voren brengen.

En om nog maar een anglicisme te gebruiken: better safe than sorry....

prompt $p $g


  • sPENKMAN
  • Registratie: April 2002
  • Laatst online: 30-01 20:45
Ik gok dat het direct aanbieden van de 2 schijven aan je ZFS VM niet gaat werken met die controller, ik vermoed dat deze niet op de VMware HCL lijst staat, kijk hier dus nog even goed na.

Hoewel je VMware prima kan voorzien van extra drivers voor allerlei zaken zou ik dit wel vermijden bij een nieuw systeem. Je wilt namelijk wel zonder problemen kunnen updaten zonder weer het geklooi met de drivers. Check of alle componenten op de HCL lijst staan en dan zou je prima je ding moeten kunnen doen.

Eve char: Warock <TEST>

Pagina: 1