Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

Is het oké om zelf een rackserver te bouwen?

Pagina: 1
Acties:
  • 4.752 views

  • Aardbol_23564
  • Registratie: Februari 2012
  • Laatst online: 07-10 11:07
Ik zou graag willen bekijken om ipv voor een kant-en-klare oplossing te kiezen, zelf willen bekijken hoe interessant het is om zelf een server ineen te steken. Ik heb al gelezen dat het niet zo simpel is als een desktop computer, maar wil graag duidelijkheid over hoe groot dat verschil in complexiteit is.

Mijn grootste reden om dit te doen is om vrijheid te krijgen om erin te steken wat je wil, zolang het uiteraard maar werkt. Ik denk dan bijvoorbeeld aan USB 3.1 voor onze off-site back-ups, een unRAID setup met supersnelle SSD cache en betrouwbare HDD voor lange termijn opslag. Misschien dat een eigen setup ook goedkoper uitkomt dan een kek oplossing, zoals het bij een desktop PC altijd het geval was bij mij. Een andere reden is het plezier om dit allemaal zelf te mogen doen en bij te leren.

Ik denk bijvoorbeeld aan volgende hardware:
Intel Xeon E5-2600 CPU
Supermicro moederbord of alternatief
2U chassis met minstens 8 slots
redundante voeding
USB 3.1 PCI
Hardware RAID
DDR4 RAM ECC
Windows server OS
Geen idee van software voor serverbeheer (lees: bvb DELL Openmanage)

Een knelpunt is dan bijvoorbeeld de support die er dat niet is van die partner. Er is geen onsite service, wat niet per se een negatief punt is omdat zelf vervangen veel sneller kan gebeuren dan het eerst uitleggen aan het bedrijf en dan wachten tot ze langskomen/het onderdeel opsturen. Maar als er iets onverwachts gebeurd en er een speurtocht nodig is om te vinden wat het probleem veroorzaakt, dan zou dat een probleem kunnen betekenen, omdat ik geen server expert ben. We werken wel samen met een ICT partner die servers voor ons configureert, bestelt obv ons gebruik enz. Maar ik vermoed dan hun support/kennis niet zo diepgaand is als server hardware ter plaatse troubleshooten.

Dat de server zou falen op een bepaald punt, zou ook niet per se een catastrofe moeten betekenen, omdat ik van plan ben om een hybride on premise en cloud setup te willen gebruiken. Dit doen we nu al voor de mail en dan later ook voor de storage. Deze laatste zou bij een serverpanne nog beschikbaar moeten zijn.

Graag hoor ik jullie meningen & advies.

Bedankt O+

[ Voor 7% gewijzigd door Aardbol_23564 op 30-10-2016 00:20 . Reden: Hardware specs ]


  • sig69
  • Registratie: Mei 2002
  • Laatst online: 18:13
Het lijkt me aan alle kanten een slecht idee. Alles wat je wil zou je ook via je ict partner moeten kunnen regelen. Zij zouden je hierin moeten adviseren, ondersteunen en ontzorgen. En je wil dat ook via zo'n partij regelen ivm support en dergelijke. Wie gaat er naar het datacenter als er iets is met je zelf bestelde server? Jij?
Misschien wordt het gewoon tijd om een andere ict partner te zoeken.

Roomba E5 te koop


  • muhda
  • Registratie: Februari 2009
  • Laatst online: 14:26

muhda

Time & Space traveler

Bij zelfbouw voor business doeleinden, komen meestal te veel risico's erbij kijken.
Waardoor het bespaarde geld niet waard is en een "No No" vormt.

Voorbeelden:
1 Geen Service, - iets mis met je configuratie? Of je wilt een storage oplossing? los het maar zelf op.
2 Geen Garantie - HDD stuk? Begin maar met een pijnlijk zoektocht naar het zelfde type.
3 Nog "meer" aparte licenties zoals ILO (HP) Openmanage essentials (DELL) (VMware/ESX) etc

Vergeet niet dat Hybrid oplossingen duur zijn en meer factoren hebben. Waardoor er meer stuk kan gaan.
Geen goeie data verbinding? Sync oplossing stuk? Heart-beat functie wat niet werkt? Hoppa, je data synct niet meer, je zit met verkeerde data of gegevens en je hebt kans op corrupt geraakte data.

Bepaalde partners bieden complete oplossingen aan, waardoor je geen kopzorgen hebt.
Is dat te duur? Vraag of ze 2de hands servers bieden met garantie en service.
Paar jaar oude servers, (Desnoods vol spec) zijn nog steeds bikkels en soms flink goedkoper.

Als het in een datacenter komt te staan misschien kijken of je de kosten kan drukken door voor "self managed" hosting te gaan inplaats van "complete service managed"?

  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 16:40

MAX3400

XBL: OctagonQontrol

Aardbol_23564 schreef op zondag 30 oktober 2016 @ 00:17:
Ik heb al gelezen dat het niet zo simpel is als een desktop computer, maar wil graag duidelijkheid over hoe groot dat verschil in complexiteit is.
Een gemiddelde game-PC in elkaar zetten is lastiger dan een "server". Dat gezegd hebbende; er is geen verschil tussen "desktop" en "server". Een Raspberry Pi van 4 tientjes kan ook "server" spelen maar kan ook "desktop" spelen. Je vraagstelling is dan ook gebaseerd op volledig incorrecte denkbeelden en missende informatie.
Ik denk dan bijvoorbeeld aan USB 3.1 voor onze off-site back-ups
Waarom komt dit enorm amateuristisch op me over? Off-site & USB is een recept voor "oeps, verloren" en dus mogelijk onderhevig aan Wbp? Off-site kan meerdere betekenissen & oplossingen hebben en je kiest nu zo ongeveer de allergoedkoopste en minst doordachte.
een unRAID setup met supersnelle SSD cache en betrouwbare HDD voor lange termijn opslag.
Want?
Misschien dat een eigen setup ook goedkoper uitkomt dan een kek oplossing, zoals het bij een desktop PC altijd het geval was bij mij.
Want?
configuratie-lijstje
Nutteloos? Zie mijn eerste antwoord over de Pi.
Er is geen onsite service, wat niet per se een negatief punt is omdat zelf vervangen veel sneller kan gebeuren dan het eerst uitleggen aan het bedrijf en dan wachten tot ze langskomen/het onderdeel opsturen.
Nee, inderdaad is dat slimmer. We zullen jou maar op je blauwe ogen geloven dat je een nieuw/exotische apparaat wel zelf kan troubleshooten ipv geautomatiseerde en (zeer relatief) correcte troubleshooting incl. mogelijkheid tot 24/7 meldingen en monteurs.
Maar als er iets onverwachts gebeurd en er een speurtocht nodig is om te vinden wat het probleem veroorzaakt, dan zou dat een probleem kunnen betekenen, omdat ik geen server expert ben. We werken wel samen met een ICT partner die servers voor ons configureert, bestelt obv ons gebruik enz. Maar ik vermoed dan hun support/kennis niet zo diepgaand is als server hardware ter plaatse troubleshooten.
Dit lijkt me de vorige alinea perfect te beantwoorden. En daarbij; waarom heb je een ICT partner (wat dat ook moge zijn) als je al aanneemt dat ze jou ook niet kunnen helpen in een aantal gevallen?
Dat de server zou falen op een bepaald punt, zou ook niet per se een catastrofe moeten betekenen, omdat ik van plan ben om een hybride on premise en cloud setup te willen gebruiken. Dit doen we nu al voor de mail en dan later ook voor de storage. Deze laatste zou bij een serverpanne nog beschikbaar moeten zijn.
Dus je heb een soort van failover-clustering / replication in-place alsmede voldoende bandbreedte om "online" 100% verder te werken als "de server" uitfikt?

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


  • rc5proxy
  • Registratie: Augustus 2003
  • Laatst online: 24-11 23:35
Alles wat jij opgeeft kan ook in een standaard HP/Dell server toegevoegd worden.
dat je iets meer betaald is dat je 24/7 3 jaar totaal garantie er bij koopt/krijgt ;)

  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 28-11 16:59

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

Waarom zou je het willen doen?

Je koopt de hardware misschien 500 euro goedkoper, maar bent dat geld weer kwijt aan manuren.

Hardware uitzoeken, bestellen, in elkaar schroeven, drivers downloaden, etc....

Het levert je financieel vrij weinig op om dit voor één server te doen. Er zijn wel situaties denkbaar waarin het uitkan, maar dan heb je het meer over serverfarms waarin bv 10 of meer servers in 1x besteld worden. Denk dan aan bv een RDS of virtualisatie cluster. Als er dan een server mee stopt nemen de andere in de farm zijn taken wel over...

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • Rmg
  • Registratie: November 2003
  • Laatst online: 18:28

Rmg

Vergeet ook niet: waar ga je hem inelkaar zetten, heb je daar wel een esd vrije werkplek voor? (iets meer dan een lullig polsbandje). Met een game pc is het risico op esd schade m.i. nog wel te overzien.

Bij een server, waar het draait om reliability, wil je dat niet.

  • Aikon
  • Registratie: Februari 2001
  • Niet online
Een zelfbouw server (of deels zelfbouw) kan heus wel. Het ligt er maar net aan waar je hem voor inzet en wat je (en de uitbatende partij) z'n eisen zijn. Dat zie ik nergens staan?

Het woord server zorgt voor een hoop paniek bij veel mensen zie ik, maar echt niet alles hoeft altijd afgedekt te zijn en binnen 1 uur vervangen te zijn in elk mogelijk scenario.

  • bredend
  • Registratie: September 2001
  • Laatst online: 12:03
Ik heb ook overwogen om een zelfbouwserver in een datacentrum te hangen. Voornamelijk voor off-site opslag. De reden dat ik dat niet heb gedaan is omdat ik niet verwachtte de server goed genoeg te kunnen beveiligen. Het lijkt me niet relaxed om steeds te checken of je server niet gehacked is.

  • base_
  • Registratie: April 2003
  • Laatst online: 17:58
Zelfbouw rackserver kan prima voor niet kritieke doeleinden (zoals backup storage), wil je echter een betrouwbare server ga dan maar eens een server bouwen, stresstesten en met de infraroodcamera/flir testen. Vervolgens mage je oplossingen gaan bedenken voor hotspots. Bedenk ook dat je dus bijvoorbeeld airducts moet maken voor de passieve CPU koelingen, geheugenmodules en bepaalde moederbordonderdelen. Ik denk niet dat dat rendabel is, wat je nog wel kan overwegen is een barebone server van een goed merk, daar kan je standaard onderdelen in kwijt terwijl het ontwerp al door de fabrikant doorgedacht is.

  • Aardbol_23564
  • Registratie: Februari 2012
  • Laatst online: 07-10 11:07
sig69 schreef op zondag 30 oktober 2016 @ 00:37:
Het lijkt me aan alle kanten een slecht idee. Alles wat je wil zou je ook via je ict partner moeten kunnen regelen. Zij zouden je hierin moeten adviseren, ondersteunen en ontzorgen. En je wil dat ook via zo'n partij regelen ivm support en dergelijke. Wie gaat er naar het datacenter als er iets is met je zelf bestelde server? Jij?
Misschien wordt het gewoon tijd om een andere ict partner te zoeken.
@sig69 Dat doen ze ook hoor. Ze kunnen een compleet systeem voorstellen die aan onze noden voldoet. Een eigen setup raadde ze niet aan (hoewel ik de zaakvoerder er nog over moet vragen, maar ik verwacht hetzelfde antwoord) door de complexiteit. Ik wilde het hier ook vragen om een second opinion te krijgen, omdat de mening van een ervaren tweaker anders kan zijn dan je vaste ICT support partner.

De server is trouwens in onze kelder, niet in een datacenter.
muhda schreef op zondag 30 oktober 2016 @ 00:54:
Bij zelfbouw voor business doeleinden, komen meestal te veel risico's erbij kijken.
Waardoor het bespaarde geld niet waard is en een "No No" vormt.

Voorbeelden:
1 Geen Service, - iets mis met je configuratie? Of je wilt een storage oplossing? los het maar zelf op.
2 Geen Garantie - HDD stuk? Begin maar met een pijnlijk zoektocht naar het zelfde type.
3 Nog "meer" aparte licenties zoals ILO (HP) Openmanage essentials (DELL) (VMware/ESX) etc

Vergeet niet dat Hybrid oplossingen duur zijn en meer factoren hebben. Waardoor er meer stuk kan gaan.
Geen goeie data verbinding? Sync oplossing stuk? Heart-beat functie wat niet werkt? Hoppa, je data synct niet meer, je zit met verkeerde data of gegevens en je hebt kans op corrupt geraakte data.

Bepaalde partners bieden complete oplossingen aan, waardoor je geen kopzorgen hebt.
Is dat te duur? Vraag of ze 2de hands servers bieden met garantie en service.
Paar jaar oude servers, (Desnoods vol spec) zijn nog steeds bikkels en soms flink goedkoper.

Als het in een datacenter komt te staan misschien kijken of je de kosten kan drukken door voor "self managed" hosting te gaan inplaats van "complete service managed"?
Garanties heb je toch nog altijd op de componenten die erin steken? Het is natuurlijk niet de bedoeling om de goedkoopste desktop HDDs erin te steken, maar degelijke schijven met minstens 5 jaar garantie.

Van die aparte licenties voor het beheer heb ik geen idee, maar hopelijk wordt dat ook duidelijk.

En de hybride oplossing is iets dat je niet te complex moet bekijken. Uiteraard moet de sync wel betrouwbaar zijn. Ik heb nog geen degelijke oplossing gevonden om on premise data met bvb Box.com te syncen. Dat het duur is heb ik helaas al ondervonden. Maar gelukkig bieden veel partijen nonprofit korting aan.
MAX3400 schreef op zondag 30 oktober 2016 @ 08:14:
[...]

Een gemiddelde game-PC in elkaar zetten is lastiger dan een "server". Dat gezegd hebbende; er is geen verschil tussen "desktop" en "server". Een Raspberry Pi van 4 tientjes kan ook "server" spelen maar kan ook "desktop" spelen. Je vraagstelling is dan ook gebaseerd op volledig incorrecte denkbeelden en missende informatie.


[...]

Waarom komt dit enorm amateuristisch op me over? Off-site & USB is een recept voor "oeps, verloren" en dus mogelijk onderhevig aan Wbp? Off-site kan meerdere betekenissen & oplossingen hebben en je kiest nu zo ongeveer de allergoedkoopste en minst doordachte.
Nu heeft het geen zin om te zitten muggenziften over de exacte betekenis van een server. Als je de beschrijving gelezen hebt, begrijp je dat het geen RBPI oplossing is, waarover ik het heb. Het gaat over de componenten die erin steken en wat ervan verwacht moet worden qua prestaties. Als het gebruik van de server verduidelijkt moet worden, als in waarvoor zal je hem gebruiken, dan zou ik dat wel kunnen doen. Dan wordt o.a. ook meer duidelijk waarom ik een unRAID oplossing kies tegenover onze huidige RAID setup die heel beperkt is in prestaties.

Wat betreft de off-site back-up. Je hebt enkel maar zoveel oplossingen die je kan gebruiken als dat je internetverbinding toelaat. Als je ook al weet dat ik mij tegenwoordig meerdere malen heb moeten bezighouden met het maken van dezelfde off-site seeds om naar onze partner te brengen, en dat dan aan USB 2.0 (lees 30MB/s voor TBs aan data), dan begrijp je misschien wel waar deze vereiste vandaan komt. En daarbij ook tellen dat we maar een 8Mbps upload verbinding hebben om de incrementele back-ups naar buiten te sturen. Dit moet in de toekomst vele sneller kunnen gebeuren, wat betreft het nemen van de seeds dan toch, voor de andere hebben we geen oplossing...
rc5proxy schreef op zondag 30 oktober 2016 @ 08:36:
Alles wat jij opgeeft kan ook in een standaard HP/Dell server toegevoegd worden.
dat je iets meer betaald is dat je 24/7 3 jaar totaal garantie er bij koopt/krijgt ;)
Onze huidige oplossing is een DELL server. Ik heb hen al gevraagd of we er een USB 3.1 PCI kaart zouden mogen insteken. Ze raadden dit af omdat dit zeker zou zijn of die wel degelijk zou werken. Op vlak van garanties en service waarvoor we ook extra betalen kunnen we niet zomaar ingaan tegen het advies van de leverancier.
Aikon schreef op zondag 30 oktober 2016 @ 11:07:
Een zelfbouw server (of deels zelfbouw) kan heus wel. Het ligt er maar net aan waar je hem voor inzet en wat je (en de uitbatende partij) z'n eisen zijn. Dat zie ik nergens staan?

Het woord server zorgt voor een hoop paniek bij veel mensen zie ik, maar echt niet alles hoeft altijd afgedekt te zijn en binnen 1 uur vervangen te zijn in elk mogelijk scenario.
Nu heb ik niet gezegd waarvoor hij gebruikt zou worden, maar toch begrijp jij meer mijn situatie. Het moet inderdaad bij wijze van spreken niet binnen het uur gefixt worden, er moet gewoon gezien worden dat er continuïteit is van het werk. In ons geval wordt de server vooral gebruikt - buiten standaard dingen als het beheer van het Windows domein, GPO, antivirusbeheer, patch management die wel even offline mogen vallen - voor storage en het beheer van het netwerk. Netwerkschijven waar we constant aan kunnen en waarvan de data ook wordt gebackupt. Dat zijn twee dingen waarvoor de server echt online moet blijven.

Nu dat ik onze mail hebt geoutsourced aan Office 365, is dat ook al een punt minder waar rekening mee moet gehouden worden om de server altijd online te hebben. De server is nog nodig om onze AD en wachtwoorden te syncen met 365, maar als die een dag offline valt bij wijze van spreken, is dat ook geen catastrofe, omdat de collega's verder hun mails kunnen raadplegen.

De storage wil ik i.c.m. een online cloud oplossing hybride gebruiken, dus moest de server uitvallen, dat mensen nog aan de bestanden kunnen door bvb naar box.com te surfen, of office.com als het sharepoint of onedrive wordt. Ons netwerk (DHCP, DNS enz) moet ook anders ingesteld worden om zo weinig mogelijk een single point of failure door de server te hebben.
bredend schreef op zondag 30 oktober 2016 @ 11:10:
Ik heb ook overwogen om een zelfbouwserver in een datacentrum te hangen. Voornamelijk voor off-site opslag. De reden dat ik dat niet heb gedaan is omdat ik niet verwachtte de server goed genoeg te kunnen beveiligen. Het lijkt me niet relaxed om steeds te checken of je server niet gehacked is.
Dat begrijp ik, maar dat is niet het punt hier. Het serverbeheer wordt nog altijd door onze Microsoft certified ICT partner gedaan. Daar ga ik mij echt niet mee bezighouden... Hoewel ik wel twijfels heb bij hun setup omdat verschillende dingen zoals ons VOIP admin paneel en backup beheer gewoon open staan naar het internet toe... What's the point of a firewall dan denk ik.
Question Mark schreef op zondag 30 oktober 2016 @ 10:46:
Waarom zou je het willen doen?

Je koopt de hardware misschien 500 euro goedkoper, maar bent dat geld weer kwijt aan manuren.

Hardware uitzoeken, bestellen, in elkaar schroeven, drivers downloaden, etc....

Het levert je financieel vrij weinig op om dit voor één server te doen. Er zijn wel situaties denkbaar waarin het uitkan, maar dan heb je het meer over serverfarms waarin bv 10 of meer servers in 1x besteld worden. Denk dan aan bv een RDS of virtualisatie cluster. Als er dan een server mee stopt nemen de andere in de farm zijn taken wel over...
Goed punt, maar bij mij minder van toepassing. Ik nuanceer even dat ik met de de besparing aan kosten het puur had over de componenten en garanties/service. Mijn werkuren zijn minder van toepassing in de nonprofit wereld, hoewel ik wel een goede verdeling moet hebben in al mijn velden van taken, want ICT is niet mijn enige verantwoordelijkheid en is maar 40% van mijn werktijd. Maar ik vind het helemaal niet erg om mijn vrije tijd ervoor te gebruiken. Het is namelijk vooral uit eigen interesse in deze zaken dat ik het op die manier wil aanpakken i.p.v. een kant-en-klare oplossing.

[ Voor 105% gewijzigd door Aardbol_23564 op 30-10-2016 12:09 ]


  • downtime
  • Registratie: Januari 2000
  • Niet online

downtime

Everybody lies

Aardbol_23564 schreef op zondag 30 oktober 2016 @ 11:27:
[...]

Garanties heb je toch nog altijd op de componenten die erin steken? Het is natuurlijk niet de bedoeling om de goedkoopste desktop HDDs erin te steken, maar degelijke schijven met minstens 5 jaar garantie.
Wat is de doorlooptijd als jij ergens een losse HDD onder garantie moet laten vervangen? Goeie kans dat je dagen of weken op een nieuwe disk moet wachten, of zelfs een ander type krijgt dan je opgestuurd hebt.
Is me al een paar keer overkomen dat een defecte disk door een ander type van een nieuwere generatie vervangen werd. In de consumentenmarkt is dat niet ongewoon en zit niemand daarmee. Maar in de zakelijke markt wil je niet opeens een afwijkend type in je RAID set hebben.
Op de componenten van een nette server met support contract zitten garanties hoelang het maximaal kan duren en krijg je gegarandeerd hetzelfde type.

Tenzij het je eigen bedrijf is, zou ik zakelijk altijd voor een A-merk als HP of Dell gaan. Je wil niet aan de baas uitleggen waarom je kostbare uren in het bouwen en misschien troubleshooten van een server steekt terwijl je voor € 1000 meer een standaard machine koopt die je alleen maar in het rek hoeft te hangen. De winst van zelfbouw weegt niet tegen de risico's op.

  • Rctworld
  • Registratie: Januari 2004
  • Laatst online: 27-11 13:54
Aardbol_23564 schreef op zondag 30 oktober 2016 @ 11:27:
[...]

Onze huidige oplossing is een DELL server. Ik heb hen al gevraagd of we er een USB 3.1 PCI kaart zouden mogen insteken. Ze raadden dit af omdat dit zeker zou zijn of die wel degelijk zou werken. Op vlak van garanties en service waarvoor we ook extra betalen kunnen we niet zomaar ingaan tegen het advies van de leverancier.


[...]


Goed punt, maar bij mij minder van toepassing. Ik nuanceer even dat ik met de de besparing aan kosten het puur had over de componenten en garanties/service. Mijn werkuren zijn minder van toepassing in de nonprofit wereld, hoewel ik wel een goede verdeling moet hebben in al mijn velden van taken, want ICT is niet mijn enige verantwoordelijkheid en is maar 40% van mijn werktijd. Maar ik vind het helemaal niet erg om mijn vrije tijd ervoor te gebruiken. Het is namelijk vooral uit eigen interesse in deze zaken dat ik het op die manier wil aanpakken i.p.v. een kant-en-klare oplossing.
Iets zegt mij "Penny wise pound foolish". A-merken zoals DELL en HP/Hewlett Packard Enterprise bouwen systemen op basis van een een set aan componenten die door en door met elkaar getest zijn en waarvoor ze ook instaan dat ze zowel qua performance, stabiliteit als bijvoorbeeld koeling op elkaar afgestemd zijn.Werkt het niet en heb jij een volgens de fabrikant gesupporte configuratie dan moeten zij net zo lang doorgaan tot jou probleem opgelost is.

Nu komt er een hobbyist die graag USB3.1 wil met een kaart die DELL nog nooit gezien heeft, waarschijnlijk omdat er geen vraag naar is. DELL wil natuurlijk alleen componenten die door en door getest zijn want als het straks niet werkt komt jouw organisatie bij DELL verhaal halen en dat risico kunnen ze zich natuurlijk niet veroorloven (zeker niet voor één server). Je kunt het natuurlijk altijd doen op eigen risico, maar dan moet je niet gek op kijken als DELL je niet wil helpen als je problemen hebt.

En waarom eigenlijk USB3.1? USB3.0 wat in praktisch alle moderne servers zit haalt ook al ~400MB/s, heb jij een USB3 back-up device wat sustained meer dan 400MB/s doorvoer haalt?

  • Noppie1991
  • Registratie: Juli 2012
  • Laatst online: 22-11 21:11
Zijn tape drives geen mogelijkheid? Wij gebruiken deze momenteel voor onze backups i.c.m. Backup Exec, werkt uitstekend. de tape drives hebben wij geplaatst in een 1U HP kast en verbonden via 2 SAS kabels met de server waar Backup Exec op draait.

pricewatch: HP StorageWorks LTO-4 Ultrium 1760 SAS Tape Drive in 1U Rack-moun...

Verwijderd

En dan nog. "offsite" backup naar een USB device? En dan moet je met externe disks gaan zeulen om deze daadwerkelijk offsite op te slaan? Zal je zien dat dit in de praktijk als te lastig wordt ervaren en die USB disk 24/7 aan je server hangt. Naar mijn mening een pruts oplossing.
Er zou nog wat voor te zeggen zijn als je deze USB disk vervolgens synct met een online storage. Dan kan het sync process plaatsvinden tijdens productie uren zodat de offsite sync niet in het backup tijdvak hoeft plaats te vinden.

  • Aardbol_23564
  • Registratie: Februari 2012
  • Laatst online: 07-10 11:07
Rctworld schreef op zondag 30 oktober 2016 @ 12:21:
[...]

Iets zegt mij "Penny wise pound foolish". A-merken zoals DELL en HP/Hewlett Packard Enterprise bouwen systemen op basis van een een set aan componenten die door en door met elkaar getest zijn en waarvoor ze ook instaan dat ze zowel qua performance, stabiliteit als bijvoorbeeld koeling op elkaar afgestemd zijn.Werkt het niet en heb jij een volgens de fabrikant gesupporte configuratie dan moeten zij net zo lang doorgaan tot jou probleem opgelost is.

Nu komt er een hobbyist die graag USB3.1 wil met een kaart die DELL nog nooit gezien heeft, waarschijnlijk omdat er geen vraag naar is. DELL wil natuurlijk alleen componenten die door en door getest zijn want als het straks niet werkt komt jouw organisatie bij DELL verhaal halen en dat risico kunnen ze zich natuurlijk niet veroorloven (zeker niet voor één server). Je kunt het natuurlijk altijd doen op eigen risico, maar dan moet je niet gek op kijken als DELL je niet wil helpen als je problemen hebt.

En waarom eigenlijk USB3.1? USB3.0 wat in praktisch alle moderne servers zit haalt ook al ~400MB/s, heb jij een USB3 back-up device wat sustained meer dan 400MB/s doorvoer haalt?
Goede punten die je aanhaalt.

Wat betreft USB 3.0 op de server. Ik heb er nog nooit van gehoord dat die 400MB/s kunnen halen. Ze zeggen wel 5Gbps snelheid, maar in de praktijk is daar niets van waar, rekening houdend alleen al met overhead. Hetzelfde geldt voor 10Gbps voor USB 3.1, maar er is bij elke nieuwe versie wel degelijk een prestatieverbetering. En ja, mijn USB schijf is een RAID oplossing die 400MB/s seq snelheid haalt.

Waarom 3.1? Zo zijn we ook al zoet voor de toekomst en mijn USB storage ondersteunt het.
Noppie1991 schreef op zondag 30 oktober 2016 @ 13:23:
Zijn tape drives geen mogelijkheid? Wij gebruiken deze momenteel voor onze backups i.c.m. Backup Exec, werkt uitstekend. de tape drives hebben wij geplaatst in een 1U HP kast en verbonden via 2 SAS kabels met de server waar Backup Exec op draait.

pricewatch: HP StorageWorks LTO-4 Ultrium 1760 SAS Tape Drive in 1U Rack-moun...
We hadden een DELL tape library daarvoor i.c.m. USB schijven die elke week verwisseld moesten worden en meegenomen naar huis (wat een geknoei was dat zeg... maar die heb ik al lang geswitched met een off-site backup server). Toen dat die het begaf juist nadat de garantie vervallen was hebben we gekozen voor een NAS schijfoplossing, grotendeels omdat dat veel betaalbaarder was (tape library zou weeral 5000+ euro hebben gekost excl. tapes. Backup Exec is een kwaal waar ik nooit meer naar terug wil, die hebben we een tijd geleden al vervangen.

Trouwens, met onze backup is niets mis, enkel dat onze off-site back-up soms moeizaam verloopt, vooral omdat onze upload véél te traag is voor grotere incrementele back-ups. Als die niet klaar zijn tegen dat de werkuren weer starten, zitten we misschien weer snel in de puree. Daar is geen verbetering voor, want de enige oplossing is glasvezel en dat is in ons belgenlandje onbetaalbaar.

[ Voor 31% gewijzigd door Aardbol_23564 op 30-10-2016 13:41 ]


Verwijderd

Waarom niet nu er gewoon een usb3 controller inhangen die ondersteund wordt door Dell, en zodra er een usb 3.1 controller beschikbaar komt deze vervangen? Nu met vage early adaptor usb3.1 controllers te gaan avonturen op een productie server? Er zijn toch wel andere, robuustere oplossingen te verzinnen?

  • Aardbol_23564
  • Registratie: Februari 2012
  • Laatst online: 07-10 11:07
Verwijderd schreef op zondag 30 oktober 2016 @ 13:24:
En dan nog. "offsite" backup naar een USB device? En dan moet je met externe disks gaan zeulen om deze daadwerkelijk offsite op te slaan? Zal je zien dat dit in de praktijk als te lastig wordt ervaren en die USB disk 24/7 aan je server hangt. Naar mijn mening een pruts oplossing.
Er zou nog wat voor te zeggen zijn als je deze USB disk vervolgens synct met een online storage. Dan kan het sync process plaatsvinden tijdens productie uren zodat de offsite sync niet in het backup tijdvak hoeft plaats te vinden.
Juist. Dat was onze vroegere oplossing als suggestie van onze ICT partner en was inderdaad een geklungel. Heb ikzelf dan al vervangen met een echte remote off-site back-up oplossing. Maar de seeds maken blijft nog altijd een lastig gedoe.
Verwijderd schreef op zondag 30 oktober 2016 @ 13:41:
Waarom niet nu er gewoon een usb3 controller inhangen die ondersteund wordt door Dell, en zodra er een usb 3.1 controller beschikbaar komt deze vervangen? Nu met vage early adaptor usb3.1 controllers te gaan avonturen op een productie server? Er zijn toch wel andere, robuustere oplossingen te verzinnen?
Wat je daar zegt is misschien wel heel interessant als zoveel mogelijk gebruik wordt gemaakt van de snelheid die mijn USB storage (Terramaster RAID) aankan. Zeker eens de moeite waard om eens na te checken. Thanks! _/-\o_

[ Voor 27% gewijzigd door Aardbol_23564 op 30-10-2016 13:46 ]


Verwijderd

Question Mark schreef op zondag 30 oktober 2016 @ 10:46:
Waarom zou je het willen doen?

Je koopt de hardware misschien 500 euro goedkoper, maar bent dat geld weer kwijt aan manuren.

Hardware uitzoeken, bestellen, in elkaar schroeven, drivers downloaden, etc....
Pfff overdrijven is ook een vak. Het is geen rocket science ofzo. Uitzoeken + bestellen = 1 uur. In elkaar schroeven = 2 uur. Drivers downloaden = 10 minuten. Totaal: halve dag werk. Je komt pas in de problemen als dingen fout gaan, debuggen van issues ben je veel tijd aan kwijt. Je betaalt voor service, maar als je die service zelf kunt doen kun je dus veel geld besparen. (Maar, he, dan moeten IT beheerders eens zelf iets doen in plaats van risico uitbesteden, dat kan natuurlijk niet 8)7 )
base_ schreef op zondag 30 oktober 2016 @ 11:19:
Zelfbouw rackserver kan prima voor niet kritieke doeleinden (zoals backup storage)
Que? De backup is volgens mij het meest kritieke wat er bestaat. Als er iets fout gaat, wil je dat de backup in -elk- geval goed is. Anders kan je bedrijf failliet gaan enzo als je echt al je data kwijt bent.
wil je echter een betrouwbare server ga dan maar eens een server bouwen, stresstesten en met de infraroodcamera/flir testen. Vervolgens mage je oplossingen gaan bedenken voor hotspots. Bedenk ook dat je dus bijvoorbeeld airducts moet maken voor de passieve CPU koelingen, geheugenmodules en bepaalde moederbordonderdelen. Ik denk niet dat dat rendabel is, wat je nog wel kan overwegen is een barebone server van een goed merk, daar kan je standaard onderdelen in kwijt terwijl het ontwerp al door de fabrikant doorgedacht is.
Mijn god. Of je zet er een stel extra 12CM fans op en zorgt voor genoeg airflow in de kast als je je zorgen maakt. Ding zit toch in ergens in een rack waar herrie niets uitmaakt. Het geen casemodding... Infraroodcamera's? Passieve koeling? Zelf airducts bouwen? Really?

Het is geen rocket-science. Iedereen hier maakt het 100x ingewikkelder dan het in werkelijkheid is.

[ Voor 43% gewijzigd door Verwijderd op 30-10-2016 14:17 ]


  • Rctworld
  • Registratie: Januari 2004
  • Laatst online: 27-11 13:54
Verwijderd schreef op zondag 30 oktober 2016 @ 14:05:
[...]

Pfff overdrijven is ook een vak. Het is geen rocket science ofzo. Uitzoeken + bestellen = 1 uur. In elkaar schroeven = 2 uur. Drivers downloaden = 10 minuten. Totaal: halve dag werk. Je komt pas in de problemen als dingen fout gaan, debuggen van issues ben je veel tijd aan kwijt. Je betaalt voor service, maar als je die service zelf kunt doen kun je dus veel geld besparen. (Maar, he, dan moeten IT beheerders eens zelf iets doen in plaats van risico uitbesteden, dat kan natuurlijk niet 8)7 )


[...]
Je betaalt echt niet alleen voor service. Je betaalt ook voor een enterprise waardig server platform. Kosten voor een server en support contract zijn hoog maar denk er eens over na wat down time de meeste organisaties kost. Het kan zijn dat je 1000 euro goedkoper uit bent maar 5 mensen op de financiële afdeling die een dag hun werk niet kunnen doen en je bent het geld ook al kwijt.

Als je een server park van 300 servers hebt staan kun je met software heel veel oplossen maar als je maar 1 server hebt wil je niet afhankelijk zijn van een zelfbouw platform.

Verwijderd

Rctworld schreef op zondag 30 oktober 2016 @ 14:30:
[...]

Je betaalt echt niet alleen voor service. Je betaalt ook voor een enterprise waardig server platform. Kosten voor een server en support contract zijn hoog maar denk er eens over na wat down time de meeste organisaties kost. Het kan zijn dat je 1000 euro goedkoper uit bent maar 5 mensen op de financiële afdeling die een dag hun werk niet kunnen doen en je bent het geld ook al kwijt.

Als je een server park van 300 servers hebt staan kun je met software heel veel oplossen maar als je maar 1 server hebt wil je niet afhankelijk zijn van een zelfbouw platform.
1 server waar iedereen van afhankelijk is is natuurlijk een risico, maar dat risico is net zo groot als je een enkele Dell hebt staan. Die kunnen ook gewoon kapot hoor, en je kunt ook gewoon zelf een 'enterprise-waardig platform' (scoort goed op de IT-managers bullshit bingo!) bouwen met dezelfde betrouwbaarheid en risico's als een Dell. Redundant voeding, goed moederbord, raid, ECC. Als je je huiswerk goed doet (en dat moet je dus gewoon kunnen als 'IT beheerder') dan kan dat gewoon.

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op zondag 30 oktober 2016 @ 14:05:
[...]

Mijn god. Of je zet er een stel extra 12CM fans op en zorgt voor genoeg airflow in de kast als je je zorgen maakt. Ding zit toch in ergens in een rack waar herrie niets uitmaakt. Het geen casemodding... Infraroodcamera's? Passieve koeling? Zelf airducts bouwen? Really?
Mja dat is inderdaaad niet zo moeilijk maar je verhoogt je kosten daarmee zodanig dat je beter gewoon een supermicro doos kunt kopen. Je betaalt in een colo namelijk voor de fysieke ruimte die je inneemt en zelfbouw in 1U is nog aardig tricky. Met 12cm fans neem je zo 4U in beslag wat dus je kosten voor ruimte verviervoudigt.

All my posts are provided as-is. They come with NO WARRANTY at all.


  • RVW
  • Registratie: December 2000
  • Laatst online: 24-11 14:23

RVW

En toen ging over laten we zeggen een jaar het moederbord van jouw zelfbouw-server stuk. Moederbordje RMAen? "Ja, nee, sorry meneer de directeur. De server is stuk, dus niemand kan werken... Nee, dat gaat nog wel een week duren voordat ik het moederbord misschien weer terug heb!"

Reden dat echte servers zo duur zijn is ook dat er nog jaaaaren vervangende onderdelen voor te krijgen zijn, die met het juiste supportcontract binnen enkele uren bij je worden afgeleverd, eventueel inclusief engineer die de part installeert. Hoe ga jij dat oplossen met je knutselservertje?

Verwijderd

RVW schreef op zondag 30 oktober 2016 @ 15:56:
En toen ging over laten we zeggen een jaar het moederbord van jouw zelfbouw-server stuk. Moederbordje RMAen? "Ja, nee, sorry meneer de directeur. De server is stuk, dus niemand kan werken... Nee, dat gaat nog wel een week duren voordat ik het moederbord misschien weer terug heb!"

Reden dat echte servers zo duur zijn is ook dat er nog jaaaaren vervangende onderdelen voor te krijgen zijn, die met het juiste supportcontract binnen enkele uren bij je worden afgeleverd, eventueel inclusief engineer die de part installeert. Hoe ga jij dat oplossen met je knutselservertje?
Nou, hetzelfde als bij iedere andere PC? Als m'n PC vandaag kapot gaat, zit ik toch ook niet een week zonder? Ik zou zeggen, dat je bij een 'knutselserver' veel flexibeler bent om het snel weer up-and-running te krijgen, dan dat je van een 3e partij afhankelijk bent. En wat kost zo'n service contract waar ze 24/7 binnen een paar uur voor je klaarstaan?? Waarom besta je dan nog als IT beheerder? Dan ben je inderdaad een IT-manager geworden. Als IT-beheerder -ben- jij het service contract. Als de server kapot gaat moet je inderdaad even rennen om dat ding snel weer te reparen. Maar daar ben je toch voor?

[ Voor 6% gewijzigd door Verwijderd op 30-10-2016 16:11 ]


  • Gomez12
  • Registratie: Maart 2001
  • Laatst online: 17-10-2023
Even de zelfbouw server discussie daargelaten, wat mij meer interesseert is waarom wil jij het zelf gaan bouwen?

Waarom stel je niet gewoon een eisenlijst op en legt die bij je ICT-partner neer (waarvoor heb je die anders?) wellicht dat zij met een HP/Dell komen, of wellicht met een Supermicro, of wellicht dat hun het zelf willen bouwen.

Dan heb je ook gelijk een bedrijf wat bij een falen in jouw vakantie van alles afweet etc.

Je hebt er zelf geen ervaring mee, je hebt zelf niet genoeg kennis voor diepgaande ondersteuning. Waarom zou je dit dan uberhaupt zelf willen oppakken? Hiervoor heb je toch je ICT-partner?

  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 16:40

MAX3400

XBL: OctagonQontrol

Ik lees vooralsnog alleen maar oplossingen/hardware gebaseerd op absoluut niets. Het moet "een server" worden. Nou mooi zo maar als je dan eens haarfijn gaat definieren welke services worden geleverd door de betreffende (toekomstige) machine, dan valt er veel meer over te zeggen of je enigszins logisch bezig bent. Ik kan namelijk zo een aantal tegen-argumenten noemen waarom je zeker niet 1 server moet inzetten en al helemaal niet voor zelfbouw.

Zoals iemand anders aanhaalde; bedrijven als HP en Dell kunnen, uit mijn hoofd, tot wel 7 jaar na dato vervangende onderdelen leveren op een onderhoudscontract en over het algemeen binnen 4 tot 8 uur na officiele constatering van het defecte onderdeel door, bijvoorbeeld, bepaalde tools te draaien die automatisch rapporteren aan de fabrikant. Ga je zelfbouw doen, en kijk maar eens in de Pricewatch, dan zijn sommige prosumer onderdelen na 2 jaar al niet meer te krijgen laat staan dat je binnen 8 uur een vervangende/gerepareerde in huis hebt vanuit de fabrikant.

Ook de bedrijfsvoering van het bedrijf waar je voor werkt is absoluut niet duidelijk. Ja, je geeft aan dat je 8Mbps upload hebt maar vermeldt 0 over daadwerkelijk verbruikte bandbreedte tijdens kantooruren. Zeg even dat je 5Mbps upload verbruikt tussen 07:00 en 18:00, dan hou je de volgende bandbreedte over op een gehele dag: (3Mbps x 3600 x 11) + (8Mbps x 3600 x 13) = 60GB upload. Als jouw incrementele (!!!!) backup meer dan dat is, moet je je eens gaan afvragen, afhankelijk van de bedrijfsvoering, of dat wel een wenselijke hoeveelheid is en/of dat de gebruikte storage & backup-oplossing wel effectief genoeg is.

Oh, en nog meer food for thought; ECC is alleen handig/leuk als data "op de server" wordt gegenereerd en niet als Jantje op werkstation A (zonder ECC) 100GB aan data tekent/typt en daarna naar de server zou kopieren. Dan is dus werkstation A het directe single-point-of-failure en er hoeft maar 1 bitje in die 100GB kapot te zijn om de hele datastream later onleesbaar te maken. Daar gaat geen Xeon of ECC tegen helpen. Er zullen ongetwijfeld mensen zijn die dit bestrijden maar je infra is zo fragiel als de zwakste schakel!

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


  • Ulysses
  • Registratie: Oktober 1999
  • Niet online

Ulysses

Hyperbol

Volgens mij kun je veel beter gewoon een cloudservertje huren voor dat geld. Aan te passen aan gebruik, staat redudant in een datacentrum naar keuze, als er iets stuk gaat zijn het niet jouw centen. http://aws.amazon.com

  • Qwerty-273
  • Registratie: Oktober 2001
  • Laatst online: 28-11 16:47

Qwerty-273

Meukposter

***** ***

MAX3400 schreef op zondag 30 oktober 2016 @ 17:57:
Ook de bedrijfsvoering van het bedrijf waar je voor werkt is absoluut niet duidelijk. Ja, je geeft aan dat je 8Mbps upload hebt maar vermeldt 0 over daadwerkelijk verbruikte bandbreedte tijdens kantooruren. Zeg even dat je 5Mbps upload verbruikt tussen 07:00 en 18:00, dan hou je de volgende bandbreedte over op een gehele dag: (3Mbps x 3600 x 11) + (8Mbps x 3600 x 13) = 60GB upload. Als jouw incrementele (!!!!) backup meer dan dat is, moet je je eens gaan afvragen, afhankelijk van de bedrijfsvoering, of dat wel een wenselijke hoeveelheid is en/of dat de gebruikte storage & backup-oplossing wel effectief genoeg is.
Ander vraagstuk is dan natuurlijk hoe restore je de data en services? Wat doe je bij het verlies van een schijf of een raid-set, hoe krijg je de data weer in je productie? En wat doe je bij het verlies van de complete server? Hoeveel tijd gaat daar overheen? Met een off-site backup waarbij je in de knoei komt met de bandbreedte, dan is je omgeving wellicht niet geschikt voor deze methode.

Verder kan een zelfbouw server best wel, maar dan vaak wel in een omgeving waar je zelf ook al zorgdraagt voor de redundantie (bv een eenvoudige hoster met 40 dezelfde servers en redundatie daar tussen). Maar dat is vaak bij een wat groter volume intressant ipv met een enkele server hier of daar. En de specificaties, dat hangt natuurlijk kompleet af van de services die het moet doen.
Je kijkt dan inderdaad wel vaak naar een supermicro of tyan barebone aan, want dat is vaak makkelijker dan het juiste moederbord en de juiste kast combinatie zelf samen te stellen.

Onderhoud/support zijn natuurlijk de grootste struikelblokken. Kan je huidige it-partner dat doen en voor welke prijs, en hoe verhoudt dat zich tot de kosten van een standaard HP/Dell/wat dan ook bak.

Erzsébet Bathory | Strajk Kobiet | You can lose hope in leaders, but never lose hope in the future.


  • RedShift
  • Registratie: Augustus 2003
  • Laatst online: 20-04 21:58
Als je het aan iemand anders moet vragen dan nee, het is niet oké om zelf een rackserver te bouwen.

  • Rolfie
  • Registratie: Oktober 2003
  • Laatst online: 18:25
Aardbol_23564 schreef op zondag 30 oktober 2016 @ 00:17:
....

Ik denk dan bijvoorbeeld aan USB 3.1 voor onze off-site back-ups, een unRAID setup met supersnelle SSD cache en betrouwbare HDD voor lange termijn opslag.

....

Ik denk bijvoorbeeld aan volgende hardware:
Intel Xeon E5-2600 CPU
Supermicro moederbord of alternatief
2U chassis met minstens 8 slots
redundante voeding
USB 3.1 PCI
Hardware RAID
DDR4 RAM ECC
Windows server OS
Geen idee van software voor serverbeheer (lees: bvb DELL Openmanage)
Ik zie ene hoop dingen waarop ik :?
Bijna iedere nieuwe server heeft USB3, waarom USB3.1? Welke harddisk haalt dit? En USB voor Backup, kan... Maar dit was toch juist al de backup server?
unRAID icm met SSD, waarom? Voor een backup server? Ik heb liever gewoon stabiele hardware / configuratie. HP heeft ook hele mooie caching in de raid controller, en de mogelijkheid om een SSD cache te activeren. Waarom dan nog 3de partij software toevoegen. Klinkt leuk, maar waarom? Hoe meer je toevoegd hoe meer er mis kan gaan.
2U met 8 sloten? Waarom, wat ben je van plan? De meeste merk servers heb je zelf niet eens meer een PCI slot nodig voor normale configuratie.
Dell openmanage, sorry met het dit geef je juist aan dat je er eigen geen verstand van hebt, en jij niet de man bent om hier over te denken.

Ik zie een hobbyist die iets leuks denkt meer te zetten en een paar euro's denkt te besparen. Goedkoop is bijna altijd duurkoop in dit soort trajecten. Het werkt totdat het fout gaat, of de hobbyist weg gaat. Dan mag iemand anders de puin ruimen.

Sorry maar mijn advies is, vooral niet doen.

  • base_
  • Registratie: April 2003
  • Laatst online: 17:58
Verwijderd schreef op zondag 30 oktober 2016 @ 14:05:
[...]

Que? De backup is volgens mij het meest kritieke wat er bestaat. Als er iets fout gaat, wil je dat de backup in -elk- geval goed is. Anders kan je bedrijf failliet gaan enzo als je echt al je data kwijt bent.
Ik heb het eerder over availability, E.e.a. loopt prima door als de backup even down is, als je die een dag later repareert vergaat de wereld niet, bovendien is in veel gevallen de data niet verloren bij een servercrash.
Mijn god. Of je zet er een stel extra 12CM fans op en zorgt voor genoeg airflow in de kast als je je zorgen maakt. Ding zit toch in ergens in een rack waar herrie niets uitmaakt. Het geen casemodding... Infraroodcamera's? Passieve koeling? Zelf airducts bouwen? Really?

Het is geen rocket-science. Iedereen hier maakt het 100x ingewikkelder dan het in werkelijkheid is.
Fabrikanten doen dit dus wel, ik geef alleen aan waar je rekening mee hoort te houden bij het bouwen van een rackserver. Het valt me op hoe weinig mensen die zelf systemen bouwen meestal van electronica weten en hoe verbaasd ze dan zijn als na een paar jaar hun systeem spontaan overlijdt. Of als die mooi opgerolde sata kabeltjes toch niet zo goed blijken te communiceren..... Ik snap niet hoe je wel zeker weet dat we het 100x te ingewikkeld maken, maar niet zeker weet of het wel oke is om zelf een rackserver te bouwen.

Overigens is het wel wat eenvoudiger om een towerserver te bouwen aangezien hierin veel meer ruimte is. Maar dan nog kan je zelf niet tippen aan een next day onsite repair service van bijvoorbeeld een Dell of HP server.

  • Aardbol_23564
  • Registratie: Februari 2012
  • Laatst online: 07-10 11:07
Rolfie schreef op zondag 30 oktober 2016 @ 19:20:
[...]


Ik zie ene hoop dingen waarop ik :?
Bijna iedere nieuwe server heeft USB3, waarom USB3.1? Welke harddisk haalt dit? En USB voor Backup, kan... Maar dit was toch juist al de backup server?
unRAID icm met SSD, waarom? Voor een backup server? Ik heb liever gewoon stabiele hardware / configuratie. HP heeft ook hele mooie caching in de raid controller, en de mogelijkheid om een SSD cache te activeren. Waarom dan nog 3de partij software toevoegen. Klinkt leuk, maar waarom? Hoe meer je toevoegd hoe meer er mis kan gaan.
2U met 8 sloten? Waarom, wat ben je van plan? De meeste merk servers heb je zelf niet eens meer een PCI slot nodig voor normale configuratie.
Dell openmanage, sorry met het dit geef je juist aan dat je er eigen geen verstand van hebt, en jij niet de man bent om hier over te denken.

Ik zie een hobbyist die iets leuks denkt meer te zetten en een paar euro's denkt te besparen. Goedkoop is bijna altijd duurkoop in dit soort trajecten. Het werkt totdat het fout gaat, of de hobbyist weg gaat. Dan mag iemand anders de puin ruimen.

Sorry maar mijn advies is, vooral niet doen.
Bedankt voor je reactie.

Het zou zeker niet voor een backup systeem zijn, maar voor de host. Dat zou ik, alleszins op dit moment zonder veel ervaring op server vlak, allesbehalve willen overwegen. Ik heb al beschreven in een andere post wat erop zou draaien. Bij het meeste mag er downtime zijn, zolang de storage beschikbaar blijft (eventueel tijdelijk via het internet: cloud opslag, lees: onedrive, box, ...maar moet dan wel constant in sync zijn). Een andere zaak waarvoor de grootste uptime moet zijn is het netwerk zelf, dit wordt door de server beheerd.

USB 3.1 wordt door mijn offsite raid wel ondersteund en heb er de goede kanten al wel mee ervaren (RAID 0). Zelfs met mijn USB 3.0 stick (duur type) haal ik veel betere seq snelheden via 3.1. Dus enkel om die reden is dat het overwegen waard. Want soms moeten er TB's aan backup seeds worden overgezet om ergen naartoe te transporteren, dus hoe sneller dat die worden overgezet hoe beter. Nu gaat dat aan een miezerige en irritante 30MB/s USB 2.0 snelheid. Ik las trouwens ook ergens dat USB 3.1 tegenover 3.0 minder overhead heeft, dus vandaar de hogere snelheden al denk ik.

2U omdat de host zou gebruikt worden als host (duh) voor de VMs, maar ook voor alle storage. De SSD cache zou de prestaties en ervaringen veel kunnen verbeteren. Nu ligt het gans systeem (RDS, storage = aparte NAS, maar ook alles...) plat als iemand honderden gigabytes op onze multimediaschijf zit te plaatsen...

Ik ga dat van die RAID cache bij HP servers toch eens opzoeken. Lijkt mij heel interessant.
En met DELL OpenManage bedoelde ik eigenlijk iDrac. Maar je maakt toch een goed punt dat ik er zelf misschien toch niet aan begin. Hoewel ik het graag zou doen, is het misschien toch niet de goeie weg...

Als de componenten (lees: moederbord en HDDs) niet minstens 5 jaar beschikbaar zijn (als er 5 jaar garantie op is, zou dat toch zo zijn?), dan zou dat echt de grootste reden zijn om het niet te doen.

  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 16:40

MAX3400

XBL: OctagonQontrol

Aardbol_23564 schreef op zondag 30 oktober 2016 @ 22:34:
[...]
...Bij het meeste mag er downtime zijn, zolang de storage beschikbaar blijft (eventueel tijdelijk via het internet: cloud opslag, lees: onedrive, box, ...maar moet dan wel constant in sync zijn).
...
2U omdat de host zou gebruikt worden als host (duh) voor de VMs, maar ook voor alle storage.
Jaja, dus als de CPU het begeeft, ben je niet alleen al je VMs offline aan het halen maar ook de storage.
Een andere zaak waarvoor de grootste uptime moet zijn is het netwerk zelf, dit wordt door de server beheerd.
Je weet zelf dat dit niet kan kloppen?
USB 3.1 wordt door mijn offsite raid wel ondersteund en heb er de goede kanten al wel mee ervaren (RAID 0).
RAID, in welke vorm dan ook, is geen backup. Sterker nog; ik durf te beweren dat als je nu RAID0 gebruikt voor je storage en/of je backup, dat je onmiddelijk hiermee moet stoppen en een professioneel bedrijf moet gaan bellen om als de donder alles voor je te regelen.
2U omdat de host zou gebruikt worden als host (duh) voor de VMs, maar ook voor alle storage.
Handig... Hyper-V zeker (want je startpost wil een Windows Server OS draaien)? Dan raad ik je aan om alle whitepapers eens door te gaan lezen want wat je wil kan wel maar wordt 100% afgeraden door ongeveer de hele wereld.
2U omdat de host zou gebruikt worden als host (duh) voor de VMs, maar ook voor alle storage.
...
Nu ligt het gans systeem (RDS, storage = aparte NAS, maar ook alles...) plat als iemand honderden gigabytes op onze multimediaschijf zit te plaatsen...
Best handig (zie eerdere opmerking); je hebt dus gewoon een enorm bottleneck in ieder geval op je netwerk. Waarschijnlijk veroorzaakt door het niet inrichten van VLANs, QoS, etc. Maar het lijkt je wel een goed idee om nu alles in een 2U-hok te trappen en dan daar alles naartoe te kopieren/RDS'en/whatever? Uiteindelijk zal je wederom tegen de limieten van je switches/outlets aanlopen en heb je een investering van 6K gedaan en meer SPOF's gecreeerd!
Als de componenten (lees: moederbord en HDDs) niet minstens 5 jaar beschikbaar zijn (als er 5 jaar garantie op is, zou dat toch zo zijn?), dan zou dat echt de grootste reden zijn om het niet te doen.
Niet lezen? 5 jaar garantie betekent niet dat er 5 jaar lang binnen een paar uur iemand op de stoep staat. WDC SAS-disks hebben een turnaround als "consumer" van minstens 2 werkdagen. Intel (of degene waar je de CPU hebt gekocht) zal een turnaround hebben van 4 werkdagen minstens indien een CPU niet ergens in de winkel op de plank ligt. HP/Dell/noemzeop hebben dit dus wel. Maar gezien het feit dat noch jij noch je ICT-partij noch je beheerders dit weten, doet me vermoeden dat dit topic wederom een insteek heeft van "dubbeltje op de eerste rij zitten".

Neemt niet weg dat jouw baas waarschijnlijk allang heeft verteld dat 5 tot 10 dagen geen server goedkoper is in alle bijkomende kosten en lasten dan een service-contract voor 5 jaar op een gerenommeerd merk machine?

[ Voor 6% gewijzigd door MAX3400 op 30-10-2016 22:46 ]

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


  • Gomez12
  • Registratie: Maart 2001
  • Laatst online: 17-10-2023
Aardbol_23564 schreef op zondag 30 oktober 2016 @ 22:34:
[...]
Bij het meeste mag er downtime zijn, zolang de storage beschikbaar blijft (eventueel tijdelijk via het internet: cloud opslag, lees: onedrive, box, ...maar moet dan wel constant in sync zijn). Een andere zaak waarvoor de grootste uptime moet zijn is het netwerk zelf, dit wordt door de server beheerd.
Als er iets downgaat op je zelfgebouwde server dan gaat alles down. Ik weet niet wat je denkt, maar qua hardware is het down of up en windows volgt gewoon de hardware.
Oftewel er mag geen downtime zijn.
Als de componenten (lees: moederbord en HDDs) niet minstens 5 jaar beschikbaar zijn (als er 5 jaar garantie op is, zou dat toch zo zijn?), dan zou dat echt de grootste reden zijn om het niet te doen.
Nope, garantie != verkooptijd.
Qua garantie kan een fabrikant nog wel wat hebben liggen maar die gaat hij niet verkopen.
Of nog erger, de fabrikant kan enkel onderdelen hebben liggen en als het echt moet uit garantie dat hij dan iemand 3 weken handmatig laat schroeven omdat de assemblage machine anders ingesteld is.
Of reeeler, de fabrikant ruilt gewoon een 1TB drive om voor een andere 1TB drive, over 5 jaar verkoopt hij nog wel 1TB drives en de consument maakt type-nrs toch niets uit en als het sneller is dan eerst dan is het toch beter...

Maar dan kan je denk ik het hele idee wel laten varen, want ik ken geen enkele dealer die in de pc-markt gaat garanderen dat hij over 5 jaar nog model x/y/z kan leveren, wellicht dat hij zegt dat hij dit wel verwacht, maar qua garantie moet je dat zwart op wit krijgen, niemand die dat doet.
De enige partijen die dat doen zijn nou net de partijen die jou 2,5x de prijs rekenen zodat ze er 1 op de plank kunnen laten liggen voor over 5 jaar. En dan is je voordeel weer weg.

Dit soort berust op gokwerk en risico inschatten en vooral : Volume... Daarom zeg ik ook dat je het bij je it-partner oid moet neerleggen (als je al een zelf-bouw wilt) als die 100 dezelfde hdd's op jaarbasis verkoopt dan kan hij 5% extra rekenen en er 5 op de plank gooien voor de reparaties etc.
Ditzelfde doet een HP/Dell ook, alleen dan op basis van miljoenen hdd's...
Dat kan jij niet doen met 1 HDD dat is economisch niet haalbaar.

  • downtime
  • Registratie: Januari 2000
  • Niet online

downtime

Everybody lies

Aardbol_23564 schreef op zondag 30 oktober 2016 @ 22:34:
[...]

Als de componenten (lees: moederbord en HDDs) niet minstens 5 jaar beschikbaar zijn (als er 5 jaar garantie op is, zou dat toch zo zijn?), dan zou dat echt de grootste reden zijn om het niet te doen.
Je hebt mijn post niet gelezen. Consumentenspul is vaak niet 5 jaar beschikbaar. In veel gevallen wordt bij een defect onder garantie gewoon een "vergelijkbaar product" van een nieuwere generatie geleverd. Weinig consumenten die dat een probleem vinden als hun 4 jaar oude defecte harddisk door een grotere/snellere disk van de nieuwste generatie vervangen wordt. Maar jij wilt in je RAID set liever geen afwijkend type disk.

  • Gomez12
  • Registratie: Maart 2001
  • Laatst online: 17-10-2023
MAX3400 schreef op zondag 30 oktober 2016 @ 22:43:
[...]
Neemt niet weg dat jouw baas waarschijnlijk allang heeft verteld dat 5 tot 10 dagen geen server goedkoper is in alle bijkomende kosten en lasten dan een service-contract voor 5 jaar op een gerenommeerd merk machine?
Geen server is wel erg overdreven gezegd.
Hij heeft dan toch wel de beschikking over zijn eigen USB-nas met USB-3.1 dus de storage is afgedekt (voor 2 seconden totdat die op zijn bek gaat)

@TS : Misschien dat je je AD ook wel periodiek naar een Samba install op een Raspberry Pi (niet de case erbij bestellen, dat is enkel zonde geld, zo'n Pi kan wel tegen een beetje stof) kan exporteren, dan is je netwerk ook gecovered.
En dan kan TS rustig wachten totdat de server gefixed is.

"Ik zie het probleem niet"

offtopic:
Oh wacht, bij nader nadenken zie ik ontelbaar veel problemen maar waarom dit topic daarmee vermoeien, gewoon doen en zien waar het schip strandt, vinden directeurs altijd leuk om te horen

  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 16:40

MAX3400

XBL: OctagonQontrol

downtime schreef op zondag 30 oktober 2016 @ 23:02:
[...]

Maar jij wilt in je RAID set liever geen afwijkend type disk.
Het kan wel middels Windows Storage Spaces maar gezien de algemene vraagstelling/kennis, zal de opstelling wel weer een ouderwetse RAID-opstelling worden met jurassic partities etc...
Gomez12 schreef op zondag 30 oktober 2016 @ 23:02:
[...]

Geen server is wel erg overdreven gezegd.
Hij heeft dan toch wel de beschikking over zijn eigen USB-nas met USB-3.1 dus de storage is afgedekt (voor 2 seconden totdat die op zijn bek gaat)
Je bedoelt dat spul waarvan eerder is gezegd dat "de multimedia-schijf" het netwerk op zijn bek trekt als iemand teveel kopieert en wordt vervangen door het nieuwe hardware?
@TS : Misschien dat je je AD ook wel periodiek naar een Samba install op een Raspberry Pi (niet de case erbij bestellen, dat is enkel zonde geld, zo'n Pi kan wel tegen een beetje stof) kan exporteren, dan is je netwerk ook gecovered.
AD != netwerk... Blij dat er nog iemand is in dit topic die een machine en service inzet om "het netwerk" aan te sturen/coveren... :X En voor zover ik weet/lees is er iemand anders die "het beheer" doet en ongetwijfeld een correcte LDIFDE-export heeft gescript elke nacht.

[ Voor 22% gewijzigd door MAX3400 op 31-10-2016 07:50 ]

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


  • Equator
  • Registratie: April 2001
  • Laatst online: 28-11 20:09

Equator

Crew Council

#whisky #barista

Aardbol_23564 schreef op zondag 30 oktober 2016 @ 00:17:
Graag hoor ik jullie meningen & advies.

Bedankt O+
Mijn mening is dat je voor een bedrijf niet zelf moet gaan knutselen met hardware om een "server" in elkaar te schroeven. (Tenzij je Amazon heet en hier in gespecialiseerd bent).

Ik adviseer je dan ook om te kijken naar merken anders dan HPE, DELL, IBM etc. Er zijn legio leveranciers die dit voor je kunnen en je support kunnen geven. Natuurlijk 'leer' jij er dan niet van.
Mijn tweede advies is dan om rond te kijken in Complete Systemen & Laptops

Let op met benamingen. Zoals in dit topic ook gemeld. Een desktop-computer of een Raspberry-PI kan ook een server zijn. Het wel of geen server zijn wordt bepaald wat je er mee doet. Als ik Windows 10 en MS Word draai op een DL380 dan is het geen server, maar een werkstation. Als ik een webserver draai op een Raspberry-Pi, dan is dat een server.

Dit topic gaat verder op slot, omdat het niets met Professional Networking & Servers te maken heeft, en er zijn al voldoende topics in andere sub-fora waar over servers maken wordt gesproken.

[ Voor 9% gewijzigd door Equator op 31-10-2016 11:39 ]

Pagina: 1

Dit topic is gesloten.