Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

High availability NAS cluster Active-Active

Pagina: 1
Acties:

Vraag


  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
Ik zoek een betrouwbare simpele oplossing om een NAS HA cluster op te zetten voor een ESXI HA cluster waarop virtuele servers staan voor klanten van een klein ICT Service bedrijf.

Heeft iemand suggesties? OpenFiler vind ik niet echt super, ik heb gehoord dat ZFS replication met FreeNas misschien wel een oplossing is? Het liefst heb ik een twee active nodes in de HA cluster i.p.v. Active-Passive....

Alle suggesties zijn welkom!

1: het moet zo weinig mogelijk kosten, heb niet specifiek een prijs. Als het platgaat? Geen idee om eerlijk te wezen ben een stagiar die dit als afstudeer project doet.
2. IOPS weet ik ook niet, het enige dat ik weet is dat er wel iets van 30 machines op staan met windows server. Het is voor een klein ICT service bedrijf.
3. Ik heb een NFS Data volume en een ISCSI target. Het zijn SAS schijven die in de NAS zitten.
4. Hardware acceleration ja volgens mij wel.
5. VCenter gebruik ik voor de HA cluster, geen Vmotion.
6. Ik heb Openfiler geprobeerd wat best wel verouderd is en heb besloten om wat anders te gaan proberen. Synology met Xpenology werkt niet want dan krijg ik een foutmelding dat de poort gesloten is wat helemaal niet zo is, dus vermoed dat het moederbord niet ondersteund wordt.

[ Voor 47% gewijzigd door xavier91 op 13-03-2017 09:12 ]

Beste antwoord (via xavier91 op 13-03-2017 16:30)


  • Dennism
  • Registratie: September 1999
  • Laatst online: 15:34
xavier91 schreef op maandag 13 maart 2017 @ 15:37:
Ik heb het nog even gevraagd aan m'n baas, het gaat om een ESXI cluster met 10 virtuele machines. We hebben nog geen NAS hardware aangeschaft dus dat moet ik helemaal zelf bepalen.

Meer kan ik er ook niet van maken. Met deze kritiek kan ik ook niet veel.
Dan moet je dus niet gaan beginnen met het kiezen van software.

Ga eerst kijken naar de huidige situatie, wat voor storage is er nu, hoeveel IOPS kan deze leveren bij de workloads in de huidige situatie, hoeveel IOPS heb je nodig bij normale en piek belasting (dit zijn allemaal zaken die je kan testen als de fabrikant deze info al niet opgegeven heeft)

Ga ook kijken naar de huidige storage waarom voldoet deze niet, wat is er mis mee en waarom is dat een probleem met de huidige storage.

Ga daarna kijken naar de toekomst een EXSI cluster met 10 VM's op dit moment, verwachten ze daar over een jaar nog steeds met 10 VM's te draaien, of verwachten ze groei, zo ja wat voor groei. En hoeveel over bijv. 3 jaar.

Stel daarna de eisen op voor de nieuwe storage.

Denk aan onder andere:
1. stabiliteit, hoeveel downtime mag er zijn, incl standaard maintenance per tijdsperiode. Wat voor garanties worden er verkocht aan klanten die waargemaakt dienen te worden. Moeten er service contracten kunnen worden afgesloten?
2. Capaciteit, hoeveel storage is er nu nodig, hoeveel wordt er verwacht tijdens de levensduur van het cluster totaal nodig te zijn, is dit eenvoudig uit te breiden, en welke risico's zitten daar aan vast.
3. Performance, het aantal IOPS dat je nodig hebt en denkt nodig te hebben in de toekomst, is bijv. het opschalen naar meer performance eenvoudig.
4. Eventuele wensen voor de toekomst. denk aan SSD caching, storage tiering, misschien vandaag niet van toepassig, maar stel er komt een klant die zijn SQL servers op een SSD storage tier wil hebben omdat zijn applicatie vendor dit aanbeveelt, kun je daar dan gemakkelijk op inspringen of niet, of er komt een klant met meerdere terabytes aan exchange archief mailboxen, wil je dit op je dure snelle storage hebben staan, of moet er makkelijk een shelve met bijv. 7k2 schijven aangesloten kunnen worden om een aparte storage pool te maken.
5. Je budget, erg belangrijk in de meeste gevallen ;)

Wanneer je dit allemaal op een rijtje hebt, ga dan kijken naar welke hardware / software voldoen aan deze eisen en stel vandaar uit een test traject voor. Zorg ook voor een test omgeving waarin je de load van de productie omgeving op dit moment kan nabootsen, maar ook bijv. de load die over 1 jaar of 3 jaar verwacht wordt, dan kan je goed meten of op de getest oplossing ook toekomst bestendig is.
xavier91 schreef op maandag 13 maart 2017 @ 15:37:
Uptime is helemaal niet belangrijk
Nu mis ik toch wat context, in de openingspost geef je aan dat er VM's voor klanten op het platform gedraaid worden. De eerste klant die uptime niet een van de belangrijkste, zo niet de belangrijkste factor vind moet ik nog tegenkomen :o

[ Voor 6% gewijzigd door Dennism op 13-03-2017 16:01 ]

Alle reacties


  • DiedX
  • Registratie: December 2000
  • Laatst online: 15:27
Hoeveel mag het kosten? Hoeveel kost het als je plat gaat?

DiedX supports the Roland™, Sound Blaster™ and Ad Lib™ sound cards


  • Vorkie
  • Registratie: September 2001
  • Niet online
Hoeveel IOPS verwacht je? Welke type schijven wil je gaan inzetten? Hoe ga je de back-up regelen? Hoe wil je dat het support contract eruit ziet? Welke type verbinding wil je maken (NFS? ISCSI? Of via HBA?) Wil je hardware acceleration? Maak je gebruik van vCenter? Heb je vMotion in gebruik?

Zoals je ziet zijn er vele vragen, dus misschien iets meer uittypen wat je nu precies wilt bereiken (en wat je al bereikt hebt)

[ Voor 11% gewijzigd door Vorkie op 10-03-2017 17:35 ]


  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
Ik heb het bijgewerkt, moet vandaag weer aan de slag met het project! Bedankt voor de e.v.t tips. Denk nu dat ik FreeNas met ZFS eens ga proberen. Of misschien wel pacemaker met corosync... hmm.
*edit: de FreeNas forum is down, ik weet nog niet welke OS maar ik denk dat ik nu ZFS met GlusterFS ga proberen. Ik zou wel iets van support willen krijgen als de zooi plat gaat. *edit2: RHEL is betaald dus ik ga maar voor CentOS met ZFS en GlusterFS. Ik weet niet of GlusterFS ook nodig is maar als het me lukt doe ik dat ook erbij.

[ Voor 47% gewijzigd door xavier91 op 13-03-2017 10:28 ]


  • jimbo123
  • Registratie: November 2007
  • Laatst online: 26-03-2023
Wat dacht je van een HPE MSA 2040?
Ok, geen NAS maar een SAN... maar wel beter lijkt me zo.

  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
jimbo123 schreef op maandag 13 maart 2017 @ 11:00:
Wat dacht je van een HPE MSA 2040?
Ok, geen NAS maar een SAN... maar wel beter lijkt me zo.
Dan was het gelijk klaar geweest ja. Maar helaas hebben we het budget niet voor. Ik ga nu toch voor FreeNas met ZFS.

  • DiedX
  • Registratie: December 2000
  • Laatst online: 15:27
Even voor de duidelijkheid: ik heb het idee dat het hobby-niveau verschrikkelijk hoog is. Hoewel ik hobbien prima vind, gaat het nu wel over externe klanten.

Denk even over twee zaken na:

* Hoe groot is de kans dat je oplossing plat gaat? Hoe lang heeft een willekeurige partij nodig om het weer live te trekken?
* Hoe ga je de zaak documenteren? Jij bent weg binnen nu en hooguit 6 maanden, en daarna staat het kaartenhuis nog steeds. De volgende Xavier trekt een willekeurige kaart eruit, en dan?

Het is volgens mij een supergave opdracht die je gekregen hebt, maar ik (en vermoedelijk met mij de rest van tweakers) zie hier serieuze problemen in als het niet /goed/ opgepakt wordt.

DiedX supports the Roland™, Sound Blaster™ and Ad Lib™ sound cards


  • Dennism
  • Registratie: September 1999
  • Laatst online: 15:34
Zoals ik dit nu lees is dit (helaas) een disaster waiting to happen.

Tenzij je hier zeer ervaren mee bent zou ik niet snel beginnen aan een zelfbouw oplossing die ingezet moet worden voor Klant VM's. Als het nu een test opstelling zou zijn om te verifiëren of een oplossing as deze mogelijk is voor de toekomst ok, dan zou het nog kunnen maar direct iets in elkaar knutselen dat live gezet moet worden is imho echt een no-go.

Je geeft bijv. aan dat je het aantal IOPS niet weet, dit is toch wel essentiële info. Voordat je naar een oplossing kan gaan kijken zal je toch echt moeten weten.

1. Hoeveel IOPS heb je nu nodig.
2. Hoeveel IOPS verwacht je in de toekomst nodig te hebben (hoe schaalbaal moet de storage zijn).
3. Wat voor downtime is acceptabel (als jullie aan de klanten bijv. een 99% SLA afgeven, zal de storage ook moeten voldoen om deze 99% te bewerkstelligen).
4. Hoeveel storage heb je nu en in de toekomst nodig, en is deze eenvoudig uit te breiden zonder idioot lange rebuilds met performance degradatie.
5.Is er nu of in de toekomst bijv. SSD caching of tiering nodig en is de storage hier op voorbereid.
6. In dit geval documentatie en overdracht zoals DiedX ook al opmerkt.

Dit is imho iets dat je niet zomaar als stagiar even in regelt zonder een zeer gedegen traject van vooronderzoek e.d. (dat dan wel weer een mooie stage opdracht is). Er kleven behoorlijke risico's aan een niet correct opgezette storage infra stuctuur.

  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
Ik heb nu een werkend testomgeving met 3 ESXI servers en 2 Nas met FreeNas geinstalleerd. 1x NFS 1x ISCSI. nu ga ik proberen ZFS replication op te zetten.

1 en 2. Er komen machines bij en gaan weer weg, ik ga ervan uit dat mijn baas weet welke hardware voldoende is voor de IOPS.
3. Zo min mogelijk natuurlijk alles is een + en verbetering op de huidige situatie dat is mijn doelstelling.
4 en 5. Het kan zijn dat in de toekomst het geupgrade wordt, dan is er weer iemand die er verstand van heeft en het kan aanpassen. Er komen voorlopig geen SSD's
6. Ik maak een gedetaileerde handleiding inclusief het process van het toevoegen van HDD's.

Het is een testomgeving en het is aan mij de taak om wegwijs te worden met ZFS replication. Zodra het werkt en ik ben ervan overtuigd dat het toegepast kan worden in de HA cluster in het datacenter voer ik het daar uit en documenteer ik alles voor de overdracht.

  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 28-11 16:59

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

xavier91 schreef op maandag 13 maart 2017 @ 14:49:
ik ga ervan uit dat mijn baas weet welke hardware voldoende is voor de IOPS.
Hier gaat het al fout.

Begin nu eerst eens met het fatsoenlijk bepalen van je eisen en wensen. In het geval van IOPS kun je nu simpelweg meten aan je huidige omgeving...

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
Ik heb het nog even gevraagd aan m'n baas, het gaat om een ESXI cluster met 10 virtuele machines. We hebben nog geen NAS hardware aangeschaft dus dat moet ik helemaal zelf bepalen. Uptime is helemaal niet belangrijk het gaat er gewoon om dat alle data veilig wordt gesteld, ik heb begrepen dat dit met ZFS replication gewoon kan.

Meer kan ik er ook niet van maken. Met deze kritiek kan ik ook niet veel.

[ Voor 22% gewijzigd door xavier91 op 13-03-2017 15:39 ]


  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 28-11 16:59

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

xavier91 schreef op maandag 13 maart 2017 @ 15:37:
Meer kan ik er ook niet van maken. Met deze kritiek kan ik ook niet veel.
Wat mis je dan aan de kritiek waarom je er niet veel mee kunt?

Er wordt door verschillende mensen al gevraagd naar de hoeveelheid IOPS die je nodig bent, en er wordt aangegeven dat je dat eenvoudig kunt meten op je huidige omgeving. Daar is verder geen rocket science aan.
xavier91 schreef op vrijdag 10 maart 2017 @ 16:51:
Ik zoek een betrouwbare simpele oplossing om een NAS HA cluster op te zetten

Het liefst heb ik een twee active nodes in de HA cluster i.p.v. Active-Passive....
xavier91 schreef op maandag 13 maart 2017 @ 15:37:
Uptime is helemaal niet belangrijk
Waarom in hemelsnaam een relatief dure oplossing, terwijl er helemaal niet om gevraagd wordt?

Pak gewoon een standaard oplossing van een leverancier, waar support op zit en zorg dat de backups goed geregeld zijn. Als uptime echt niet belangrijk is, is dat een prima oplossing...

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


Acties:
  • Beste antwoord

  • Dennism
  • Registratie: September 1999
  • Laatst online: 15:34
xavier91 schreef op maandag 13 maart 2017 @ 15:37:
Ik heb het nog even gevraagd aan m'n baas, het gaat om een ESXI cluster met 10 virtuele machines. We hebben nog geen NAS hardware aangeschaft dus dat moet ik helemaal zelf bepalen.

Meer kan ik er ook niet van maken. Met deze kritiek kan ik ook niet veel.
Dan moet je dus niet gaan beginnen met het kiezen van software.

Ga eerst kijken naar de huidige situatie, wat voor storage is er nu, hoeveel IOPS kan deze leveren bij de workloads in de huidige situatie, hoeveel IOPS heb je nodig bij normale en piek belasting (dit zijn allemaal zaken die je kan testen als de fabrikant deze info al niet opgegeven heeft)

Ga ook kijken naar de huidige storage waarom voldoet deze niet, wat is er mis mee en waarom is dat een probleem met de huidige storage.

Ga daarna kijken naar de toekomst een EXSI cluster met 10 VM's op dit moment, verwachten ze daar over een jaar nog steeds met 10 VM's te draaien, of verwachten ze groei, zo ja wat voor groei. En hoeveel over bijv. 3 jaar.

Stel daarna de eisen op voor de nieuwe storage.

Denk aan onder andere:
1. stabiliteit, hoeveel downtime mag er zijn, incl standaard maintenance per tijdsperiode. Wat voor garanties worden er verkocht aan klanten die waargemaakt dienen te worden. Moeten er service contracten kunnen worden afgesloten?
2. Capaciteit, hoeveel storage is er nu nodig, hoeveel wordt er verwacht tijdens de levensduur van het cluster totaal nodig te zijn, is dit eenvoudig uit te breiden, en welke risico's zitten daar aan vast.
3. Performance, het aantal IOPS dat je nodig hebt en denkt nodig te hebben in de toekomst, is bijv. het opschalen naar meer performance eenvoudig.
4. Eventuele wensen voor de toekomst. denk aan SSD caching, storage tiering, misschien vandaag niet van toepassig, maar stel er komt een klant die zijn SQL servers op een SSD storage tier wil hebben omdat zijn applicatie vendor dit aanbeveelt, kun je daar dan gemakkelijk op inspringen of niet, of er komt een klant met meerdere terabytes aan exchange archief mailboxen, wil je dit op je dure snelle storage hebben staan, of moet er makkelijk een shelve met bijv. 7k2 schijven aangesloten kunnen worden om een aparte storage pool te maken.
5. Je budget, erg belangrijk in de meeste gevallen ;)

Wanneer je dit allemaal op een rijtje hebt, ga dan kijken naar welke hardware / software voldoen aan deze eisen en stel vandaar uit een test traject voor. Zorg ook voor een test omgeving waarin je de load van de productie omgeving op dit moment kan nabootsen, maar ook bijv. de load die over 1 jaar of 3 jaar verwacht wordt, dan kan je goed meten of op de getest oplossing ook toekomst bestendig is.
xavier91 schreef op maandag 13 maart 2017 @ 15:37:
Uptime is helemaal niet belangrijk
Nu mis ik toch wat context, in de openingspost geef je aan dat er VM's voor klanten op het platform gedraaid worden. De eerste klant die uptime niet een van de belangrijkste, zo niet de belangrijkste factor vind moet ik nog tegenkomen :o

[ Voor 6% gewijzigd door Dennism op 13-03-2017 16:01 ]


  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
Question Mark schreef op maandag 13 maart 2017 @ 15:53:
[...]

Wat mis je dan aan de kritiek waarom je er niet veel mee kunt?

Er wordt door verschillende mensen al gevraagd naar de hoeveelheid IOPS die je nodig bent, en er wordt aangegeven dat je dat eenvoudig kunt meten op je huidige omgeving. Daar is verder geen rocket science aan.


[...]


[...]

Waarom in hemelsnaam een relatief dure oplossing, terwijl er helemaal niet om gevraagd wordt?

Pak gewoon een standaard oplossing van een leverancier, waar support op zit en zorg dat de backups goed geregeld zijn. Als uptime echt niet belangrijk is, is dat een prima oplossing...
Dure oplossing? FreeNas is gratis, er wordt gevraagd om de data veilig te stellen met een redundant nas voor het geval de andere nas uitvalt. Ik ben nu aan het werk op 2 DL385 G2's.... Met SAS schijfjes....

Ik kan verder niet bij de omgeving dus kan ook niks meten het staat in de TCN groningen. Wat mis ik aan de kritiek? Concrete oplossingen, ik ben aan het vissen naar advies naar wat voor oplossing ik moet kiezen hiervoor. Tot zover lijkt FreeNas met ZFS mij voldoende hiervoor. ZFS maakt de datastorage natuurlijk wel aanzienlijk trager, ik moet dus wel op een of andere manier uitvogelen wat voor snelheid we nodig hebben wat de treshold is.

Behalve dat, de argumenten die benoemd worden kan ik praktisch niet toepassen, we draaien alleen maar rondjes zo. Maar alsnog kan ik als leek deze advies wel op prijs stellen. Dit soort dingen zijn wel belangrijk om in gedachten te houden natuurlijk, maar voor 10 machines lijkt het mij wel irrelevant.

[ Voor 9% gewijzigd door xavier91 op 13-03-2017 16:18 ]


  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

@xavier91 De reden dat je geen concrete producten en configuraties aangereikt krijgt is omdat je hier helemaal niks aan hebt. Je weet zelf eigenlijk niet eens waar de oplossing aan moet voldoen, hoe verwacht je dan om concreet advies te krijgen?

FreeNAS is gratis software, de hardware die er onder zit kost veel geld. Je wilt twee systemen neerzetten die active-active zijn en zegt later dat uptime niet relevant is. Wat moet je dan met een active-active systeem?

Mijn advies: Stop hiermee. Je hebt geen idee waar je mee bezig bent en tenzij je jezelf echt gaat bijspijkeren op dit gebied ga je je klant een waardeloos advies geven wat hem enkel geld gaat kosten.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 28-11 16:59

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

xavier91 schreef op maandag 13 maart 2017 @ 16:10:
[...]
Wat mis ik aan de kritiek? Concrete oplossingen, ik ben aan het vissen naar advies naar wat voor oplossing ik moet kiezen hiervoor.
Een concrete oplossing ga je hier niet krijgen, zeker niet in PNS. Wel willen we jouw oplossingen gaan toetsen aan hetgeen je moet bereiken. En om dat laatste te kunnen bepalen hebben wij je requirements toch echt nodig. En die lijken niet echt opgesteld te zijn.
xavier91 schreef op maandag 13 maart 2017 @ 16:10:
[...]
Dure oplossing? FreeNas is gratis,
Nee hoor... Als je ondersteuning wilt (en dat wil je in een omgeving waar jij aangeeft dat de data veilig moet staan), zit je vast aan hun gecertificeerde hardware.

Ik heb net op Google even gezocht op prijzen, de goedkoopste (zonder disken) kost ongeveer 1100 euro... Reken op twee stuks, dus op ongeveer 2000 euro....

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
@Tsurany

Dit soort kritiek bedoel ik nou, wat moet ik hiermee? Adviseer je me om te stoppen met mijn opleiding? Achteraf bleek dat het niet perse nodig is om een active-active te hebben, als het een half uurtje uitstaat is geen fukushima ramp of dergelijke. Wat denk je dat ik nu mee bezig ben dan? Informatie vergaren en wegwijs worden met het systeem.

Stop eens met stoken. De enige persoon die hier nog goeie intenties heeft gehad is DennisM de rest zit alleen maar op te naaien. Wat is dat nou voor advies om te stoppen.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 15:34
xavier91 schreef op maandag 13 maart 2017 @ 16:10:
[...]


Dure oplossing? FreeNas is gratis, er wordt gevraagd om de data veilig te stellen met een redundant nas voor het geval de andere nas uitvalt. Ik ben nu aan het werk op 2 DL385 G2's.... Met SAS schijfjes....

Ik kan verder niet bij de omgeving dus kan ook niks meten het staat in de TCN groningen. Wat mis ik aan de kritiek? Concrete oplossingen, ik ben aan het vissen naar advies naar wat voor oplossing ik moet kiezen hiervoor. Tot zover lijkt FreeNas met ZFS mij voldoende hiervoor. ZFS maakt de datastorage natuurlijk wel aanzienlijk trager, ik moet dus wel op een of andere manier uitvogelen wat voor snelheid we nodig hebben wat de treshold is.

Al de argumenten die benoemd worden kan ik praktisch niet toepassen, we draaien alleen maar rondjes zo. Maar ik moet zeggen dat ik het wel waardeer deze suggesties. Dit soort dingen zijn wel belangrijk om in gedachten te houden natuurlijk, maar voor 10 machines lijkt het mij wel irrelevant.
Het punt is dat je concrete oplossingen niet kan aanleveren zonder veel zo niet alle relevante informatie, zonder informatie kan hier nooit redelijk exact aangegeven worden waarna je zou moeten gaan kijken. Ik wil best tegen je zeggen FreeNAS + ZFS is geweldig voor wat je wil gaan doen, maar als jij dan straks na 6 maand oid met een oplossing komt die totaal niet voldoet is je stage ook redelijk mislukt.

Jij vind misschien dat hier in het topic rondjes gedraaid wordt, echter proberen de meeste posters in dit topic je uit te leggen dat je huidige handelswijze voor een project als dit gewoon niet voldoet en je het probleem op een andere manier moet aanvliegen, wat tot een beter eindresultaat zal leiden. Wanneer jij alle relevante informatie op tafel legt, kunnen wij hier een stuk beter adviseren.

Wil je stagewerkgever deze informatie niet aan jou beschikbaar stellen, of jou deze informatie niet laten verzamelen zou ik zelf persoonlijk heel hard overwegen de opdracht in te leveren, want dan lijkt er mijn inziens ook geen eer aan te behalen en ga je niets leren in deze stage periode krijg ik het idee helaas.

Hou er ook rekening mee dat niets gratis is. Freenas kent misschien geen licentie kosten, maar dat is wat anders dan gratis. Zeker als je data veilig wil opslaan. Tijd is ook geld en een hobby oplossing kost meestal op de lange termijn meer geld dan een professionele oplossing, je bent vaak enkel initieel wat goedkoper uit.

Verder geef je nu aan dat je met 2x een HP DL385 G2 aan het testen bent, dit zijn machines uit 2006-2007. Ik ga er even van uit (hoe fout het ook is) dat je deze niet in productie gaat gebruiken. Dit maakt echter je test resultaten eigenlijk al vanaf de meet volledig onbruikbaar daar je hier nooit resultaten uit kan halen die te gebruiken zijn met hardware van nu op het gebied van stabiliteit, capaciteit en performance. Het enige dat je mogelijk kan aantonen is dat Freenas met ZFS kan repliceren tussen 2 machines, maar dat is ook al bekend zonder te testen.

  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 28-11 16:59

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

xavier91 schreef op maandag 13 maart 2017 @ 16:23:
Achteraf bleek dat het niet perse nodig is om een active-active te hebben, als het een half uurtje uitstaat is geen fukushima ramp of dergelijke.
Een half uur downtime is (maandelijks) gerekend een uptime van 99,9%. Dat is een behoorlijk hoge uptime. Die durf ik zelfs op dubbel uitgevoerde storage niet af te geven. ;)

Voor de rest, en dit roep ik even op persoonlijke titel, en niet als moderator (dit is niet een forumgedeelte waarin ik modereer), maar niemand zit te stoken. Dat je niet direct het antwoord krijgt waar je op zit te wachten, betekend niet dat we je niet helpen.

Maar kritische vragen zijn nu eenmaal de manier om antwoorden te krijgen. Houdt er rekening mee dat je niet de emotie van de vragen meekrijgt via een forum. De vragen en opmerkingen die geplaatst worden zijn vaak vriendelijker bedoeld dan ze misschien overkomen. :)

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
@Dennism

Bedankt voor het advies, hier kan ik wat mee. Ik ga deze punten eerst uit zoeken en op basis daarvan kiezen wat ik nodig heb. Ik denk dat het zo wel moet lukken!

  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
@Question Mark Dat begrijp ik hoor. Maar ik kreeg de indruk dat zijn kritiek niet echt opbouwend bedoeld was. In je vorig bericht begreep ik dat je gegoogled had naar NAS servers, welke waren dat dan?

Verwijderd

Dennism schreef op maandag 13 maart 2017 @ 16:31:
[...]
...
Het enige dat je mogelijk kan aantonen is dat Freenas met ZFS kan repliceren tussen 2 machines, maar dat is ook al bekend zonder te testen.
Voor TS heeft het als bijkomend voordeel dat hij leert werken met FreeNAS, ik krijg niet de indruk dat hij hier bekend mee is. Hij kan documentatie genereren hoe het uiteindelijk op de productie hardware geconfigureerd kan worden.

Zijn probleem blijft natuurlijk dat hij eerst moet uitzoeken wat de performance eisen zijn. En als hij die weet, dan weet hij feitelijk nog steeds niet op wat voor hardware FreeNAS deze performance haalt. Maar dat laatste zal hij nooit achter komen als hij niet weet hoe het werkt.

Eerlijk gezegd klinkt dit als een klein bedrijf zonder budget. Er moet iets komen, maar eigenlijk is het geld er niet. Niet optimaal voor een stage, waarbij je toch op zijn minst een begeleider verwacht met enige kennis van zaken die je duidelijk de vereisten kan communiceren.

Of anders, zoals eerder gezegd het uitzoeken van de eisen tot een stage opdracht maken. Daar ben je makkelijk net zo lang aan kwijt als het opzetten van een proefopstelling.
xavier91 schreef op maandag 13 maart 2017 @ 16:38:
@Question Mark Dat begrijp ik hoor. Maar ik kreeg de indruk dat zijn kritiek niet echt opbouwend bedoeld was. In je vorig bericht begreep ik dat je gegoogled had naar NAS servers, welke waren dat dan?
Ik zou kijken op https://www.ixsystems.com/ voor waar je aan moet denken voor enterprise ZFS servers. Kijk maar niet bij Oracle, dan wordt je niet vrolijk...

[ Voor 16% gewijzigd door Verwijderd op 13-03-2017 16:44 ]


  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
Verwijderd schreef op maandag 13 maart 2017 @ 16:41:
[...]

Voor TS heeft het als bijkomend voordeel dat hij leert werken met FreeNAS, ik krijg niet de indruk dat hij hier bekend mee is. Hij kan documentatie genereren hoe het uiteindelijk op de productie hardware geconfigureerd kan worden.

Zijn probleem blijft natuurlijk dat hij eerst moet uitzoeken wat de performance eisen zijn. En als hij die weet, dan weet hij feitelijk nog steeds niet op wat voor hardware FreeNAS deze performance haalt. Maar dat laatste zal hij nooit achter komen als hij niet weet hoe het werkt.

Eerlijk gezegd klinkt dit als een klein bedrijf zonder budget. Er moet iets komen, maar eigenlijk is het geld er niet. Niet optimaal voor een stage, waarbij je toch op zijn minst een begeleider verwacht met enige kennis van zaken die je duidelijk de vereisten kan communiceren.

Of anders, zoals eerder gezegd het uitzoeken van de eisen tot een stage opdracht maken. Daar ben je makkelijk net zo lang aan kwijt als het opzetten van een proefopstelling.
Dat klopt helemaal, het kost een hoop moeite voor mij om erachter te komen wat er precies nodig is. Dit is een ICT Service bedrijf dat voor kleine bedrijven diensten verleend en er is niet echt een SLA aanwezig waar uptime in gespecificeerd staat.

Om het kort op te somen:

1. Ik weet dat er een iscsi target moet komen en NFS storage ik weet alleen nog niet hoeveel GB.
2. Ik weet niet welke snelheden er behaald moeten worden, dit moet getest worden in de testomgeving en ideaal gezien zou ik op de productieomgeving dit moeten kunnen meten.

[ Voor 10% gewijzigd door xavier91 op 13-03-2017 16:47 ]


  • Dennism
  • Registratie: September 1999
  • Laatst online: 15:34
Verwijderd schreef op maandag 13 maart 2017 @ 16:41:
[...]

Voor TS heeft het als bijkomend voordeel dat hij leert werken met FreeNAS, ik krijg niet de indruk dat hij hier bekend mee is. Hij kan documentatie genereren hoe het uiteindelijk op de productie hardware geconfigureerd kan worden.
Dit zal inderdaad een voordeel zijn, nu ben ik zelf geen FreeNAS specialist, en ik zou me dan bijv. wel afvragen in hoeverre de wijze van configureren op hardware van 10 jaar oud nog relevant is voor een configuratie op huidige hardware. Ik kan me bijvoorbeeld voorstellen dat hier mogelijk toch zaken (flink) anders gaan, anderzijds kan het natuurlijk ook zijn dat er amper verschil in zit.

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 27-10 08:14

unezra

Ceci n'est pas un sous-titre.

xavier91 schreef op maandag 13 maart 2017 @ 16:23:
@Tsurany

Dit soort kritiek bedoel ik nou, wat moet ik hiermee? Adviseer je me om te stoppen met mijn opleiding? Achteraf bleek dat het niet perse nodig is om een active-active te hebben, als het een half uurtje uitstaat is geen fukushima ramp of dergelijke. Wat denk je dat ik nu mee bezig ben dan? Informatie vergaren en wegwijs worden met het systeem.
Ik ben het topic een beetje aan het doorlezen, maar een half uur per maand downtime is *veel*. Als ik dat op onze interne storage systemen bereik, heb ik echt wat uit te leggen aan mijn baas.

Wil niet zeggen dat we op iedere applicatie streven naar minder dan 30 minuten per maand downtime maar storage is je onderlaag. Juist op die onderlaag wil je een zo hoog mogelijke uptime. Door het redundant uit te voeren en active-active te draaien kun je zorgen voor hogere uptimes van de bovenliggende infra, maar dat is wel lastig en snel duur.

Als je pak 'm beet een NetApp koopt met dubbele controllers, kunnen die elkaar overnemen. Controller kan dus plat. Je data echter niet. Klappen de disks die er onder zitten, verlies je vrijwel altijd data tenzij je met realtime synchronisatie oplossingen gaat werken. (Denk aan DRBD achtige constructies.)

Dat is dus ook iets waar je over na moet denken. Hoe veel downtime per maand mag je hebben op applicatieniveau en *wanneer* mag die downtime optreden. Geplande downtime is over het algemeen acceptabeler dan ongeplande downtime, maar ook daar zijn grenzen aan.

Op veel applicaties mag ik veel meer downtime hebben per maand dan 30 minuten *mits* die downtime gepland en buiten kantoortijden is. Exact iedere dag een uur plat zou geen probleem zijn, als het maar is op momenten dat niemand werkt. Telefonie plat, ook buiten kantoortijden, mag in principe helemaal niet.
Stop eens met stoken. De enige persoon die hier nog goeie intenties heeft gehad is DennisM de rest zit alleen maar op te naaien. Wat is dat nou voor advies om te stoppen.
Soms is dat het beste advies. Ik heb het topic nog niet volledig doorgelezen, maar ik geef ook niet zelden het advies "besteed het uit aan iemand met verstand van zaken". Uiteindelijk gaat het er namelijk om wat voor je klant het beste is, niet waar jij persoonlijk het meeste van leert.

Ná Scaoll. - Don’t Panic.


Verwijderd

Dennism schreef op maandag 13 maart 2017 @ 16:48:
[...]
Dit zal inderdaad een voordeel zijn, nu ben ik zelf geen FreeNAS specialist, en ik zou me dan bijv. wel afvragen in hoeverre de wijze van configureren op hardware van 10 jaar oud nog relevant is voor een configuratie op huidige hardware. Ik kan me bijvoorbeeld voorstellen dat hier mogelijk toch zaken (flink) anders gaan, anderzijds kan het natuurlijk ook zijn dat er amper verschil in zit.
FreeNAS is niet meer dan een FreeBSD versie met een grafische schil. Wanneer de hardware goed ondersteund wordt door de gebruikte onderliggende FreeBSD, is de configuratie van de storage ongeacht de leeftijd van de hardware vergelijkbaar.

De hardware configuratie is dan natuurlijk wel een aandachtspunt. En als je echt zelf een server gaat bouwen, dan is de keuze van een HBA een studie op zich.

Hij kan dus met enig voorbehoud de oude machines gebruiken om bekend te worden met het gebruik van FreeNAS.

  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
unezra schreef op maandag 13 maart 2017 @ 16:55:
[...]


Ik ben het topic een beetje aan het doorlezen, maar een half uur per maand downtime is *veel*. Als ik dat op onze interne storage systemen bereik, heb ik echt wat uit te leggen aan mijn baas.

Wil niet zeggen dat we op iedere applicatie streven naar minder dan 30 minuten per maand downtime maar storage is je onderlaag. Juist op die onderlaag wil je een zo hoog mogelijke uptime. Door het redundant uit te voeren en active-active te draaien kun je zorgen voor hogere uptimes van de bovenliggende infra, maar dat is wel lastig en snel duur.

Als je pak 'm beet een NetApp koopt met dubbele controllers, kunnen die elkaar overnemen. Controller kan dus plat. Je data echter niet. Klappen de disks die er onder zitten, verlies je vrijwel altijd data tenzij je met realtime synchronisatie oplossingen gaat werken. (Denk aan DRBD achtige constructies.)

Dat is dus ook iets waar je over na moet denken. Hoe veel downtime per maand mag je hebben op applicatieniveau en *wanneer* mag die downtime optreden. Geplande downtime is over het algemeen acceptabeler dan ongeplande downtime, maar ook daar zijn grenzen aan.

Op veel applicaties mag ik veel meer downtime hebben per maand dan 30 minuten *mits* die downtime gepland en buiten kantoortijden is. Exact iedere dag een uur plat zou geen probleem zijn, als het maar is op momenten dat niemand werkt. Telefonie plat, ook buiten kantoortijden, mag in principe helemaal niet.


[...]


Soms is dat het beste advies. Ik heb het topic nog niet volledig doorgelezen, maar ik geef ook niet zelden het advies "besteed het uit aan iemand met verstand van zaken". Uiteindelijk gaat het er namelijk om wat voor je klant het beste is, niet waar jij persoonlijk het meeste van leert.
Ik heb nog even gesproken met mijn baas. Hij weet nog niet exact hoeveel hij er voor uitgeven maar het zoals ik begrijp heeft hij er best wel veel voor over. Zoals hij het verwoord wil hij gewoon geen omkijken erna maar dat als een machine uitvalt hij er zelf gewoon niet naar toe hoeft. Het mooiste zou wezen gewoon twee snelle nassen met Synology en HA cluster ofzo en klaar. Het project is wel uitdagend voor een studentje moet ik zeggen xD.

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 12:05

DukeBox

loves wheat smoothies

xavier91 schreef op maandag 13 maart 2017 @ 11:02:
Ik ga nu toch voor FreeNas met ZFS.
Je zou ook synology kunnen overwegen. vSphere gecertificeerd, garantie en support (afhankelijk van model 3 of 5 jaar) en HA out of the box (https://www.synology.com/...uration_with_Synology_NAS)

Duct tape can't fix stupid, but it can muffle the sound.


  • unezra
  • Registratie: Maart 2001
  • Laatst online: 27-10 08:14

unezra

Ceci n'est pas un sous-titre.

xavier91 schreef op maandag 13 maart 2017 @ 17:01:
[...]


Ik heb nog even gesproken met mijn baas. Hij weet nog niet exact hoeveel hij er voor uitgeven maar het zoals ik begrijp heeft hij er best wel veel voor over. Zoals hij het verwoord wil hij gewoon geen omkijken erna maar dat als een machine uitvalt hij er zelf gewoon niet naar toe hoeft. Het mooiste zou wezen gewoon twee snelle nassen met Synology en HA cluster ofzo en klaar. Het project is wel uitdagend voor een studentje moet ik zeggen xD.
Als hij er toch redelijk wat geld voor over heeft, waarom kijk je dan niet ook naar iets als NetApp?

Sowieso vind ik dat je NetApp of een andere grote storage partij mee moet nemen in je vergelijk, al was het alleen al om vergelijkingsmateriaal te hebben.

Laat je daarin wel adviseren door een externe partij die dagelijks dit soort spullen verkoopt, die kunnen je namelijk ook aangeven wat de voordelen en werkelijke kosten (TCO) zijn van zo'n apparaat.

Soms lijkt zo'n A-merk SAN in eerste instantie duurder dan een zelfbouw machine, maar blijkt het in de praktijk juist veel goedkoper te zijn of features te hebben die je bij FreeNAS of andere (semi) zelfbouwoplossing helemaal niet hebt.

Ander ding, kijk je serieus naar FreeNAS, kijk dan *zeker* ook naar de commerciële variant met hardware en andere op ZFS gebaseerde systemen. Zie bijvoorbeeld: https://www.ixsystems.com/truenas/

Ik ben een groot voorstander van Open Source systemen en we gebruiken heel wat OSS in het bedrijf, maar onze core storage is een NetAp FAS2220 met dubbele controllers en extra shelf. (12 + 24 disks, waar we d'r 2 van hebben die kruislings repliceren over 2 geografisch gescheiden locaties)

Absoluut interessant hier zelf onderzoek naar te doen, maar voel je ook niet te groot te praten met een aantal leveranciers die zo'n kant- en klare oplossing leveren en jou kunnen adviseren wat je moet aanschaffen.

Ná Scaoll. - Don’t Panic.


  • Reloader
  • Registratie: Februari 2006
  • Laatst online: 27-11 20:37
is hyperconverged niet een optie? storvirtual of VSAN?

  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
Reloader schreef op dinsdag 21 maart 2017 @ 13:36:
is hyperconverged niet een optie? storvirtual of VSAN?
Ik had voorgesteld om twee synology RS815+ met ssd's te halen kwam op 2000 euro uit. Is te duur zegt mijn baas. Hier lees ik allemaal voorstellen van 10000 euro +......

Ik weet het niet meer, volgens mij krijg ik een onvoldoende voor mn afstu project.

  • Luqq
  • Registratie: Juni 2005
  • Laatst online: 13:57
Kijk eens naar Ceph :)

  • Reloader
  • Registratie: Februari 2006
  • Laatst online: 27-11 20:37
xavier91 schreef op donderdag 23 maart 2017 @ 10:55:
[...]


Ik had voorgesteld om twee synology RS815+ met ssd's te halen kwam op 2000 euro uit. Is te duur zegt mijn baas. Hier lees ik allemaal voorstellen van 10000 euro +......

Ik weet het niet meer, volgens mij krijg ik een onvoldoende voor mn afstu project.
Voor een duppie op de eerste rang zitten dat gaat niet,

HP VSA 4TB licentie voor max 3 host kost ook algauw 1600 euro excl BTW

welk bedrijf is dat, want dan moeten we daar wegblijven :P

[ Voor 5% gewijzigd door Reloader op 23-03-2017 11:09 ]


  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

xavier91 schreef op donderdag 23 maart 2017 @ 10:55:
[...]


Ik had voorgesteld om twee synology RS815+ met ssd's te halen kwam op 2000 euro uit. Is te duur zegt mijn baas. Hier lees ik allemaal voorstellen van 10000 euro +......

Ik weet het niet meer, volgens mij krijg ik een onvoldoende voor mn afstu project.
Dit is het moment om met je stagebegeleider vanuit je opleiding te praten. Geef aan dat het bedrijf te weinig budget heeft om een goede oplossing neer te zetten en jij je er niet comfortabel bij voelt om een goedkopere oplossing neer te zetten.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


  • jimbo123
  • Registratie: November 2007
  • Laatst online: 26-03-2023
Je moet gewoon een oplossing van 10.000 euro+ aanbevelen in je verslag.
Dit is technisch de beste oplossing en ook echt niet abnormaal voor een situatie als deze.

Vervolgens is je eindconclusie dat het budget van < 2.000 euro niet toereikend is. Eventueel kun je nog een financiering op basis van lease bekijken.

De opdracht kan naar mijn idee gewoon voldoende uitgevoerd zijn indien de oplossing waar je mee komt voldoet aan alle voorwaarden. Dat er geen budget is geeft alleen aan dat het bedrijf niet professioneel bezig is, maar zeker niet dat jij je werk niet goed gedaan hebt.

Sterker nog, als je met een "oplossing" van < 2.000 euro komt voor een situatie als deze dan zou ik je opdracht juist afkeuren wegens "houtje touwtje"

  • Dennism
  • Registratie: September 1999
  • Laatst online: 15:34
xavier91 schreef op donderdag 23 maart 2017 @ 10:55:
[...]


Ik had voorgesteld om twee synology RS815+ met ssd's te halen kwam op 2000 euro uit. Is te duur zegt mijn baas. Hier lees ik allemaal voorstellen van 10000 euro +......

Ik weet het niet meer, volgens mij krijg ik een onvoldoende voor mn afstu project.
Ik denk dat het advies van @Tsurany een goed advies is. Als 2000 euro al te duur is voor een HA storage oplossing voor een virtualisatie cluster waar klantdata / VM's op moet komen te staan heb ik niet echt het idee dat je opdrachtgever erg realistisch is.

  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
Weet je ook een handleiding daarvoor? Kan wel voor pacemaker en corosync handleidingen vinden voor RHEL. Verder niet.

  • Luqq
  • Registratie: Juni 2005
  • Laatst online: 13:57
xavier91 schreef op donderdag 23 maart 2017 @ 13:23:
[...]


Weet je ook een handleiding daarvoor? Kan wel voor pacemaker en corosync handleidingen vinden voor RHEL. Verder niet.
http://docs.ceph.com/docs/master/

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 12:05

DukeBox

loves wheat smoothies

xavier91 schreef op donderdag 23 maart 2017 @ 10:55:
...Is te duur zegt mijn baas....

Ik weet het niet meer, volgens mij krijg ik een onvoldoende voor mn afstu project.
Naar mijn idee heb je een prima oplossing, zeker qua prijs/kwaliteit, in dit geval ligt het echt aan die toko waar je werkt. 2k voor een redundante SSD storage oplossing is echt heel weinig.

Duct tape can't fix stupid, but it can muffle the sound.


  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 28-11 16:59

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

Waar komen die SSD's ineens vandaan?

Voor zover ik het kan teruglezen in dit topic heb je nog steeds geen flauw benul hoeveel IOPS je nu nodig bent... Waarom adviseer je dan dure SSD disken in je oplossing?

Mijn advies: stop met het kijken naar een technische oplossing, maar focus nu eerst eens op het helder krijgen van de eisen en wensen van de oplossing.

Zoals ik het nu kan samenvatten:
  • Kosten onder de 2K
  • Uptime is niet belangrijk
  • Er wordt waarde gehecht aan de beschikbaarheid van de data, dus een goede backup.
  • Je "baas" wil bij uitval niet zelf naar de hardware om hoeven kijken, dat betekend dat er dus een service contract moet komen die on-site hardware support afdekt.
  • Benodigde performance is nog niet bekend (dit kun je achterhalen door te meten)
  • Te gebruiken medium voor storage ontsluiting (FC, ISCSI, etc) is nog niet bekend (kan afhankelijk zijn van je huidige infra).
  • etc.
Vul zoveel mogelijk informatie in, en vraag aan je stagebegeleider of hij hiermee akkoord is.

Dán pas ga je kijken naar een technische oplossing. De conclusie van je stagerapport kan prima zijn dat deze combinatie van eisen niet te realiseren valt. Dat betekend niet dat jij slecht werk gedaan hebt waardoor je je stage niet haalt, maar dat het eisen en wensen pakket gewoon niet realistisch is.

En trust me.... dat komt vaker voor... ;)

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • DukeBox
  • Registratie: April 2000
  • Laatst online: 12:05

DukeBox

loves wheat smoothies

Question Mark schreef op donderdag 23 maart 2017 @ 20:36:
Waar komen die SSD's ineens vandaan?
het gaat om een ESXI cluster met 10 virtuele machines
Daarnaast nog active/passive replicatie met een beperkt aantal spindels per unit.

Denk dat het wel de meest verstandige keuze is in dit geval.

Duct tape can't fix stupid, but it can muffle the sound.


  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 28-11 16:59

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

Wie zegt dat de units al vastliggen? ;)

Als uit de metingen van TS blijkt dat hij een bepaald aantal IOPS nodig heeft, daar komen gewoon een aantal opties uit naar voren.

Één van de opties kan zijn om alles op SSD te plaatsen, maar wellicht kan het ook op mechanische schijven. Dat hangt maar net van de uitkomst van de meting af.

Het aantal VM's zegt verder helemaal niets over het aantal benodigde IOPS. Ik heb wel omgevingen uitgerold waarbij er op één Lefthand omgeving (HA, 2x 10 spindels per unit) rustig 60 a 70 VM's probleemloos draaiden.

Ik heb ook wel omgevingen beheerd waarbij één systeem bijna een compleet SAN met 142 disken onderuit kon halen...

Meten is weten. Ik zou in elk geval nooit op basis van onderbuikgevoel een storageoplossing aanraden.

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • Plopeye
  • Registratie: Maart 2002
  • Laatst online: 13-08 07:00
Na het gehele verhaal eens gelezen te hebben begin ik mij serieus een aantal zaken af te vragen:

* is jouw stagebedrijf zelf wel capabel om met dit soort oplossingen te werken?
* je krijgt geen info over hoeveelheden, benodigde iops enz. Ook is er blijkbaar geen mogelijkheid tot meten, en wordt dit door je stagebegeleider ook niet aangereikt.
* Zonder voldoende info is dit een mission impossible, spreek hier ook over met je aanspreekpunt van school.

Op deze manier begin ik ook het (te lage) niveau van de schoolverlaters te begrijpen, hou op met prutsen als dit een daadwerkelijke productieomgeving moet worden. Storage is een serieuze aangelegenheid die door veel MKB IT prutsers flink wordt onderschat. Er komt meer bij kijken dan wat die gasten überhaupt kunnen bedenken.

Ook Synology is voor een serieuze storage oplossing gepruts in de marge, met name de support laat erg te wensen over. De DSM software is meer op consumenten gericht, en dat die dingen toevallig ook een beetje iSCSI en NFS kunnen is leuk maar maakt ze nog een SAN.

Unix is user friendly, it's only selective about his friends.....


  • Paul
  • Registratie: September 2000
  • Laatst online: 14:26
Question Mark schreef op donderdag 23 maart 2017 @ 21:01:
Als uit de metingen van TS blijkt dat hij een bepaald aantal IOPS nodig heeft, daar komen gewoon een aantal opties uit naar voren.
Nu ik voor een groter bedrijf werk en (veel) meer met storage doe weet ik exact waarom deze vraag zo belangrijk is en waarom iedereen hem stelt, maar toen ik net begon als is me ook gevraagd om met weinig budget een goede storage-voorziening te verzinnen voor een klein bedrijf, en je VERZAND werkelijk waar iedere keer opnieuw in dezelfde vraag. Waar je het ook vraagt, wie je ook om hulp vraagt, BAM, direct die showstopper. Hoeveel IOPS? Want dat kun je zogenaamd meten op je huidige omgeving.

Dat de huidige omgeving niet eens bestaat, of totaal niet representatief is, dat boeit om een of andere reden (toen in ieder geval) dan weer helemaal niemand. Maar het zorgt er wel voor dat je die vraag niet kunt beantwoorden en je dus geen meter verder komt met je onderzoeksopdracht. Zo frustrerend...

Ga je online zoeken dan gaat men er meteen vanuit dat je 50.000 gebruikers krijgt op je Exchange-bak, dat je zeven miljoen miljard spindels koopt voor je SQL Server die blijkbaar SAP gaat draaien voor een grote multinational en dat je een VDI-omgeving optuigt voor 3.000.000 gebruikers.

Dus dan maar gokken en hopen dat je in het juiste ballpark uitkomt :) Bijvoorbeeld door op Wikipedia: IOPS te kijken en te achterhalen wat er nu in servers zit die vergelijkbare zaken doen als je nieuwe VM's, en op gegeven moment gewoon knopen doorhakken. 10 servers a 75 IOPs dus je wilt 750 IOPs kunnen halen. Bijvoorbeeld.

Om je een beetje op weg te helpen, een databaseserver die gegevens opslaat over medicijnrondes in een regionaal ziekenhuis doet afgelopen uur (met medicijnrondes) gemiddeld 200 IOPs, 50% read / 50% write. De databaseserver waar de gegevens van onder andere (niet-medische, denk aan keuken en luchtbehandeling) thermometers van datzelfde ziekenhuis doet afgelopen uur ook 200 IOPs, maar 95% daarvan is read. De webservers die onze externe website hosten doen de afgelopen uren bijna niks, als ze 10 IOPs halen is het veel...

De vraag is wel hoe representatief die getallen zijn voor jouw omgeving :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • TAMW
  • Registratie: Augustus 2000
  • Laatst online: 28-11 19:27
De grootste fout bij het bepalen van het aantal IOPs is dat er meestal een gemiddelde wordt genomen over een te lange tijd, het gaat juist om de pieken.

Shared storage maakt het nog moeilijker omdat 1 VM, de storage performance van al je andere VM's compleet kan laten instorten. Wil je dit echt goed oplossen kun je als je vsphere Enterprise plus hebt storage IO control gebruiken. Heb je dat niet kun simpelweg IO's limiten op vm niveau bij vm's waarvan je weet dat ze IO's vreten.

[ Voor 4% gewijzigd door TAMW op 20-04-2017 22:16 ]


  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
TAMW schreef op donderdag 20 april 2017 @ 22:14:
De grootste fout bij het bepalen van het aantal IOPs is dat er meestal een gemiddelde wordt genomen over een te lange tijd, het gaat juist om de pieken.

Shared storage maakt het nog moeilijker omdat 1 VM, de storage performance van al je andere VM's compleet kan laten instorten. Wil je dit echt goed oplossen kun je als je vsphere Enterprise plus hebt storage IO control gebruiken. Heb je dat niet kun simpelweg IO's limiten op vm niveau bij vm's waarvan je weet dat ze IO's vreten.
Mijn project is al succesvol en het werk super goed. Al die drama hier heeft totaal geen invloed gehad op mijn project want het is op eigen been gelukt. Heb het de afgelopen week uitvoerig getest en de documentatie ervoor gemaakt. Het is een High availability cluster geworden met starwind hyperconverged high available shared storage die op 2 nodes draaien.

  • Vorkie
  • Registratie: September 2001
  • Niet online
xavier91 schreef op vrijdag 21 april 2017 @ 16:17:
[...]


Mijn project is al succesvol en het werk super goed. Al die drama hier heeft totaal geen invloed gehad op mijn project want het is op eigen been gelukt. Heb het de afgelopen week uitvoerig getest en de documentatie ervoor gemaakt. Het is een High availability cluster geworden met starwind hyperconverged high available shared storage die op 2 nodes draaien.
En wat kostte deze appliances?

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

xavier91 schreef op vrijdag 21 april 2017 @ 16:17:
[...]


Mijn project is al succesvol en het werk super goed. Al die drama hier heeft totaal geen invloed gehad op mijn project want het is op eigen been gelukt. Heb het de afgelopen week uitvoerig getest en de documentatie ervoor gemaakt. Het is een High availability cluster geworden met starwind hyperconverged high available shared storage die op 2 nodes draaien.
Blijf vooral met deze houding doorgaan, dan kom je er wel :F

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
Vorkie schreef op vrijdag 21 april 2017 @ 16:36:
[...]

En wat kostte deze appliances?
Heb nu 2 sunfire x4100 draaien die als testomgeving fungeerde, kostte niks. Heb het nu ook op de HP DL360 g7 een productie omgeving staan voor een klant, deze kostte 500 euro per stuk. De vmware licenties hadden we al en Starwind is gratis voor de hyperconverged storage functies. Starwind is een heel goed bedrijf ik raad het echt aan wil je nog eens een low cost oplossing nodig hebben voor High Availability.

  • xavier91
  • Registratie: November 2009
  • Laatst online: 15-05-2023
Tsurany schreef op vrijdag 21 april 2017 @ 17:26:
[...]

Blijf vooral met deze houding doorgaan, dan kom je er wel :F
Dat blijkt wel he, spuit elf.

  • TAMW
  • Registratie: Augustus 2000
  • Laatst online: 28-11 19:27
xavier91 schreef op vrijdag 21 april 2017 @ 16:17:
[...]


Mijn project is al succesvol en het werk super goed. Al die drama hier heeft totaal geen invloed gehad op mijn project want het is op eigen been gelukt. Heb het de afgelopen week uitvoerig getest en de documentatie ervoor gemaakt. Het is een High availability cluster geworden met starwind hyperconverged high available shared storage die op 2 nodes draaien.
Dit gebruik je dus: https://www.starwindsoftware.com/starwind-virtual-san-free

En de 2 windows server 2012r2 licenties voor de 2 nodes kosten niets ;)

[ Voor 5% gewijzigd door TAMW op 21-04-2017 19:59 ]


  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 28-11 16:59

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

xavier91 schreef op vrijdag 21 april 2017 @ 16:17:
[...]


Mijn project is al succesvol en het werk super goed.
Da's mooi.... Even voor de nieuwsgierigheid: waarom 3rd party software en geen storace spaces direct?

Storage spaces direct is nl. ook hyperconverged storage, maar zonder de noodzaak van extra software. Welk voordeel biedt jouw oplossing nu waardoor storage spaces direct niet voldeed?

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • Dennism
  • Registratie: September 1999
  • Laatst online: 15:34
xavier91 schreef op vrijdag 21 april 2017 @ 16:17:
[...]


Mijn project is al succesvol en het werk super goed. Al die drama hier heeft totaal geen invloed gehad op mijn project want het is op eigen been gelukt. Heb het de afgelopen week uitvoerig getest en de documentatie ervoor gemaakt. Het is een High availability cluster geworden met starwind hyperconverged high available shared storage die op 2 nodes draaien.
Ik vraag me toch wel af hoe je in een week "Uitvoering test". als ik een serieuze vraag mag stellen, wat mag ik me exact voorstellen bij "uitvoering getest" op 2 machines van bijna 10 jaar oud. Ik kan me namelijk niet voorstellen dat je daar representatieve test data uit kan halen over hoe de oplossing zich onder load zal gedragen in een productie omgeving op recente hardware, verschillende hardware configuraties (starwind is breed in te zetten, maar ik heb zelf bijv. bij testen gemerkt dat bij bepaalde hardware configuraties de performance erbarmelijk slecht is), hoe robuust starwind is bij verschillende scenario's waarbij het fout gaat (hardware uitval, data corruptie en dat soort zaken), het doorlopen van het verschillende disaster recovery scenario's (hoe recover je alles zo snel mogelijk als beide nodes uitvallen) en zo kan je nog wel een boel zaken bedenken.

Ik vind het erg knap als je dat soort zaken in een week volledig kan testen en valideren op hardware uit 2008, daar bruikbare conclusies aan kan verbinden over het gebruik in een productie omgeving en het ook nog eens kan implementeren bij een klant.

Begrijp me niet verkeerd, Starwind is een mooi product en kan zeker toepasbaar zijn in jouw situatie, maar het heeft ook zijn nukken, valkuilen en zelfs (performance) problemen en ik geloof nooit dat je dat in een week productie ready kan maken zonder eerdere ervaring met het product waarbij je ook nog eens de kennis hebt om ieder mogelijk issue dat in de toekomst bij klanten optreed direct af te kunnen vangen op de conclusies van het weekje testen.

Gratis is het trouwens ook niet, voor een goede performance heb je best recente hardware nodig, 2 Windows Server licenties en support heb je niet met de gratis versie, behoudens een support forum waar het maar de vraag is of je een bruikbaar antwoord krijgt bij een issue, en daarnaast hoe snel dit antwoord komt. Voor thuis gebruik en bijv. in test clusters is deze versie prima te gebruiken, in productie ook wel, maar dan enkel wanneer je vergaande ervaring hebt met het product. Want bij een klant in productie begrijp je hopelijk dat als er wat misgaat dat je niet kan aankomen met "ik vraag het even op een forum, mogelijk dat er ooit een bruikbare reactie komt".

[ Voor 4% gewijzigd door Dennism op 22-04-2017 12:09 ]


  • joenevd
  • Registratie: Januari 2007
  • Laatst online: 28-11 06:06
Question Mark schreef op zaterdag 22 april 2017 @ 11:08:
[...]

Da's mooi.... Even voor de nieuwsgierigheid: waarom 3rd party software en geen storace spaces direct?

Storage spaces direct is nl. ook hyperconverged storage, maar zonder de noodzaak van extra software. Welk voordeel biedt jouw oplossing nu waardoor storage spaces direct niet voldeed?
Ik ben het met question mark eens.
Hyperconverged met s2d is een mooie oplossing. Alleen local storage met hot migration optie en extra opties waarvoor je bij vmware dure licenties moet betalen!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

huh ?

10 servers op een esxi HA cluster zegt nog niks.
tenzij je de data (waar het 99% zeker om draait) goed repliceert en controle erop voert heb je niks aan de investering.
ik heb vaak genoeg gezien dat dergelijke HA situaties omvallen omdat men aanneemt dat de configuratie goed is en bij een failover gaat alles alsnog stuk .. soms omdat de infrastructuur even vergeten was. of dat men niet regelmatig test en er dus wijzigingen in de omgeving zijn geweest die de boel alsnog stuk gemaakt hebben.

Nu zegt men dat hardware "lui" word als ze niet af en toe high load ervaren en dus als er na 1 a 2 jaar opeens een failover is .. die servers ook falen. korrel zout maar goed.

Wat waarschijnlijker is dat er een 70% en 30% situatie onstaat wegens bezuiniging en dus de failover drastisch capaciteits problemen vertoont. + vergeten bij netwerk wijzingen of ander geneuzel. En dus faalt het alsnog.


Waarvoor heb je HA nodig ? Er zijn veel producten die dit zelf regelen.
ik kan bv 2 esx of hyperv met lokale Harde schijf (ssd/sas/whatever) als laten fungeren als HA omgeving.
windows DC of SQL cluster goed configureren en "klaar"

Sommige producten kan je via een truck zeg 50% active en 50% passive in semi HA modus zetten. waarbij een uitval van 1.v.d 2 de passive op de ander "actief" maakt. Maar dit is al een risico wegens de eerdere verhalen hierboven.


Cloud oplossingen zijn dan effectiever, omdat de benodigde infrastructuur dan door de provider verzorgt worden en naar ratio betaal je dan de kosten. Dit kan goedkoper zijn dan een dure oplossing zelf aanschaffen. vergeet niet dat dit inclusief beheer+kennis kosten zijn. bij amazone is dit een standaard bedrag, en bij windows Azure betaal je extra voor de dienst. maar ook NL hosting bedrijven bieden deze oplossing.

Wij draaien om deze reden systemen voor klanten bij Amazone en berekenen dit met een marge door aan de klant.

O en voordat ik het vergeet, bij een hoster draaien maakt het wel makkelijk bij eventueel contract ontbinding. Je geeft account info en ;w

Tja vanalles

Pagina: 1