Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Hallo,

Ik zoek een snelle, gemakkelijke en stabiele oplossing voor mijn opslag probleempje thuis.

Laat mij de situatie uitleggen:
Thuis heb ik voor test omgevingen 2 servers draaien.
1x HP DL380G5 met 24GB RAM, 6x 72GB 10k SAS 2,5inch (RAID 5)
1x Dell PE1950 met 24GB RAM, 2x 72GB 15k SAS 3,5inch (RAID 1)

Op deze staat ESXi 5.1 met daarop ongeveer 5 tot 10 VM's per server.
Nu zitten die schijven bomvol en wil ik graag upgraden naar een SAN/-of een snelle NAS.
Machines staan niet in een Cluster. Met de redens: duur en niet nodig.

Ik wil graag voor mijn servers, een grote maar snelle opslag hebben. Het liefste over iSCSI.
Ik heb in elke server, zoals standaard, 2 Gigabit NIC's zitten die ik sowieso in ESXi aan elkaar heb geknoopt.
Alles loopt via een 8 poorts HP ProCurve 1810G-8, met de nieuwste firmware.

Geld is een issue. Dus ik kan niet upgraden naar bijv. een DL380G6 of een nieuwe SAN/NAS.

Ik heb via internet een goedkope, maar betrouwbare Dell PE2950 gekocht.
Deze ga ik uitvoeren met 6x 500GB SATA schijven.
SAS is mij veel te duur voor wat ik er mee ga doen + ik heb nog 4x 500GB SATA thuis liggen.
Deze verzameling schijven gooi ik in de server en zet ze in RAID10.

Specs van de PE2950:
Dell PowerEdge 2950 6x SAS backplane
Dell G1 moederbord, 1x Xeon 5110 (max CPU support = 2x Xeon 5160)
2x 670W voeding
8x 1GB DDR2 FBDIMM
Dell PERC 5/I (cache en batterij nader onbekend)
6x 500GB SATA desktop schijven (2x WD Blue, 1x Seagate 7200.11, 1x Hitachi Deskstar ???, 2x <nog bijgekocht worden>)

Deze server wil ik later wel upgraden naar grotere schijven, maar door mijn krappe budget doe ik er nu 6x 500GB in, wat effectief 1,5TB voor mij is. Genoeg voor nu.


De software die ik tot nu toe heb gebruikt om te testen is:
  1. Nexenta (gecrashed voor welke reden dan ook. Data corrupt..)
  2. Windows Storage Server 2012 (traag, licenties zijn me het niet waard. cracked Windows=no go!)
  3. FreeNAS (bevalt me tot nu toe wel, alleen weet niet zeker of de performance wel klopt voor zo'n setup. Nader onderzoek daarin volgt nog)
  4. GlusterFS (ik vind het lastig, aangezien hij na 3x proberen nog niet werkt.. zal wel aan mij liggen..)
Wat ik nog wil gaan proberen:
  1. StarWind (Linux... Me likey. Maar weet niet precies hoe en wat.. Ik wil het simpel houden)
  2. FalconStor (free, maar gelimiteerd.. Weet niet over toekomstplannen)
Ik zie verder geen optie in:
  1. VMware vSAN (betaald, extreem duur voor mijn toepassingen)
  2. Alle Windows Based iSCSI software (ervaring met Windows is dat het traag is)
  3. SANsymphony-V (Windows en betaald)
Momentele schrijf- en leessnelheden op m'n huidige RAID1 (2x500GB) server:
Afbeeldingslocatie: http://i59.tinypic.com/a1lumu.png

Huidige netwerk configuratie:
Afbeeldingslocatie: http://i61.tinypic.com/awucci.png

Om een gigantisch verhaal kort te maken:
Ik zoek een SAN/NAS oplossing van een bestaande server die mij redelijk goede lees/schrijf snelheden bied voor m'n VM's.

Wat vraag ik van jullie:
Mochten jullie mij mee willen helpen om de juiste software uit te zoeken en eventuele ervaringen te delen, zou dat fijn zijn.
Ik verwacht kritiek op mijn verhaal, ik heb al vaker posts gedaan die niet helemaal duidelijk waren, hopelijk is dat deze keer minder.
Ik heb voor zover ik weet wel duidelijk aangegeven wat ik wil en wat ik verwacht.


Ik vraag niet van jullie om dit voor mij op te lossen, al zijn tips en trucjes wel gewenst _/-\o_.


Alvast heel erg bedankt!
Ik probeer hier zo snel mogelijk op te reageren als er antwoord is.

Groet

Plezant. Krokant. Galant.


  • wagenveld
  • Registratie: Februari 2002
  • Niet online
Toevallig recentelijk een lab gebouwd op basis van 2012 R2 en wil wel even Windows=traag ontkrachten. 2012 R2 Hyper V cluster + 2012 R2 SMB3 fileserver gaat als een speer, 4K is hetzelfde op de fileserver vs een VM op de cluster. Ook een 2950 trouwens. Voordeel van SMB3 is dat je geen iSCSI netwerk (VLAN etc) nodig hebt.
Maar goed, ik begrijp dat je de Windows licentie kosten niet wilt maken, dus je mag mn post verder negeren ;)

  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
wagenveld schreef op dinsdag 08 april 2014 @ 23:27:
Toevallig recentelijk een lab gebouwd op basis van 2012 R2 en wil wel even Windows=traag ontkrachten. 2012 R2 Hyper V cluster + 2012 R2 SMB3 fileserver gaat als een speer, 4K is hetzelfde op de fileserver vs een VM op de cluster. Ook een 2950 trouwens. Voordeel van SMB3 is dat je geen iSCSI netwerk (VLAN etc) nodig hebt.
Maar goed, ik begrijp dat je de Windows licentie kosten niet wilt maken, dus je mag mn post verder negeren ;)
Noted. Ik heb niet zo heel veel ervaring met het hele iSCSI gebeure. Maar weet wel dat het goed werkt in combinatie met FreeNAS, ZFSGuru of weet ik veel hoeveel andere distro's er zijn.
Verder ken ik het hele idee 'SMB3' niet. Ik zal morgen eens gaan kijken of ik dat kan veranderen.

Bedankt voor je reactie!

Plezant. Krokant. Galant.


  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 17-11 13:54
let je wel op met iSCSI dat ie persistent reservations goed ondersteund? ga je nodig hebben als je iSCSI volumes gaat benaderen vanaf meerdere hosts. Ik heb zelf destijds een linux nasje gebouwd met SCST erop voor iSCSI, dat werkt als een trein.

  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 28-11 16:59

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

wagenveld schreef op dinsdag 08 april 2014 @ 23:27:
Voordeel van SMB3 is dat je geen iSCSI netwerk (VLAN etc) nodig hebt.
Maar goed, ik begrijp dat je de Windows licentie kosten niet wilt maken, dus je mag mn post verder negeren ;)
VSphere kan niet overweg met SMB, enkel NFS,FC of ISCSI voor remote storage. Dus het is sowieso een nogo.. ;-)

Verder wel eens hoor, 2012 R2 (storagespaces) werkt als een trein.

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • Gardocki
  • Registratie: Oktober 2000
  • Niet online
Al nagedacht over NFS via bijvoorbeeld FreeNAS? NFS werkt prima met ESXi :)

They made me do it.


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
_-= Erikje =-_ schreef op woensdag 09 april 2014 @ 09:46:
let je wel op met iSCSI dat ie persistent reservations goed ondersteund? ga je nodig hebben als je iSCSI volumes gaat benaderen vanaf meerdere hosts. Ik heb zelf destijds een linux nasje gebouwd met SCST erop voor iSCSI, dat werkt als een trein.
Als ik nu meerdere machines aan 1 iSCSI en tot nu toe is het allemaal goed gegaan.

Ik kan ook prima omgaan met Linux om dat te doen, maar ik zou wel wat willen met een webinterface.
Maar het punt waar ik nu op zou struikelen is; stel het gaat een keer mis.. Weet ik dan wat ik moet doen?

Plezant. Krokant. Galant.


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Gardocki schreef op woensdag 09 april 2014 @ 10:09:
Al nagedacht over NFS via bijvoorbeeld FreeNAS? NFS werkt prima met ESXi :)
NFS.. Hmm.. in principe is dat ongeveer hetzelfde als iSCSI, maar bij NFS is het een share die iedereen eigenlijk in kan zien (zover ik heb geleerd op school..)

Met NFS heb ik het eigenlijk niet zo, aangezien ik op school er ongeveer 3 weken mee aan het klungelen ben geweest en het nog steeds niet werkte. De leraar snapt er op een gegeven moment ook niets meer van.
De NFS shares op de 2 gevirtualiseerde ESXi (klaslokaal met 15 laptops zonder échte servers), knalden er uit na 10 minuten.

Dus mijn ervaringen met NFS is niet helemaal 100%.
Ik vind het al knap als andere mensen het aan de praat krijgen :P.

Plezant. Krokant. Galant.


  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 28-11 16:59

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

NFS is filebased storage, terwijl technieken als ISCSI en FC blockbased zijn. Dwz dat bij NFS een systeem toegang krijgt tot files, en bij de andere tot blokken disken (waar vervolgens zelf nog een filesystem overheen gelegd moet worden).

Het grote voordeel van NFS is dat de Hypervisor alleen maar hoeft te doen waar hij goed in is, het hosten van VM's. De complete overhead mbt storage (filesystem en write-locks onderhouden) regelt de achterliggende storagedoos maar...

Nu is die overhead niet zo heel erg groot, en is VMFS behoorlijk efficient, maar sommige VSphere guru's zweren bij NFS. (al is het sterk afhankelijk van de opties van de achterliggende storagedoos welke optie het meest voor de hand ligt om te gebruiken).

Het instellen van NFS is overigens eenvoudiger dan ISCSI...

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Question Mark schreef op woensdag 09 april 2014 @ 14:14:
NFS is filebased storage, terwijl technieken als ISCSI en FC blockbased zijn. Dwz dat bij NFS een systeem toegang krijgt tot files, en bij de andere tot blokken disken (waar vervolgens zelf nog een filesystem overheen gelegd moet worden).

Het grote voordeel van NFS is dat de Hypervisor alleen maar hoeft te doen waar hij goed in is, het hosten van VM's. De complete overhead mbt storage (filesystem en write-locks onderhouden) regelt de achterliggende storagedoos maar...

Nu is die overhead niet zo heel erg groot, en is VMFS behoorlijk efficient, maar sommige VSphere guru's zweren bij NFS. (al is het sterk afhankelijk van de opties van de achterliggende storagedoos welke optie het meest voor de hand ligt om te gebruiken).

Het instellen van NFS is overigens eenvoudiger dan ISCSI...
Kan het zijn dat ik na enige tijd, met prestatieproblemen zit bij de 'storagedoos'?
Er kunnen namelijk geen Quad Cores in.
Als ik nu bij FreeNAS kijk hoeveel CPU en RAM hij trekt door een iSCSI target te zijn, valt dat gigantisch mee.

Ik zie inderdaad ook meerdere mensen werken met NFS, maar mij is het op Windows nooit gelukt om het werkend te krijgen. Misschien ligt dat ook wel aan Windows..

Zweer je nog bij bepaalde FreeBSD software?
Zoals FreeNAS, ZFSGuru of andere soorten?

Plezant. Krokant. Galant.


  • Paul
  • Registratie: September 2000
  • Laatst online: 22:34
NFS is dan ook iets wat typisch heel erg veel gebruikt wordt in de Linux-wereld terwijl men het op Windows zoveel mogelijk uit de weg gaat. Waarom zou je ook, je hebt onder Windows native SMB daar waar Linux juist native NFS spreekt :)

Als je FreNAS gebruikt en je 500 GB schijven in ZFS hebt staan (hopelijk gebruik je dan ook passthrough op je Perc 5/i) en je gaat VM's hosten via NFS moet je bepalen hoe je je ZIL, het 'journaal' van ZFS, in wilt richten. vSphere dwingt op NFS alles af als synced write. Dit kan voor performance problemen zorgen omdat je writecache iedere keer geforceerd wordt geleegd (even kort door de bocht. Er zijn op het forum [en in mijn post historie] voldoende topics over storage servers en ZFS te vinden voor de lange uitleg).

Je hebt dan 4 opties:
  • Niks doen. Je ZIL staat op je spindels en is traag. Als 'traag' snel genoeg is (testen!) dan is het goed :)
  • Synced writes uitzetten. Niet aan te raden, vSphere denkt dat alles veilig is opgeslagen maar je storage server heeft het nog in het geheugen ipv op disk.
  • Een SLOG gebruiken. Een SSD als SLOG om je ZIL op te slaan zorgt er voor dat je synced writes heel veel sneller op persistent storage staan en de write wordt acknoledged door NFS naar je host
  • Geen NFS gebruiken maar op iSCSI blijven :P
Als je een SLOG gaat gebruiken, zorg dat je een SSD neemt met power capacitors, zoals de Crucial M4 / M500 / M550, of een Intel :)

[ Voor 4% gewijzigd door Paul op 09-04-2014 14:49 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Paul schreef op woensdag 09 april 2014 @ 14:48:
NFS is dan ook iets wat typisch heel erg veel gebruikt wordt in de Linux-wereld terwijl men het op Windows zoveel mogelijk uit de weg gaat. Waarom zou je ook, je hebt onder Windows native SMB daar waar Linux juist native NFS spreekt :)

Als je FreNAS gebruikt en je 500 GB schijven in ZFS hebt staan (hopelijk gebruik je dan ook passthrough op je Perc 5/i) en je gaat VM's hosten via NFS moet je bepalen hoe je je ZIL, het 'journaal' van ZFS, in wilt richten. vSphere dwingt op NFS alles af als synced write. Dit kan voor performance problemen zorgen omdat je writecache iedere keer geforceerd wordt geleegd (even kort door de bocht. Er zijn op het forum [en in mijn post historie] voldoende topics over storage servers en ZFS te vinden voor de lange uitleg).

Je hebt dan 4 opties:
  • Niks doen. Je ZIL staat op je spindels en is traag. Als 'traag' snel genoeg is (testen!) dan is het goed :)
  • Synced writes uitzetten. Niet aan te raden, vSphere denkt dat alles veilig is opgeslagen maar je storage server heeft het nog in het geheugen ipv op disk.
  • Een SLOG gebruiken. Een SSD als SLOG om je ZIL op te slaan zorgt er voor dat je synced writes heel veel sneller op persistent storage staan en de write wordt acknoledged door NFS naar je host
  • Geen NFS gebruiken maar op iSCSI blijven :P
Als je een SLOG gaat gebruiken, zorg dat je een SSD neemt met power capacitors, zoals de Crucial M4 / M500 / M550, of een Intel :)
Ik snap niet heel veel van wat je hierboven allemaal zegt..
Er is trouwens in de server niet echt plaats voor een SSD, behalve de onboard SATA, waar ik geen fan van ben..
Om kosten ook te besparen, koop ik liever geen caching SSD.

Is er een site (die ik blijkbaar nog niet heb bezocht) die dit even piekfijn uitlegd?
Er zijn op het forum [en in mijn post historie] voldoende topics over storage servers en ZFS te vinden voor de lange uitleg).
Aah.. Nou, dan ga ik maar eens flink in Tweakers duiken :P

[ Voor 5% gewijzigd door SilentDecode op 09-04-2014 14:54 ]

Plezant. Krokant. Galant.


  • Paul
  • Registratie: September 2000
  • Laatst online: 22:34
In http://forums.freenas.org...and-l2arc-for-noobs.7775/ staat een powerpoint-presentatie. Als je geen powerpoint (viewer) hebt kun je ook de PDF nemen al mis je dan de (functionele :P ) animaties :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Paul schreef op woensdag 09 april 2014 @ 15:13:
In http://forums.freenas.org...and-l2arc-for-noobs.7775/ staat een powerpoint-presentatie. Als je geen powerpoint (viewer) hebt kun je ook de PDF nemen al mis je dan de (functionele :P ) animaties :)
Blijkbaar had ik die een week geleden alwel gedownload :P.

Ik heb hier alleen een SSD liggen van 256GB, die ik niet meer 100% vertrouw.
Zoals ik hier zie staan, is je zpool verloren als je ZIL naar de knoppen is.. Dus ik ga geen onbetrouwbare SSD gebruiken die ik nog heb liggen.
Ook als ik NFS ga gebruiken (waar ik nog steeds mee zit te kloten), is een ZIL pas nuttig.

Dus als ik alles even simpeler vertaal:
ZIL is alleen te gebruiken bij NFS en niet bij iSCSI.
Is er voor mij nog meer performance te halen uit iSCSI zoals ik het nu heb staan?

Testserver van FreeNAS:
Dell PE1950
2x Dual Core Xeon 5160 @ 3.00Ghz
6GB RAM (4x 1GB, 4x 512MB)
1x 670W voeding
Dell PERC 5/i 256MB cache (wel een dooie batterij)
2x 500GB WD Blue

In mijn eerste post, zie je de screenshot van m'n iSCSI server. Dat is deze testbak.
Link Aggregation en de rest van dat spul is niet actief.
Het zou wel mooi zijn als ik met de snelheid tegen de grens van Gigabit aanloop (~ 125MB/s).

Plezant. Krokant. Galant.


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 29-11 11:17
1) Een kapotte ZIL sloopt al lang je pool niet meer, die bug is al opgelost.
ZIL is prima te gebruiken bij iSCSI, zolang je een iSCSI implementatie gebruikt die synced writes honoreert (doen ze dus niet allemaal).

2) iSCSI houdt van Jumbo Frames :)

3) ZFS lust bij zwaar gebruik wel wat meer geheugen dan 6GB.

Even niets...


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Zoals hier nu 2 keer is gezegd/gevraagd, of ik op mijn controller (PERC5) passthrough mode gebruik;
Ik heb eigenlijk niet écht het idee..

Ik wil wel voor snelheid en betrouwbaarheid (en omdat ik crappy cpu's erin heb zitten) de PERC controller voor RAID blijven gebruiken.

Plezant. Krokant. Galant.


  • Paul
  • Registratie: September 2000
  • Laatst online: 22:34
ZIL wordt altijd gebruikt voor synced writes, alleen op iSCSI zijn dat alleen de writes die anders ook synced zouden zijn terwijl op NFS alles synced wordt geschreven voor vSphere :)

Een SLOG is een manier om je ZIL sneller te maken. Je SSD is dan een SLOG waar je ZIL op staat, maar als je die niet hebt heb je nog steeds een ZIL.

Dat je data weg is als je SLOG stuk gaat is outdated, dat is ondertussen niet meer zo[citation needed].

De meeste snelheidsboost haal je door meer RAM in die machine te stoppen omdat dan meer gecached kan worden, maar in die machine past maar 8 GB ram. Enige optie dan is een nieuwere server. Dat vertaalt zich ook in minder stroomverbruik maar kost dus wel knaken :P

[ Voor 8% gewijzigd door Paul op 09-04-2014 15:34 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
FireDrunk schreef op woensdag 09 april 2014 @ 15:32:
1) Een kapotte ZIL sloopt al lang je pool niet meer, die bug is al opgelost.
ZIL is prima te gebruiken bij iSCSI, zolang je een iSCSI implementatie gebruikt die synced writes honoreert (doen ze dus niet allemaal).

2) iSCSI houdt van Jumbo Frames :)

3) ZFS lust bij zwaar gebruik wel wat meer geheugen dan 6GB.
  1. Gelukkig. Ik zal eens gaan kijken hoe ik zit met mijn hele verhaal rond die server, want misschien kan ik er wat mee als ik die 256GB toch inbouw. Ik moet alleen wel stroomtoevoer hebben..
  2. Ik volg nu op school lessen 'Cisco' en ik heb nog nooit wat gehoord van Jumbo Frames.. Help... *kuch*.
  3. Ik heb puur 6GB in deze machine zitten voor testen. In mijn 2950 ga ik 8 tot 16GB stoppen om het een beetje snel te maken.

Plezant. Krokant. Galant.


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 29-11 11:17
http://google.com/?q=jumbo+frames

[ Voor 15% gewijzigd door Equator op 10-04-2014 07:45 . Reden: lmgtfy == denigrerend :( ]

Even niets...


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Haha! Dankje :P

[ Voor 3% gewijzigd door Equator op 10-04-2014 07:45 ]

Plezant. Krokant. Galant.


  • Paul
  • Registratie: September 2000
  • Laatst online: 22:34
Ik zie overigens dat je in ESXi beide NICs aan elkaar hebt geknoopt. Beter maak je een apart iSCSI-netwerk, dus 1 NIC voor VM-verkeer en 1 NIC voor iSCSI-verkeer.

Vervolgens heeft iSCSI voor de beste performance wel wat nodig van de switch:
[ul]• Hoe groter de buffers in de switch, hoe beter• Jumbo frames
Zorg dat ALLE onderdelen Jumbo-frames snappen. Dat houdt dus in ofwel een ander VLAN instellen en dan op dat VLAN jumbo frames aanzetten op de switch, of een aparte switch. Dit is het punt waarbij de meeste implementaties connectie verliezen :P Geen jumbo frames is niet heel erg, belangrijker zijn de volgende twee:• Flow Control
Als je switch geen flow control snapt blijft er van de performance erg weinig over vanwege retransmits etc• Geen unicast storm control
iSCSI wil zoveel mogelijk zo snel mogelijk sturen. 3x raden waar dat op lijkt :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Paul schreef op woensdag 09 april 2014 @ 15:42:
Ik zie overigens dat je in ESXi beide NICs aan elkaar hebt geknoopt. Beter maak je een apart iSCSI-netwerk, dus 1 NIC voor VM-verkeer en 1 NIC voor iSCSI-verkeer.

Vervolgens heeft iSCSI voor de beste performance wel wat nodig van de switch:
[ul]• Hoe groter de buffers in de switch, hoe beter• Jumbo frames
Zorg dat ALLE onderdelen Jumbo-frames snappen. Dat houdt dus in ofwel een ander VLAN instellen en dan op dat VLAN jumbo frames aanzetten op de switch, of een aparte switch. Dit is het punt waarbij de meeste implementaties connectie verliezen :P Geen jumbo frames is niet heel erg, belangrijker zijn de volgende twee:• Flow Control
Als je switch geen flow control snapt blijft er van de performance erg weinig over vanwege retransmits etc• Geen unicast storm control
iSCSI wil zoveel mogelijk zo snel mogelijk sturen. 3x raden waar dat op lijkt :P
  1. Waar vallen die Jumbo Frames dan in te stellen en moet ik dat op alle apparaten doen?
  2. De switch, in dit geval een HP ProCurve 1810G-8, snapt denk ik Flow Control wel. Ik ga even nader onderzoeken hoe dat nou zit. (Nader gechecked. Flow Control zit erin en staat aan.)
  3. Ik heb werkelijk nog nooit met VLAN's gewerkt en heb geen idee hoe het nou precies moet. Als ik het probeer crashed de boel.. Ik ben ook niet echt de persoon dat iets snapt na 1x lezen. Ik doe er soms wel meerdere malen over om iets fatsoenlijk te begrijpen (vooral te merken tijdens uitleg van Cisco spul...)

Plezant. Krokant. Galant.


  • Paul
  • Registratie: September 2000
  • Laatst online: 22:34
Tompecht schreef op woensdag 09 april 2014 @ 15:32:
Ik wil wel voor snelheid en betrouwbaarheid (en omdat ik crappy cpu's erin heb zitten) de PERC controller voor RAID blijven gebruiken.
Voor beide (snelheid en betrouwbaarheid) ben je beter af als je dat niet doet, als je ZFS gebruikt :) Omdat je batterij stuk is wil je geen write back cache en met write through gaan een groot deel van je snelheidswinst verloren (al valt dat met RAID 10 wel mee).

6 schijven, meeste snelheid haal je dan met 3 mirrors omdat je dan 3 vdev's hebt maar je zou ook voor RAIDZ2 kunnen gaan, 500 GB extra en toch erg goed beschermd.

De Perc 5 kan niet in IT-mode lees ik online, beste verkoop je die en koop je er een SAS 5/i (niet de 5 iR !) voor terug, dat is een HBA ipv een RAID-controller.
Tompecht schreef op woensdag 09 april 2014 @ 15:46:
Waar vallen die Jumbo Frames dan in te stellen en moet ik dat op alle apparaten doen?
Dat verschilt per apparaat. In FreeNas moet je bij de netwerkconfig een handmatige optie intikken in het onderste invoerveld, in vSphere moet je het op de vSwitch en op de VMKernel aanpassen, waar het in je switch precies moet durf ik niet te zeggen :P
Ik heb werkelijk nog nooit met VLAN's gewerkt en heb geen idee hoe het nou precies moet.
Als je begint met VLAN's is de eerste stap je switch opknippen. Bepaal welke poortjes in VLAN 1 moeten en welke poortjes in VLAN 2. VLAN 1 staat al goed, in VLAN 2 zet je de poortjes die er in moeten U (untagged) in dat VLAN, zet het PVID goed (dat moet geloof ik bij HP?) and you're good to go.

Volgende leermoment is meerdere VLAN's over 1 kabel: trunking in Cisco-termen. Zet je VLAN's T (tagged) op een poortje, nu kun je dat poortje gebruiken om meerdere VLAN's over één kabel te versturen.

Als je dit doet met het poortje waarop jij met de switch verbonden bent raak je inderdaad over het algemeen de verbinding kwijt ja :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Paul schreef op woensdag 09 april 2014 @ 15:57:
[...]
Als je begint met VLAN's is de eerste stap je switch opknippen. Bepaal welke poortjes in VLAN 1 moeten en welke poortjes in VLAN 2. VLAN 1 staat al goed, in VLAN 2 zet je de poortjes die er in moeten U (untagged) in dat VLAN, zet het PVID goed (dat moet geloof ik bij HP?) and you're good to go.

Volgende leermoment is meerdere VLAN's over 1 kabel: trunking in Cisco-termen. Zet je VLAN's T (tagged) op een poortje, nu kun je dat poortje gebruiken om meerdere VLAN's over één kabel te versturen.

Als je dit doet met het poortje waarop jij met de switch verbonden bent raak je inderdaad over het algemeen de verbinding kwijt ja :P
1e poging VLAN aanmaken:
Mislukt.. Ik lees de handleiding wel, maar het is gewoon zo verschrikkelijk onduidelijk voor mij..

VLAN is niet mijn ding. Ik laat dat VLAN gebeure maar even achterwege omdat ik het de hele tijd verknoei.

[ Voor 5% gewijzigd door SilentDecode op 09-04-2014 17:07 ]

Plezant. Krokant. Galant.


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Paul schreef op woensdag 09 april 2014 @ 15:57:
[...]
Voor beide (snelheid en betrouwbaarheid) ben je beter af als je dat niet doet, als je ZFS gebruikt :) Omdat je batterij stuk is wil je geen write back cache en met write through gaan een groot deel van je snelheidswinst verloren (al valt dat met RAID 10 wel mee).

6 schijven, meeste snelheid haal je dan met 3 mirrors omdat je dan 3 vdev's hebt maar je zou ook voor RAIDZ2 kunnen gaan, 500 GB extra en toch erg goed beschermd.

De Perc 5 kan niet in IT-mode lees ik online, beste verkoop je die en koop je er een SAS 5/i (niet de 5 iR !) voor terug, dat is een HBA ipv een RAID-controller.
[...]
Even om alle ideën los te laten... Wat is sneller:
Software RAID (RAID-Z2) of
Hardware RAID (RAID10)

(RAID-Z2 = RAID6?)

[ Voor 11% gewijzigd door SilentDecode op 09-04-2014 17:15 ]

Plezant. Krokant. Galant.


  • DJSnels
  • Registratie: Juli 2009
  • Laatst online: 27-11 09:41
Tompecht schreef op woensdag 09 april 2014 @ 17:13:
[...]


Even om alle ideën los te laten... Wat is sneller:
Software RAID (RAID-Z2) of
Hardware RAID (RAID10)

(RAID-Z2 = RAID6?)
Dat hangt voornamelijk van de hardware af, maar in RAID 10 zal het mekaar niet veel schelen.
Een RAID controller is er in principe het snelste in (dedicated CPU voor pariteit berekeningen, maar die heb je niet in RAID 10)
In een software-raid is het de CPU die alle pariteitsberekeningen doet. Als je de CPU moet delen met meerdere VMs moet je daar rekening mee houden.

RAID-Z2 is niet hetzelfde als RAID6, maar wel mogen er in beide gevallen 2 disks falen voordat je volume klapt. Echter zorgt 2 falende disks + een 3e disk die 1 bitje mist ook voor een falende array. Dat is precies de rede dat RAID-5 tegenwoordig afgeraden wordt (ivm de grotere disks)

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Wat misschien de beste oplossing is, is van ESXi afstappen en dan met iSCSI direct passtrough en Xen gaan werken.

Dan op je SAN voor iSCSI IETD installeren en configureren, misschien ook daar ZFS of MDRAID op regelen en dan de LUN's via iSCSI op je VM Host gebruiken.

Dan heb je overal de controle over, en de performance is vrij goed. (Ik trek op een 4x4TB SATA RAID1+0 Array makkelijk 100+ MB/s over een 2GB bonded verbinding met meerdere clients.

Er draaien op de Xen host (gewoon Debian + Xen uit de repo) zo'n 19 VM's (2x FreeBSD, 1x Windows 7, 1x Windows 2012R2, 15x Linux) al een paar jaar zonder problemen. Storage is een PE2950 (toeval!), Hypervisor host een IBM x3630.

Waarom roep ik ESXi weg en Xen er op? Om dat het sneller en stabieler draait en gewoon een stuk meer compatible is.

Natuurlijk is dat dan weer geen optie op het moment dat je ESXi juist gebruikt om dat je dat MOET gebruiken in plaats van 'dat het er al was'. Als je vmWare moet 'leren' of 'testen' moet je dat natuurlijk gebruiken. Maar als het puur om een hypervisor gaat, dan zou ik gewoon voor wat beters gaan.

  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
DJSnels schreef op donderdag 10 april 2014 @ 00:41:
[...]


Dat hangt voornamelijk van de hardware af, maar in RAID 10 zal het mekaar niet veel schelen.
Een RAID controller is er in principe het snelste in (dedicated CPU voor pariteit berekeningen, maar die heb je niet in RAID 10)
In een software-raid is het de CPU die alle pariteitsberekeningen doet. Als je de CPU moet delen met meerdere VMs moet je daar rekening mee houden.

RAID-Z2 is niet hetzelfde als RAID6, maar wel mogen er in beide gevallen 2 disks falen voordat je volume klapt. Echter zorgt 2 falende disks + een 3e disk die 1 bitje mist ook voor een falende array. Dat is precies de rede dat RAID-5 tegenwoordig afgeraden wordt (ivm de grotere disks)
Op de bak waar de storage op komt te staan, komt de software bare-metal op te staan. Dus geen VMware of iets dergelijks zoals dat.
Raid 6 wordt ook door mijn controller niet ondersteund, raid 10 wel. Vandaar de vraag.

Plezant. Krokant. Galant.


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
johnkeates schreef op donderdag 10 april 2014 @ 00:54:
Wat misschien de beste oplossing is, is van ESXi afstappen en dan met iSCSI direct passtrough en Xen gaan werken.

Dan op je SAN voor iSCSI IETD installeren en configureren, misschien ook daar ZFS of MDRAID op regelen en dan de LUN's via iSCSI op je VM Host gebruiken.

Dan heb je overal de controle over, en de performance is vrij goed. (Ik trek op een 4x4TB SATA RAID1+0 Array makkelijk 100+ MB/s over een 2GB bonded verbinding met meerdere clients.

Er draaien op de Xen host (gewoon Debian + Xen uit de repo) zo'n 19 VM's (2x FreeBSD, 1x Windows 7, 1x Windows 2012R2, 15x Linux) al een paar jaar zonder problemen. Storage is een PE2950 (toeval!), Hypervisor host een IBM x3630.

Waarom roep ik ESXi weg en Xen er op? Om dat het sneller en stabieler draait en gewoon een stuk meer compatible is.

Natuurlijk is dat dan weer geen optie op het moment dat je ESXi juist gebruikt om dat je dat MOET gebruiken in plaats van 'dat het er al was'. Als je vmWare moet 'leren' of 'testen' moet je dat natuurlijk gebruiken. Maar als het puur om een hypervisor gaat, dan zou ik gewoon voor wat beters gaan.
Ik draai ESX ook voor een reden die ik nog niet heb genoemd.
Ik heb een klein bedrijfje opgericht met een vriend en wij gebruiken op 5 servers, allemaal ESX.
Dus bij voorkeur blijf ik werken met de originele configuratie.
Desnoods zet ik wel even een fotootje online over hoe en wat het nu geconfigureerd staat.

Mijn hoogste snelheid die ik nu haal met m'n iSCSI target is ongeveer 110MB/s.
Redelijk netjes nog, maar als ik de boel aan elkaar ga knopen (2x 1GBit), wil ik wel zeker weten dat ik meer kan halen, vandaar mijn voorzorg.

Hoe heb jij je 2950 dan geconfigureerd staan en welke software draai je hier op?
Gebruik je de RAID controller of de software?

Plezant. Krokant. Galant.


  • Paul
  • Registratie: September 2000
  • Laatst online: 22:34
DJSnels schreef op donderdag 10 april 2014 @ 00:41:
In een software-raid is het de CPU die alle pariteitsberekeningen doet. Als je de CPU moet delen met meerdere VMs moet je daar rekening mee houden.
Een CPU kan per thread / core meerdere gigabytes per seconde aan parity uitrekenen, daar zit het niet in :) Software raid heeft vaak veel meer cache en hoeft niet gebonden te zijn aan fysieke locaties op je schijf. Een RAID-controller van het OS te horen krijgt "Op sector 433884 moeten de volgende 12 bytes worden weggeschreven. Vervolgens leest de controller sectoren 433884 van alle schijven (het is iets ingewikkelder dan dit maar hij leest in ieder geval van alle schijven), modificeert die 12 bytes, berekent de parity en schrijft de dataschijf en de schijf waar voor die sector de parity staat.

Klassieke software RAID doet het ook zoals hierboven, maar filesystems die zelf een RAID-vorm ondersteunen (zoals ZFS) doen het slimmer: Door writes te combineren en er nieuwe sectoren voor te alloceren (iets wat alleen het FS kan, want die weet wat waar staat, een HBA of RAID-controller heeft geen flauw benul) hoef je de andere sectoren niet eerst te lezen. Daarin is ZFS in theorie dus sneller dan legacy RAID (soft- en hardware).

ZFS is echter niet ontworpen om bloedsnel te zijn. Qua throughput schaalt het met de schijven maar qua IOPs schaalt het met het aantal vdevs.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Paul schreef op donderdag 10 april 2014 @ 10:48:
[...]
Een CPU kan per thread / core meerdere gigabytes per seconde aan parity uitrekenen, daar zit het niet in :) Software raid heeft vaak veel meer cache en hoeft niet gebonden te zijn aan fysieke locaties op je schijf. Een RAID-controller van het OS te horen krijgt "Op sector 433884 moeten de volgende 12 bytes worden weggeschreven. Vervolgens leest de controller sectoren 433884 van alle schijven (het is iets ingewikkelder dan dit maar hij leest in ieder geval van alle schijven), modificeert die 12 bytes, berekent de parity en schrijft de dataschijf en de schijf waar voor die sector de parity staat.

Klassieke software RAID doet het ook zoals hierboven, maar filesystems die zelf een RAID-vorm ondersteunen (zoals ZFS) doen het slimmer: Door writes te combineren en er nieuwe sectoren voor te alloceren (iets wat alleen het FS kan, want die weet wat waar staat, een HBA of RAID-controller heeft geen flauw benul) hoef je de andere sectoren niet eerst te lezen. Daarin is ZFS in theorie dus sneller dan legacy RAID (soft- en hardware).

ZFS is echter niet ontworpen om bloedsnel te zijn. Qua throughput schaalt het met de schijven maar qua IOPs schaalt het met het aantal vdevs.
Na deze hele lap tekst denk ik maar 1 ding:
Wat is beter voor mij om te gebruiken?:
ZFS RAID of hardware RAID.

Denk eraan dat ik op snelheid wil gaan.
Het liefste heb ik hardware RAID, alleen als ZFS RAID sneller is, doe ik dat..

Plezant. Krokant. Galant.


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 29-11 11:17
Puur snelheid? SSD, all the way.

Snelheid met SSD's? MDADM software RAID dmv 1 grote RAID0 array met daarop TMPFS.
Maar goed, je wil wel een beetje veiligheid...

ZFS is het veiligste Filesystem vandaag de dag... Het kan ook heel snel zijn, maar het zal niet in alle situaties het snelst zijn. Per situatie kan het verschillen.

Puur sequentieel zal MDADM denk ik in veel gevallen iets sneller zijn.
Qua IOPS wint ZFS het wel.

Even niets...


  • Powermage
  • Registratie: Juli 2001
  • Laatst online: 27-11 22:27
T maakt niet heel veel uit of je nu van 4 disken een Raid 10 maakt op hardware raid of 2x een mirror in een storagepool gooit op ZFS, het is net waar je zelf t vertrouwen in hebt... heb je er niet te veel verstand van KISS, je kan dan ook minder stuk maken :P

Join the club


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
FireDrunk schreef op donderdag 10 april 2014 @ 11:10:
Puur snelheid? SSD, all the way.

Snelheid met SSD's? MDADM software RAID dmv 1 grote RAID0 array met daarop TMPFS.
Maar goed, je wil wel een beetje veiligheid...

ZFS is het veiligste Filesystem vandaag de dag... Het kan ook heel snel zijn, maar het zal niet in alle situaties het snelst zijn. Per situatie kan het verschillen.

Puur sequentieel zal MDADM denk ik in veel gevallen iets sneller zijn.
Qua IOPS wint ZFS het wel.
SSD's, I love them.. Helaas geen poen voor 6x 512GB.. Was het maar zo'n feest.

Wat ik in het verleden wel heb gedaan is dat ik op de machine op hardware niveau een RAID1 set heb aangemaakt (idd, andere server) en die dan in ZFSGuru als 1 schijf heb laten werken. Werkt in principe ook best wel.

Kan ik ook gewoon 6 losse disks aanmaken in de controller en dan 6 disks aan elkaar knuppen in de software die ZFS draait?
Blijkbaar heb ik nog steeds de illusie in m'n koppie dat ZFS RAID slomer is...

Plezant. Krokant. Galant.


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 29-11 11:17
Hardware RAID 1 doen en dan ZFS er op is zonde... ZFS heeft directe toegang nodig tot alle schijven om in zijn volle glorie te kunnen werken.

6 RAID0 arrays maken kan wel, maar is ook niet echt gewenst. Als je dan een bad sector tegekomt, kan je controller besluiten om de hele disk uit de controller te kieperen terwijl ZFS daar nog wel omheen had kunnen werken.

Vandaar dat je eigenlijk met HBA's of Onboard poorten moet werken.

Even niets...


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
FireDrunk schreef op donderdag 10 april 2014 @ 14:28:
Hardware RAID 1 doen en dan ZFS er op is zonde... ZFS heeft directe toegang nodig tot alle schijven om in zijn volle glorie te kunnen werken.

6 RAID0 arrays maken kan wel, maar is ook niet echt gewenst. Als je dan een bad sector tegekomt, kan je controller besluiten om de hele disk uit de controller te kieperen terwijl ZFS daar nog wel omheen had kunnen werken.

Vandaar dat je eigenlijk met HBA's of Onboard poorten moet werken.
Om een groot en dik verhaal klein en simpel te maken;

Wat ik wil is niet te doen...
Of het is Hardware RAID en dan gekloot met de software
Of het is ZFS RAID op een HBA (die ik niet heb en ook niet écht wil aanschaffen)

Ik ga de server vanavond ophalen en dan druk ik om te testen wel even 6x 80GB in.
Ik post de resultaten hier wel over de verschillende oplossingen.

Plezant. Krokant. Galant.


  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Ik draai Linux op mijn Dell PE, Debian Wheezy, en IETD voor iSCSI services. Schijven zijn als RAID0 arrays op de PERC geconfigureerd en in Linux als een RAID1 array samengevoegd met MDADM en via LVM als losse 'delen' voor VM's gesplitst en geserveerd via iSCSI/IETD naar de Xen Hypervisor host die ze dan weer presenteert aan de VM's, en dat over een 2x1GB bonded interface die 1x via een pfSense firewall gaat. Heb ook 1x offsite iSCSI draaien via een VPN tunnel over 1x Gbit, en dan nog haal ik ~90MB/s.

[ Voor 20% gewijzigd door johnkeates op 12-04-2014 00:46 ]


  • 3DDude
  • Registratie: November 2005
  • Laatst online: 29-11 20:30

3DDude

I void warranty's

FireDrunk schreef op donderdag 10 april 2014 @ 11:10:
Puur snelheid? SSD, all the way.

Snelheid met SSD's? MDADM software RAID dmv 1 grote RAID0 array met daarop TMPFS.
Maar goed, je wil wel een beetje veiligheid...

ZFS is het veiligste Filesystem vandaag de dag... Het kan ook heel snel zijn, maar het zal niet in alle situaties het snelst zijn. Per situatie kan het verschillen.

Puur sequentieel zal MDADM denk ik in veel gevallen iets sneller zijn.
Qua IOPS wint ZFS het wel.
Je draait VM's

Kijk aub niet naar kan ik mijn gbit (of 2gbit trunk) volkrijgen met 200MB/s + (dat is wel leuk natuurlijk - maar heb je het nodig?)
Pak de oplossing met de meeste IOPS.
Bedenk goed hoe je de boel gaat indelen, wat geef je waaraan? En wat levert veel IOPS op?
VM met dikke database, die veel IOPS genereert? (als het kan SSD?) Zo niet next best thing?
Je zou meerdere vdevs zoals al gezegd kunnen aanmaken, die (lichte?) linux bakjes gooi je op 1 vdev .. de andere zwaardere dingen spreid je.

Wil je veel meer performance/IOPS --> SSD.
Just my 2 Cents, stop met denken in Raid 10 (tenzij je dat echt graag wilt)
Maak 3 mirrors o.i.d. of de ZFS variant daarvan zodat je je VM's op 3 losse 'pools' kunt spreiden.
:)

Be nice, You Assholes :)


  • PureDevotion
  • Registratie: Februari 2006
  • Laatst online: 08-03 10:05

PureDevotion

toch maar is ff aangemeld...

Wat nog niet is genoemd in de keuze tussen hardware RAIDx en ZFS is dat ZFS een next-generation filesystem is dat behalve RAID veel meer opties biedt.

ZFS voorkomt problemen met oa. bitrot, is veel flexibeler in het aanmaken van raid-sets (pools) en het uitbreiden en vervangen van pools. Als je over een jaar ofzo er nieuwe HDDs in wilt zetten, of SSDs wilt toevoegen kan dat met gemak. Met hardware RAID kan dit wel eens een stuk moeilijker zijn. (conditions apply, ligt heel erg aan de hardware controller, en de HHD/SSD-size, maar ZFS is bijzonder flexibel)

De kracht van ZFS ligt in het feit dat het de FS met de hardware koppeld. In dat perspectief kan BTRFS ook erg interessant zijn, maar ZFS is op de BSDs veel stabieler en heeft zichzelf goed bewezen.

Hoewel ik begrijp dat je zoveel mogelijk snelheid wilt, wil je vast ook beheersbaarheid en controle. Mijn gelimiteerde ervaring is dat ZFS daar briljant in is. Plus ZFS biedt deduplicatie, compressie en andere mooie features die ook erg interessant kunnen zijn. Maar gaat wel knagen aan je RAM...

In het NFS/iSCSI debat valt weiig toetevoegen. hele andere beestjes, en VMware is goed met beide, als ik het goed begrijp. Voordeel van iSCSI is dat het meerdere IP-paths kan gebruiken, mocht je meerdere willen combineren. Maar ik denk dat je vooral moet gaan met wat je zelf het ideaalst lijkt. Qua snelheid zullen de verschillen miniem zijn.


ps. Als leer-factor een ook van belang is (ivm. alle refs naar school/studie) dan is arguably ZFS de betere keuze.

||P4 2,6ghz-1792MB-Aquos LCDTV|| ++Canon20D+Tamron 28-75++


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
PureDevotion schreef op dinsdag 15 april 2014 @ 08:15:
Wat nog niet is genoemd in de keuze tussen hardware RAIDx en ZFS is dat ZFS een next-generation filesystem is dat behalve RAID veel meer opties biedt.

ZFS voorkomt problemen met oa. bitrot, is veel flexibeler in het aanmaken van raid-sets (pools) en het uitbreiden en vervangen van pools. Als je over een jaar ofzo er nieuwe HDDs in wilt zetten, of SSDs wilt toevoegen kan dat met gemak. Met hardware RAID kan dit wel eens een stuk moeilijker zijn. (conditions apply, ligt heel erg aan de hardware controller, en de HHD/SSD-size, maar ZFS is bijzonder flexibel)

De kracht van ZFS ligt in het feit dat het de FS met de hardware koppeld. In dat perspectief kan BTRFS ook erg interessant zijn, maar ZFS is op de BSDs veel stabieler en heeft zichzelf goed bewezen.

Hoewel ik begrijp dat je zoveel mogelijk snelheid wilt, wil je vast ook beheersbaarheid en controle. Mijn gelimiteerde ervaring is dat ZFS daar briljant in is. Plus ZFS biedt deduplicatie, compressie en andere mooie features die ook erg interessant kunnen zijn. Maar gaat wel knagen aan je RAM...

In het NFS/iSCSI debat valt weiig toetevoegen. hele andere beestjes, en VMware is goed met beide, als ik het goed begrijp. Voordeel van iSCSI is dat het meerdere IP-paths kan gebruiken, mocht je meerdere willen combineren. Maar ik denk dat je vooral moet gaan met wat je zelf het ideaalst lijkt. Qua snelheid zullen de verschillen miniem zijn.


ps. Als leer-factor een ook van belang is (ivm. alle refs naar school/studie) dan is arguably ZFS de betere keuze.
Allemaal leuk en aardig.. Maar hoe ga ik dit doen met m'n huidige configuratie?
Daarmee bedoel ik geen andere SAS controller kopen, want dan ga ik ver over m'n budget heen...

Mijn budget voor dit systeem was 100 euro. Momenteel zit ik daar €6,75 overheen (niet dat die 6,75 een probleem is).
Met het budget er doorheen gejaagd en achterstandige ontwikkelingen wegens te weinig storage.. Wat is mijn beste schot hier voor opslag?

Plezant. Krokant. Galant.


  • Paul
  • Registratie: September 2000
  • Laatst online: 22:34
100 euro is ook wel erg weinig. En met die 2950 ga je daar nog eens meer dan 400 per jaar achteraan gooien qua stroomkosten (200 watt, 25ct/kWh -> 438 euro / jaar)

Gezien het budget en de al aanwezige hardware ga ik je aanraden hardware RAID te gebruiken en dan geen ZFS te gebruiken maar een 'normaal' filesystem :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • Brahiewahiewa
  • Registratie: Oktober 2001
  • Laatst online: 30-09-2022

Brahiewahiewa

boelkloedig

Met ^^
Ik zou gewoon die 6 disks in raid0 gooien ( 1,5 TB lijkt nu nog veel maar over twee jaar niet meer)
Draai zelf nas4free met 4 x 2 TB in softraid0 (want mijn hardware raid is windows-only)
Op een iSCSI client haal ik gewoon 90 MB/s; da's 75% van het theoretisch maximum

Je kunt enorm gaan vogelen met ZFS, jumbo frames, VLAN's en wat dies meer zij, maar mijn ervaring is dat dat minder dan 1% winst oplevert, terwijl je setup er stukken gecompliceerder van wordt, en daarmee kwetsbaarder

QnJhaGlld2FoaWV3YQ==


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Brahiewahiewa schreef op dinsdag 22 april 2014 @ 14:00:
Met ^^
Ik zou gewoon die 6 disks in raid0 gooien ( 1,5 TB lijkt nu nog veel maar over twee jaar niet meer)
Draai zelf nas4free met 4 x 2 TB in softraid0 (want mijn hardware raid is windows-only)
Op een iSCSI client haal ik gewoon 90 MB/s; da's 75% van het theoretisch maximum

Je kunt enorm gaan vogelen met ZFS, jumbo frames, VLAN's en wat dies meer zij, maar mijn ervaring is dat dat minder dan 1% winst oplevert, terwijl je setup er stukken gecompliceerder van wordt, en daarmee kwetsbaarder
RAID0? Ziede ge gek?
Ik heb juist voor een RAID oplossing gevraagd om mijn data VEILIG te stellen.
Bij RAID 0 (en aangezien ik allemaal minimaal 2 jaar oude schijven gebruik), heb ik compleet geen veiligheid..

VLAN enzo ben ik ook niet van plan in te gaan stellen. Voor dat iniminie setupje die ik daar heb, ga ik die moeite niet doen.


Ik heb het nu draaien met ESXi. Ik draai de 6 schijven in RAID10 en heb via een USB stick ESXi geboot en daarop staat FreeNAS.

Waarom heb ik dit gedaan?:
Omdat elke keer dat mijn server boot met iets van dat gebruikt maakt van FreeBSD, hij crashed en reboot.
Of het nou een USB stick of harde schijf is. Vreemd.. Ja, klopt.
Nu heb ik het opgelost en nu haal ik wel dezelfde snelheid (110MB/s) via iSCSI dan m'n testserver die 2x 500GB (zelfde schijven) in RAID1 had.
Ik vind het dus voor nu al prima. Ondanks dat dit nu even in test zit.

Ik heb nog een keer gekeken naar Nexenta, FalconStor en GlusterFS (werkt nog steeds niet :( ).
Al dit wordt slomer en ik heb toch niet echt m'n vertrouwen daar liggen (behalve de CentOS waar ik GlusterFS op draai. CentOS gebruik ik vaker).


Ik draai nu alles in test en hij werkt zover lekker.
Nu nog even zorgen dat mijn ESXi server (1 van de 3) 2 NIC's aan elkaar krijgt en ik kan er weer ff tegenaan.

Plezant. Krokant. Galant.


  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 28-11 16:59

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

Tompecht schreef op dinsdag 22 april 2014 @ 14:25:
[...]


RAID0? Ziede ge gek?
Ik heb juist voor een RAID oplossing gevraagd om mijn data VEILIG te stellen.
Bij RAID 0 (en aangezien ik allemaal minimaal 2 jaar oude schijven gebruik), heb ik compleet geen veiligheid..
Raid an sich zegt 0,0 over dataveiligheid hoor. Da's alleen maar een disk-config waarbij afhankelijk van de gemaakte keuze één of meerdere disken mogen uitvallen. Ik heb net het topic even doorgelezen maar ik lees nergens iets over een eis of wens om ook bepaalde redudancy te hebben. Alleen maar dat het voor een testopstelling thuis is.
Tompecht schreef op dinsdag 08 april 2014 @ 23:12:
Ik zoek een snelle, gemakkelijke en stabiele oplossing voor mijn opslag

<knip>

Geld is een issue.
Snel, gemakkelijk, stabiel én goedkoop. Mocht je die gevonden hebben, laat het me even weten. Ik zoek daar al jaren naar... :)

Het klinkt een beetje flauw, maar die combinatie ga je niet vinden. Je levert altijd wel ergens op in. Vandaar dat de optie van Brahiewahiewa om dan maar betrouwbaarheid in te leveren niet eens zo'n slechte is. Het is immers maar test, met goede backups zou diskuitval wel op te lossen zijn.

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Question Mark schreef op dinsdag 22 april 2014 @ 14:45:
[...]

Raid an sich zegt 0,0 over dataveiligheid hoor. Da's alleen maar een disk-config waarbij afhankelijk van de gemaakte keuze één of meerdere disken mogen uitvallen. Ik heb net het topic even doorgelezen maar ik lees nergens iets over een eis of wens om ook bepaalde redudancy te hebben. Alleen maar dat het voor een testopstelling thuis is.


[...]

Snel, gemakkelijk, stabiel én goedkoop. Mocht je die gevonden hebben, laat het me even weten. Ik zoek daar al jaren naar... :)

Het klinkt een beetje flauw, maar die combinatie ga je niet vinden. Je levert altijd wel ergens op in. Vandaar dat de optie van Brahiewahiewa om dan maar betrouwbaarheid in te leveren niet eens zo'n slechte is. Het is immers maar test, met goede backups zou diskuitval wel op te lossen zijn.
Ik snap wel dat RAID niets zegt over dataveiligheid, maar ik heb het in al mijn posts wel over RAID oplossingen behalve RAID0. RAID0 zie ik niet als een oplossing. Dan heb ik wel 3TB aan opslag, maar als 1 schijf het niet meer heeft, dan ben ik alles kwijt. Veilig is het dus absoluut niet.

Snel, gemakkelijk, stabiel en goedkoop heb ik nu thuis draaien.
Ik heb een grotere omweg genomen dat eigenlijk de bedoeling was, maar het werkt tenminste.
Ik heb totaal 100 euro uitgegeven in een machine die ook voor toekomstig gebruik nog geschikt en snel genoeg is.
Laat ik het zo zeggen; Ik vind dat het goedkoop is en voor mijn doen is hij goed genoeg.
Als het voor het bedrijf was, dan had ik het anders aangepakt.

Plezant. Krokant. Galant.


  • Paul
  • Registratie: September 2000
  • Laatst online: 22:34
Behalve RAID 0 heeft hij het ook over 1,5 TB. Het lijkt me dan ook niet onwaarschijnlijk dat hij zich vergist in de naam en RAID 1 (of 10) bedoelt ;)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Paul schreef op dinsdag 22 april 2014 @ 15:38:
[...]
Behalve RAID 0 heeft hij het ook over 1,5 TB. Het lijkt me dan ook niet onwaarschijnlijk dat hij zich vergist in de naam en RAID 1 (of 10) bedoelt ;)
Point taken...

Plezant. Krokant. Galant.


  • Brahiewahiewa
  • Registratie: Oktober 2001
  • Laatst online: 30-09-2022

Brahiewahiewa

boelkloedig

Paul schreef op dinsdag 22 april 2014 @ 15:38:
[...]
Behalve RAID 0 heeft hij het ook over 1,5 TB. Het lijkt me dan ook niet onwaarschijnlijk dat hij zich vergist in de naam en RAID 1 (of 10) bedoelt ;)
Kweet echt wel wat raid0 t/m 50 is, hoor.

Maar die "veiligheid" neem ik met een korreltje zout. Tot nu toe heb ik het re-builden van een raid set vaker fout zien gaan dan goed zien gaan. YMMV

QnJhaGlld2FoaWV3YQ==


  • Paul
  • Registratie: September 2000
  • Laatst online: 22:34
Hoe kom je dan aan 1.5 TB? En ik heb het rebuilden van raid-sets tot dusver alleen maar goed zien gaan, en dan heb ik er toch een stuk of 50 van dichtbij mee mogen maken.

Met RAID 0 weet je zeker dat je alles kwijt bent als er een schijf uit vliegt, met RAID 1 heb je nog een kans :P Niet dat RAID in zijn eentje je hele backupstrategie moet behelzen maar het is een relatief goedkope manier om je uptime te vergroten. Iedere paar maanden weer alles terugzetten van backup gaat ook vervelen.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • Brahiewahiewa
  • Registratie: Oktober 2001
  • Laatst online: 30-09-2022

Brahiewahiewa

boelkloedig

Uit de OP:
Tompecht schreef op dinsdag 08 april 2014 @ 23:12:...Deze server wil ik later wel upgraden naar grotere schijven, maar door mijn krappe budget doe ik er nu 6x 500GB in, wat effectief 1,5TB voor mij is. Genoeg voor nu.
En ik heb het rebuilden van raid-sets tot dusver alleen maar goed zien gaan, en dan heb ik er toch een stuk of 50 van dichtbij mee mogen maken.
Zoals gezegd: YMMV
En, hoe je 't ook wendt of keert, raid is - per definitie - geen backup

QnJhaGlld2FoaWV3YQ==


  • Paul
  • Registratie: September 2000
  • Laatst online: 22:34
...waar het over RAID 10 gaat ;) Als jij dan aankomt met RAID 0 en 1.5 TB dan moet je je in één van beiden vergissen. Aangezien je bij ieder zichzelf respecterende systeembeheerder vierkant wordt uitgelachen als je voor generieke dataopslag RAID 0 gaat gebruiken lijkt het me nog altijd niet onwaarschijnlijk dat je RAID 1 en 1.5 TB bedoelde ipv RAID 0 en 3 TB.
En, hoe je 't ook wendt of keert, raid is - per definitie - geen backup
Natuurlijk is het dat wel. Het biedt maar bij een beperkt aantal use cases uitkomst, maar het is zeker wel een vorm van backup. Dat het niet beschermt tegen dataverlies door fuck-ups of een virus of het afbranden van je server, daar ben ik het helemaal mee eens, maar het is een goedkope en eenvoudige manier om (te proberen) een van de vaker voorkomende oorzaken van downtime en dataverlies te ondervangen.

Dat het in zijn eentje de heilige graal is en je verder 0,niks hoeft te regelen aan backup beweert niemand, maar als het zo waardeloos zou zijn als jij het voorschotelt dan zou de hele rest van de wereld het fout doen? Lijkt me niet...

Ik weet niet wat jouw definitie van backup is, de mijne is "het voorbereiden van een restore"... Met RAID (1 of hoger) kun je 1/Nde (waarbij N afhankelijk is van je RAID-niveau) van je data restoren wanneer er een (of meer, wederom afhankelijk van je RAID-niveau) harddisks stuk gaan. En dat met een RPO en een RTO van nul... Zie dat met een ntbackup, Backup Exec of Simpana maar eens voor elkaar te krijgen...

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • Brahiewahiewa
  • Registratie: Oktober 2001
  • Laatst online: 30-09-2022

Brahiewahiewa

boelkloedig

Sorry dat ik je op je pik getrapt heb, hoor.

Ik ben dan kennelijk de afgelopen 20 jaar alleen maar zeldzame minkukels als raid beheerders tegengekomen. Maar da's _mijn_ ervaring nou eenmaal: dat er één zo'n LEDje knippert op een diskcabinet schijnt niemand te interesseren en als er twee rode LEDjes knipperen dan staat ineens het voltallige management er. Maarja, dan is het te laat

QnJhaGlld2FoaWV3YQ==


  • Paul
  • Registratie: September 2000
  • Laatst online: 22:34
Je hebt de afgelopen 20 jaar hele hordes systeembeheerders gezien die vrolijk hun SAN op RAID 0 zetten en daar productie op gaan draaien? Dan ben ik het inderdaad eens met de omschrijving minkukels, en hoop nog steeds dat ze zeldzaam zijn...

Je management valt ook onder die noemer trouwens. Als er één lampje knippert op je disk array dan zorg je dat de leverancier een nieuwe schijf stuurt terwijl de array al bezig is met rebuilden naar één van de 3 spares.

Dat je thuis misschien geen 3 spares en een 4h contract hebt doet verder niets aan het mechanisme af.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Paul schreef op donderdag 24 april 2014 @ 09:08:
[...]

Je management valt ook onder die noemer trouwens. Als er één lampje knippert op je disk array dan zorg je dat de leverancier een nieuwe schijf stuurt terwijl de array al bezig is met rebuilden naar één van de 3 spares.

Dat je thuis misschien geen 3 spares en een 4h contract hebt doet verder niets aan het mechanisme af.
Ik kijk elke dag op m'n server, dus ik heb er nog geluk mee als er een ledje knippert en ik zie het.
Het probleem wordt dan wel wat moeilijker op te lossen... Hij moet vervangen worden door een andere disk die ik op dat moment nog niet heb, dat betekend dus weer een schijf aankopen.

Maar als er een disk kapot gaat van m'n totale 1,4TB effectieve ruimte, ga ik niet moeilijk doen en koop zo een nieuwe aan.
Je hebt de afgelopen 20 jaar hele hordes systeembeheerders gezien die vrolijk hun SAN op RAID 0 zetten en daar productie op gaan draaien?
Sorry, maar bestaan ze inderdaad nog?
Als ik zoiets een keer nog mee mocht maken (verwacht het niet), dan ga ik die persoon heel erg hard uitlachen.
Iedereen met een beetje verstand van RAID, weet dat als je alles in RAID0 zet en er gaat 1 schijf dood, dat je de sjaak bent met je data.
RAID0 zie ik tegenwoordig niet meer als optie. Zelf niet in een laptop om het spul wat meer ruimte te geven als 1 driveletter. *RAID0 is dead to me*

---wijziging: bovenstaande geldt ook voor RAID5. Tenzij het een oude testbak is die geen RAID6, 10, 50 of 60 kan.---

[ Voor 3% gewijzigd door SilentDecode op 25-04-2014 00:15 ]

Plezant. Krokant. Galant.


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
wagenveld schreef op dinsdag 08 april 2014 @ 23:27:
Toevallig recentelijk een lab gebouwd op basis van 2012 R2 en wil wel even Windows=traag ontkrachten. 2012 R2 Hyper V cluster + 2012 R2 SMB3 fileserver gaat als een speer, 4K is hetzelfde op de fileserver vs een VM op de cluster. Ook een 2950 trouwens. Voordeel van SMB3 is dat je geen iSCSI netwerk (VLAN etc) nodig hebt.
Maar goed, ik begrijp dat je de Windows licentie kosten niet wilt maken, dus je mag mn post verder negeren ;)
(om oude koeien uit de sloot te halen)
Hoe heb je die 2950 eigenlijk geconfigureerd staan?
Hoe staat het specifiek geconfigureerd in Windhoos en hoe staan je RAID instellingen?
Hoe is de kracht in de server aanwezig? Dual cores? Quad Cores? RAM? Disks?

Ik ben wel benieuwd. Misschien is het namelijk voor later wat en hoe ik het na kan bouwen.

[ Voor 5% gewijzigd door SilentDecode op 25-04-2014 00:19 ]

Plezant. Krokant. Galant.


  • wagenveld
  • Registratie: Februari 2002
  • Niet online
Np, heb volgende diagram gebruikt. Twee dual cores volgens mij met 16GB. Heb alleen een nieuwe batterij gekocht voor de PERC5. Elke Hyper V host heeft 2 NIC's, 1 voor de host+SMB verkeer en 1 voor de VM's. Voor de configuratie: http://technet.microsoft.com/en-us/library/jj134187.aspx

Afbeeldingslocatie: https://dl.dropboxusercontent.com/u/809283/Brandon_lab.png

Afbeeldingslocatie: https://dl.dropboxusercontent.com/u/809283/fileserver.PNG

  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
wagenveld schreef op vrijdag 25 april 2014 @ 10:56:
Np, heb volgende diagram gebruikt. Twee dual cores volgens mij met 16GB. Heb alleen een nieuwe batterij gekocht voor de PERC5. Elke Hyper V host heeft 2 NIC's, 1 voor de host+SMB verkeer en 1 voor de VM's. Voor de configuratie: http://technet.microsoft.com/en-us/library/jj134187.aspx

[afbeelding]

[afbeelding]
Klein probleempje hier...
Windows Hyper-V gebruik je wat niet écht in mijn plan staat om te gebruiken.
Je disken zijn ook veeeeeeeeel sneller dan mijn standaard desktop schijfjes, dus de snelheid die je haalt vind ik niet raar. Dit ga ik never nooit halen met die schijven van mij.
Investeren in snellere schijven is ook een no-go :P

Plezant. Krokant. Galant.


  • wagenveld
  • Registratie: Februari 2002
  • Niet online
Ja, MS partner moet wel he ;) Dit is uiteraard ook niet voor mij alleen maar de test omgeving voor alle engineers.

  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
wagenveld schreef op woensdag 30 april 2014 @ 15:21:
Ja, MS partner moet wel he ;) Dit is uiteraard ook niet voor mij alleen maar de test omgeving voor alle engineers.
Ah, makes much more sense.
Ik draai liever namelijk geen Windows, want ik heb uit ervaringen dat het erg traag is.
Ik draai ook geen hoge productie op die machines, anders had ik wel een EMC ofzo gekocht :P.

[ Voor 0% gewijzigd door Equator op 01-05-2014 09:52 . Reden: typo ]

Plezant. Krokant. Galant.


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
wagenveld schreef op woensdag 30 april 2014 @ 15:21:
Ja, MS partner moet wel he ;) Dit is uiteraard ook niet voor mij alleen maar de test omgeving voor alle engineers.
Ik ben bezig met het spul aan het nabouwen.
Ik heb al 2 machines geïnstalleerd met Windows Server 2012R2.

Binnenkort misschien even een netwerkkaart kopen om een grotere datastroom uit m'n StorageServer te kunnen trekken.
Momenteel doe ik alles met 'NIC Teaming'.

Natuurlijk haal ik niet de snelheid die jij haalt, want ik heb slomere schijven.
Ik ben wel aan het kijken om er een caching SSD in te zetten (mits Windows dat ondersteund).

Plezant. Krokant. Galant.


Verwijderd

SAN naar fibre channel adapters ?

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 08:04
Tompecht schreef op dinsdag 06 mei 2014 @ 22:03:
[...]


Ik ben bezig met het spul aan het nabouwen.
Ik heb al 2 machines geïnstalleerd met Windows Server 2012R2.

Binnenkort misschien even een netwerkkaart kopen om een grotere datastroom uit m'n StorageServer te kunnen trekken.
Momenteel doe ik alles met 'NIC Teaming'.

Natuurlijk haal ik niet de snelheid die jij haalt, want ik heb slomere schijven.
Ik ben wel aan het kijken om er een caching SSD in te zetten (mits Windows dat ondersteund).
Storage Space aanmaken met een Write Back Cache :)

http://www.aidanfinn.com/?p=15430

A wise man's life is based around fuck you


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Verwijderd schreef op vrijdag 09 mei 2014 @ 16:00:
SAN naar fibre channel adapters ?
Nog niet aan gedacht.. Maar moet ik wel eerst geld ervoor hebben. :P

Nieuw kopen is nog geen optie voor mij, want dan ben ik voor 1 controller al duur uit, als ik er 2 moet hebben..
Ik probeer nu alles nog via Tweakers aan te schaffen, aangezien de rest van m'n servers daar ook vandaan komen en het een stuk goedkoper is :P.

Eerst even kijken hoe ik het spul moet gaan aansluiten als het eenmaal zover is.

[ Voor 8% gewijzigd door SilentDecode op 11-05-2014 12:57 ]

Plezant. Krokant. Galant.


  • SilentDecode
  • Registratie: Juni 2008
  • Laatst online: 26-10 21:49
Ik heb laatst een stapeltje servers opgekocht voor een leuk prijsje en daar zitten 4 FC 4Gbit adapters in.
Nu alleen nog zorgen dat ik er glas tussen heb..

Plezant. Krokant. Galant.


  • Equator
  • Registratie: April 2001
  • Laatst online: 28-11 20:09

Equator

Crew Council

#whisky #barista

En dan?

Wat ga je doen met die HBA's? Wat wil je met FC gaan aansluiten en welk protocol wil je daarvoor gebruiken dan? Ik doe hier een aanname dat het HBA's zijn, gezien de 4Gbps snelheid. Dat is een FC standaard.

Want die HBA is te gebruiken als adapter om via Fiber Channel storage aan te spreken. Je kan er niet zomaar storage mee gaan aanbieden ,je moet ze dan ombouwen/flashen naar een FC target. En voor Ethernet kan je ze niet gebruiken.

[ Voor 11% gewijzigd door Equator op 20-06-2014 14:46 ]

Pagina: 1