Speciale ZFS Edit
Geachte vrienden-voorstanders van ZFS.
aangezien de discussie keer op keer opgezwengeld blijft worden, hierbij een verduidelijking.
in dit topic vertel ik mijn voortgang in mijn keuze proces tussen mijn zelfbouw NAS of een kant en klare Synology.
mijn keus voor een Synology en de daarbij horende vergelijking valt niet bij iedereen in goede aarde. daarom de volgende extra-speciale mededeling:
-Ja ik ben mij er volledig van bewust dat het stukken goedkoper kan met ZFS en zelfbouw
-Ja ik ben mij er van bewust dat ZFS vast ook hele fancy beheer interfaces kent
-Ja ik ben mij ervan bewust dat ik, indien ik 15K+ te verspijkeren had, ook kant en klare ZFS oplossingen had kunnen kopen op enterprise niveau
-ik ben simpelweg niet geinteresseerd in Linux leren. ook al is het "allemaal zo simpel" en zijn "overal guides voor", dat is met die Synology ook zo. en toch kreeg ik het weer voor elkaar iets te kopen\ in te richten wat weer niet onder de standaard guides viel. dat gebeurd me namelijk altijd. ik heb een korte flirt met linux achter de rug en het was gewoon niet mijn ding.klaar.
nogmaals, ik vind jullie allemaal lief, en ZFS is allemaal leukl en aardig, maar voor mij is het zwakke punt van ZFS dat ik een *nix OS moet draaien. en dat wil ik niet.
mag dan nu de discussie over ZFS ophouden? ik wil voorstellen dat de heren ZFS fans proberen de top 20 van het 10tb+ storage topic proberen te overtuigen, daar is nog heel wat te behalen
/Speciale ZFS Edit
DISCLAIMER
dit topic is op geen enkele manier bedoelt als show-off topic. daarvoor hebben we de 10TB+ topics al. Wat ik hier vergelijk is niet voor iedereen weggelegd. Ik probeer niemand de ogen uit te steken of zo hard mogelijk te roepen "kijk eens wat ik heb". er is blijkbaar veel interesse in dergelijke opstellingen (zie het 10TB+ topic wat in enkele maanden uit zijn voegen groeit). deze discussie die ik wil voeren is vooral gericht op : moet je bij dit soort monsters nog wel zelf willen bouwen? wat kom ik te kort als ik gebruik maak van off-the-shelf oplossingen?
ik ben open en bloot over wat iets kost, ook kun je me dingen vragen te testen, dat doe ik met liefde. dit alles in het kader van delen met elkaar. comments als "hoe kun je dat betalen" of "ik geloof het niet" of "pics or it didn't happen" mag je daarom ook thuislaten. it did happen, en pics kun je hieronder vinden
/DISCLAIMER
LEES MIJ EERST
omdat veel mensen er snel doorheen skippen en een mening geven, toch maar even een toevoeging aan de disclaimer
mijn topic is niet bedoeld om wie\wat dan ook af te branden. er zijn massa's oplossingen mogelijk, ik vergelijk een standaard zelfbouw systeem met een out-of-the-box oplossing.
een standaard zelfbouw systeem, en ik weet dat ik hierop aangevallen ga worden door de linux adapten, is nu eenmaal een serverbordje met een areca, draaiend op hardware raid. kijk je in het storage showoff topic, dan zie je daar ook dat van de top 10 een 7 man een windows systeem draaien in combinatie met een areca. 1 persoon draait windows met raid 0 arrays, 1 draait zfs, 1 draait mdam. het lijkt me dat we dan samen als volwassenen kunnen besluiten dat voor een "simpel" storage systeem met 10 TB+ over het algemeen een areca met windows gebruikt wordt.
ik kan de reden ook wel raden.. het is makkelijk. weinig gerommel, het wiel is hiermee al uitgevonden, en het werkt gewoon. dat wil niet zeggen dat ZFS or iets dergelijks niet goed werkt! ik denk zelf dat het een kwestie van tijd is voordat ZFS de standaard voor software raid gaat worden. mijn probleem met ZFS? ik moet me er flink op inlezen, terwijl dat voor een hardware raid controller niet nodig is. realiseer je goed dat veel mense met dit soort grote storage systemen helemaal geen zin hebben om na alle tijd en geld die uberhaupt in het bouwen is gestoken, dan ook nog eens een heel nieuw bestandssysteem\software raid systeem te leren kennen. alle verandering is goed, zolang alles maar hetzelfde blijft..
is mijn vergelijking 100% eerlijk? nee. ik vergelijk een groot storage systeem van een luilak met een out-of-the-box syteem voor een luilak. niets meer, niets minder.
/LEES MIJ EERST
Mede-Tweakers;
ik ben zelf al lang volger\lurker\deelnemer in zowel de Zelfbouw NAS topics als the 10TB+ Storage Systems.
mijn historie met storage system is zeer divers;
ooit begonnen met losse 120 GB schijven in een externe USB behuizing, daarna met RAID 3 XFX kaarten mijn eerste terabyte halen met 250 gig schijven, en langzaam doorhobbelen richting het betere spul
laatste "echte" server was een;
Supermicro 846 chassis (24 bay hot-swap)
Supermicro X8dwn+ moederbord
dual quad core xeon
64 gb geheugen
Areca 1280ML
24X wd2002FYPS schijf.
doel van dit systeem: virtualiseren met Hyper-V en lomp veel storage hebben.
maar dit spul maakt herrie. veel herrie.
dus is er een maand geleden een reincarnatie geweest;
nu draait het in een Lian-Li 343B, non-hotswap bays van Norco
Supermicro AMD bord
12 core opteron
64 gb geheugen
Areca 1280ML
1200 watt Coolermaster voeding
24X wd2002fyps schijf
wederom het doel, virtualiseren met Hyper-V en lomp veel storage..
maar zoals zovelen in de 10TB+ topics; 40TB just isn't enough. nog erger, hoeveel je ook hebt, het is nooit genoeg.
en toen mijn HD's ook nog eens kuren begonnen te vertonen en dit zo slecht op te vangen was met de Areca, was ik het wel beu. dit moet makkelijker kunnen. en toen ik wat rekeningen zag dacht ik ook, dit moet ook goedkoper kunnen. (uiteindelijk bleken de issues overigens met de Molex-to-2-sata-splitters te zitten. die vervangen en alles was weer goed.
in dit topic wil ik laten zien hoe ik een Synology DS3611xs heb ingericht om hetzelfde te doen als voorheen. hierbij ga ik, als die-hard Hardware-RAID gebruiker de wereld van software RAID en voorgeconfigureerde spullen in. ik ben gewend alles zelf te bouwen, zelf te installeren, en zelf te troubleshooten. ikzelf kom uit een Windows wereld, en ga dus het grote onbekende in.
ik zal hierbij foto's en bevindingen plaatsen van alles wat ik doe. het leuke, maar ook het minder leuke. wat werkt wel, wat werkt niet, en vooral, hoe bevalt dit nou?
ik ga echt all-in, oftewel, al mijn data (32 TB) gaat over naar de Synology. hierbij gaan ook al mijn apps en dergelijke over (newznab, sickbeard, sabnzb) en blijft mijn server enkel behouden voor virtualisatie.
en dan nu, vooral het spannendste voor de mede-tweakers, hoe performed dit nu?
voor een eindgebruiker, maar ook voor een power user met bijv. Iscsi.
is het een haalbaar alternatief?
ik heb ervaring met de hardware RAID opstellingen, performed dit nu vergelijkbaar?
en dan ook natuurlijk, kostentechnisch.. hoe steken de kosten voor deze Synology oplossing nu af tegen een zelfbouw systeem? en hoe zit het technisch in elkaar? zit het een beetje duurzaam in elkaar?
de komende weken wil ik in dit topic graag mijn ervaringen delen en daarin de vergelijkingen met mijn oudere oplossingen. ik geloof zelf dat Synology een "betere" oplossing is, maar is dat wel echt zo?
ook kan ik dingen testen wat hier aangevraagd wordt.. ik ben ook benieuwd wat wel en niet kan namelijk
Waarom?
dat is misschien de beste vraag. waarom een Synology als je al een storage server hebt?
simpel: de honger naar meer ruimte.
momenteel loop ik tegen beperkingen aan van mijn opstelling. met heel veel pijn en moeite kan ik 36 disks in de Lian-LI kwijt. dit heb ik geprobeerd. hierbij liep ik tegen problemen met warmte die ik niet goed afgevoerd kreeg zonder daarbij een mega-turbine te creeeren, RAID controllers die niet pasten (dankzij de CPU koeler had ik nog maar 2 PCI-E poorten over, 1 voor de Areca, 1 voor de quad netwerkkaarten). en dan is het vol.
ook garantie technisch was dit gewoon niet handig. sommige dingen hadden 1 jaar garantie, andere 2, andere 3. als je dan de complete setup uitlegd dan vragen ze zich af of je gek bent geworden.. wilde ik mijn Areca uitbreiden op een ondersteunde manier, dan moest ik Enterprise class schijven gebruiken die veel geld kosten. ik heb daarom mijn eisen lijstje eens op papier gezet, en kijken wat ik wilde.
eisen lijstje
wat moet de opstelling kunnen:
Build Setup & Kosten:
wat heb ik nu eigenlijk draaien?
momenteel heb ik draaien:
Lian-Li PC343B = 287 euro
coolermaster 1200 watt silent pro gold =186 euro
AMD Opteron 6174 = 980 euro (had een kleinere kunnen zijn, dus reken ik 400 euro)
2 X velociraptor 74 gb : 58 euro X 2 = 116 euro
64 GB ECC Geheugen : 998 euro (8 gb "echt" nodig dus voor de berekening 998 /8 = 125 euro)
SuperMicro H8SGL-f Moederbord = 233 euro
SS-500 hot swap bay = 101,75 X 5 = 509 euro
Areca 1280ML met 2 GB ECC en BBU = 1000 euro
Western Digital Wd2002FYPS schijven : 147 euro X 24 = 3528 euro
losse ventilatoren en accessoires: 300 euro (o.a. voor de processor, kast e.d.)
Intel PCI-E ET Quad Netwerk kaart : 335 euro
kom ik op 7019 euro inc. BTW om dit na te bouwen..
impressie:

wat heb ik op Synology niveau:
een DS3611XS = 2138
tweemaal een DX1211 = 2 X 938 = 1876 (voor de optelsom 938 want ik heb er nu "maar" 1 nodig)
24X Wd20EARS Harde Schijf = 60 euro X 24 = 1440
3 X 2 GB ECC geheugen = 68 euro X 3 = 204 euro
bij elkaar is dat 4764 inc. btw
dat is iets meer als 220 euro goedkoper..
impressie:
Geachte vrienden-voorstanders van ZFS.
aangezien de discussie keer op keer opgezwengeld blijft worden, hierbij een verduidelijking.
in dit topic vertel ik mijn voortgang in mijn keuze proces tussen mijn zelfbouw NAS of een kant en klare Synology.
mijn keus voor een Synology en de daarbij horende vergelijking valt niet bij iedereen in goede aarde. daarom de volgende extra-speciale mededeling:
-Ja ik ben mij er volledig van bewust dat het stukken goedkoper kan met ZFS en zelfbouw
-Ja ik ben mij er van bewust dat ZFS vast ook hele fancy beheer interfaces kent
-Ja ik ben mij ervan bewust dat ik, indien ik 15K+ te verspijkeren had, ook kant en klare ZFS oplossingen had kunnen kopen op enterprise niveau
-ik ben simpelweg niet geinteresseerd in Linux leren. ook al is het "allemaal zo simpel" en zijn "overal guides voor", dat is met die Synology ook zo. en toch kreeg ik het weer voor elkaar iets te kopen\ in te richten wat weer niet onder de standaard guides viel. dat gebeurd me namelijk altijd. ik heb een korte flirt met linux achter de rug en het was gewoon niet mijn ding.klaar.
nogmaals, ik vind jullie allemaal lief, en ZFS is allemaal leukl en aardig, maar voor mij is het zwakke punt van ZFS dat ik een *nix OS moet draaien. en dat wil ik niet.
mag dan nu de discussie over ZFS ophouden? ik wil voorstellen dat de heren ZFS fans proberen de top 20 van het 10tb+ storage topic proberen te overtuigen, daar is nog heel wat te behalen
/Speciale ZFS Edit
DISCLAIMER
dit topic is op geen enkele manier bedoelt als show-off topic. daarvoor hebben we de 10TB+ topics al. Wat ik hier vergelijk is niet voor iedereen weggelegd. Ik probeer niemand de ogen uit te steken of zo hard mogelijk te roepen "kijk eens wat ik heb". er is blijkbaar veel interesse in dergelijke opstellingen (zie het 10TB+ topic wat in enkele maanden uit zijn voegen groeit). deze discussie die ik wil voeren is vooral gericht op : moet je bij dit soort monsters nog wel zelf willen bouwen? wat kom ik te kort als ik gebruik maak van off-the-shelf oplossingen?
ik ben open en bloot over wat iets kost, ook kun je me dingen vragen te testen, dat doe ik met liefde. dit alles in het kader van delen met elkaar. comments als "hoe kun je dat betalen" of "ik geloof het niet" of "pics or it didn't happen" mag je daarom ook thuislaten. it did happen, en pics kun je hieronder vinden
/DISCLAIMER
LEES MIJ EERST
omdat veel mensen er snel doorheen skippen en een mening geven, toch maar even een toevoeging aan de disclaimer
mijn topic is niet bedoeld om wie\wat dan ook af te branden. er zijn massa's oplossingen mogelijk, ik vergelijk een standaard zelfbouw systeem met een out-of-the-box oplossing.
een standaard zelfbouw systeem, en ik weet dat ik hierop aangevallen ga worden door de linux adapten, is nu eenmaal een serverbordje met een areca, draaiend op hardware raid. kijk je in het storage showoff topic, dan zie je daar ook dat van de top 10 een 7 man een windows systeem draaien in combinatie met een areca. 1 persoon draait windows met raid 0 arrays, 1 draait zfs, 1 draait mdam. het lijkt me dat we dan samen als volwassenen kunnen besluiten dat voor een "simpel" storage systeem met 10 TB+ over het algemeen een areca met windows gebruikt wordt.
ik kan de reden ook wel raden.. het is makkelijk. weinig gerommel, het wiel is hiermee al uitgevonden, en het werkt gewoon. dat wil niet zeggen dat ZFS or iets dergelijks niet goed werkt! ik denk zelf dat het een kwestie van tijd is voordat ZFS de standaard voor software raid gaat worden. mijn probleem met ZFS? ik moet me er flink op inlezen, terwijl dat voor een hardware raid controller niet nodig is. realiseer je goed dat veel mense met dit soort grote storage systemen helemaal geen zin hebben om na alle tijd en geld die uberhaupt in het bouwen is gestoken, dan ook nog eens een heel nieuw bestandssysteem\software raid systeem te leren kennen. alle verandering is goed, zolang alles maar hetzelfde blijft..
is mijn vergelijking 100% eerlijk? nee. ik vergelijk een groot storage systeem van een luilak met een out-of-the-box syteem voor een luilak. niets meer, niets minder.
/LEES MIJ EERST
Mede-Tweakers;
ik ben zelf al lang volger\lurker\deelnemer in zowel de Zelfbouw NAS topics als the 10TB+ Storage Systems.
mijn historie met storage system is zeer divers;
ooit begonnen met losse 120 GB schijven in een externe USB behuizing, daarna met RAID 3 XFX kaarten mijn eerste terabyte halen met 250 gig schijven, en langzaam doorhobbelen richting het betere spul
laatste "echte" server was een;
Supermicro 846 chassis (24 bay hot-swap)
Supermicro X8dwn+ moederbord
dual quad core xeon
64 gb geheugen
Areca 1280ML
24X wd2002FYPS schijf.
doel van dit systeem: virtualiseren met Hyper-V en lomp veel storage hebben.
maar dit spul maakt herrie. veel herrie.
dus is er een maand geleden een reincarnatie geweest;
nu draait het in een Lian-Li 343B, non-hotswap bays van Norco
Supermicro AMD bord
12 core opteron
64 gb geheugen
Areca 1280ML
1200 watt Coolermaster voeding
24X wd2002fyps schijf
wederom het doel, virtualiseren met Hyper-V en lomp veel storage..
maar zoals zovelen in de 10TB+ topics; 40TB just isn't enough. nog erger, hoeveel je ook hebt, het is nooit genoeg.
en toen mijn HD's ook nog eens kuren begonnen te vertonen en dit zo slecht op te vangen was met de Areca, was ik het wel beu. dit moet makkelijker kunnen. en toen ik wat rekeningen zag dacht ik ook, dit moet ook goedkoper kunnen. (uiteindelijk bleken de issues overigens met de Molex-to-2-sata-splitters te zitten. die vervangen en alles was weer goed.
in dit topic wil ik laten zien hoe ik een Synology DS3611xs heb ingericht om hetzelfde te doen als voorheen. hierbij ga ik, als die-hard Hardware-RAID gebruiker de wereld van software RAID en voorgeconfigureerde spullen in. ik ben gewend alles zelf te bouwen, zelf te installeren, en zelf te troubleshooten. ikzelf kom uit een Windows wereld, en ga dus het grote onbekende in.
ik zal hierbij foto's en bevindingen plaatsen van alles wat ik doe. het leuke, maar ook het minder leuke. wat werkt wel, wat werkt niet, en vooral, hoe bevalt dit nou?
ik ga echt all-in, oftewel, al mijn data (32 TB) gaat over naar de Synology. hierbij gaan ook al mijn apps en dergelijke over (newznab, sickbeard, sabnzb) en blijft mijn server enkel behouden voor virtualisatie.
en dan nu, vooral het spannendste voor de mede-tweakers, hoe performed dit nu?
voor een eindgebruiker, maar ook voor een power user met bijv. Iscsi.
is het een haalbaar alternatief?
ik heb ervaring met de hardware RAID opstellingen, performed dit nu vergelijkbaar?
en dan ook natuurlijk, kostentechnisch.. hoe steken de kosten voor deze Synology oplossing nu af tegen een zelfbouw systeem? en hoe zit het technisch in elkaar? zit het een beetje duurzaam in elkaar?
de komende weken wil ik in dit topic graag mijn ervaringen delen en daarin de vergelijkingen met mijn oudere oplossingen. ik geloof zelf dat Synology een "betere" oplossing is, maar is dat wel echt zo?
ook kan ik dingen testen wat hier aangevraagd wordt.. ik ben ook benieuwd wat wel en niet kan namelijk
Waarom?
dat is misschien de beste vraag. waarom een Synology als je al een storage server hebt?
simpel: de honger naar meer ruimte.
momenteel loop ik tegen beperkingen aan van mijn opstelling. met heel veel pijn en moeite kan ik 36 disks in de Lian-LI kwijt. dit heb ik geprobeerd. hierbij liep ik tegen problemen met warmte die ik niet goed afgevoerd kreeg zonder daarbij een mega-turbine te creeeren, RAID controllers die niet pasten (dankzij de CPU koeler had ik nog maar 2 PCI-E poorten over, 1 voor de Areca, 1 voor de quad netwerkkaarten). en dan is het vol.
ook garantie technisch was dit gewoon niet handig. sommige dingen hadden 1 jaar garantie, andere 2, andere 3. als je dan de complete setup uitlegd dan vragen ze zich af of je gek bent geworden.. wilde ik mijn Areca uitbreiden op een ondersteunde manier, dan moest ik Enterprise class schijven gebruiken die veel geld kosten. ik heb daarom mijn eisen lijstje eens op papier gezet, en kijken wat ik wilde.
eisen lijstje
wat moet de opstelling kunnen:
- hoge IO en Throughput leveren voor virtualisatie
- Veel ruimte (40TB +)
- makkelijk uitbreiden
- makkelijke garantie
- makkelijk beheer
- zo min mogelijk zelf het wiel uitvinden
- minimaal 4gbps LAG richting netwerk
- future-proof
- downloadstation
- te gebruiken door mijn thuisbioscoop
- bruikbaar voor mijn vriendin
- rapportage mogelijkheden mbt gebruik en status
- off-the-shelf spullen
- acceptabel geluidsniveau (moet in een kantoor staan)
Build Setup & Kosten:
wat heb ik nu eigenlijk draaien?
momenteel heb ik draaien:
Lian-Li PC343B = 287 euro
coolermaster 1200 watt silent pro gold =186 euro
AMD Opteron 6174 = 980 euro (had een kleinere kunnen zijn, dus reken ik 400 euro)
2 X velociraptor 74 gb : 58 euro X 2 = 116 euro
64 GB ECC Geheugen : 998 euro (8 gb "echt" nodig dus voor de berekening 998 /8 = 125 euro)
SuperMicro H8SGL-f Moederbord = 233 euro
SS-500 hot swap bay = 101,75 X 5 = 509 euro
Areca 1280ML met 2 GB ECC en BBU = 1000 euro
Western Digital Wd2002FYPS schijven : 147 euro X 24 = 3528 euro
losse ventilatoren en accessoires: 300 euro (o.a. voor de processor, kast e.d.)
Intel PCI-E ET Quad Netwerk kaart : 335 euro
kom ik op 7019 euro inc. BTW om dit na te bouwen..
impressie:

wat heb ik op Synology niveau:
een DS3611XS = 2138
tweemaal een DX1211 = 2 X 938 = 1876 (voor de optelsom 938 want ik heb er nu "maar" 1 nodig)
24X Wd20EARS Harde Schijf = 60 euro X 24 = 1440
3 X 2 GB ECC geheugen = 68 euro X 3 = 204 euro
bij elkaar is dat 4764 inc. btw
dat is iets meer als 220 euro goedkoper..
impressie:

[ Voor 66% gewijzigd door KorneelB op 02-09-2011 16:39 ]
60 TB can not be enough