Acties:
  • 0 Henk 'm!
Is een prima setup die een paar jaar mee kan :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 10-10 09:53
Heb je een 12V adapter? En voor de rest, ja de processor is vrij stevig. Dat streamen komt meer over als het aanleveren van data. En zeker met de zelfs nog relatief beperkte bitrate van Blu Ray komt dat wel goed. Als het nu ging om streamen als in het transcoderen... Voor transcoderen heb je een stevige processor nodig als dat in realtime moet gebeuren.
Het downloaden zou dan wellicht nog zwaarder kunnen zijn. Maar dan nog, daar is wellicht een core mee bezig. Maar je moet eerder je storage in de gaten houden. (Tegelijk streamen en uitpakken.) Voor par taken ben je een core kwijt, so be it, je hebt er nog één of meer. :)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!
Par is al een tijdje multicore :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 10-10 09:53
Dat het multicore is wil niet zeggen dat je het multicore moet laten lopen. Ik vind het persoonlijk prettig om toch ruimte te reserveren (of je laat dat soort dingen gewoon in de nacht lopen).

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

12V adapter zal wshlk voor die PICOpsu zijn?
En voor de rest, ja de processor is vrij stevig. Dat streamen komt meer over als het aanleveren van data. En zeker met de zelfs nog relatief beperkte bitrate van Blu Ray komt dat wel goed. Als het nu ging om streamen als in het transcoderen... Voor transcoderen heb je een stevige processor nodig als dat in realtime moet gebeuren.
Misschien gebruik ik de verkeerde woordkeuze, wat ik zou willen is mijn blu&dvd collectie rippen (zonder hercoderen dus 30Gb files) op mijn NAS en dat afspelen met VLC naar mijn TV. Is dit dan transcoden of streamen? (sorry voor noob vraag) En is dit mogelijk op een FreeNAS, FreeBSD, Amahi of ben ik dan volledig verkeerd bezig?
PS: heb ook nog een XBOX dus misschien kan ik iets met DLNA doen maar weet daar (nog) niks van af - ik zit nog in het begin van de leercurve helaas... Als iemand een goede link heeft ivm dit topic (streamen/transcoden met NAS eventueel met DLNA -voor dummies-) laat maar weten!

Acties:
  • 0 Henk 'm!

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 10-10 16:25

heuveltje

KoelkastFilosoof

Je wilt je tv dus rechtsteeks (met hdmi) op de server/nas aansluiten ? want dan heet het gewoon afspelen.
Of wil je het op een andere pc met vlc afspelen vanaf je server/nas? (en dan is het technisch gezien gewoon filesharen)

Dat laatste gaat prima, dat eerste kan wel maar word een fikse uitdaging met de meeste OS'en die je noemt
Dan zou ik eerder voor gewoon windows gaan

Transcoden is overigens het realtime aanbieden van een film in een ander formaat dan het eigenlijke bestand. Dat gebruik je dus als je een film hebt die in een formaat is wat jouw media speler niet snapt.

[ Voor 32% gewijzigd door heuveltje op 03-04-2014 23:51 ]

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


Acties:
  • 0 Henk 'm!

Verwijderd

zou willen doorsturen via mijn netwerk (Nas en TV op zelfde router aangesloten via kabel)... ligt geen HDMI kabel en wil geen gaten boren.

Acties:
  • 0 Henk 'm!

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 10-10 16:25

heuveltje

KoelkastFilosoof

Dan zul je eerst moeten kijken hoe je tv dat aangeleverd wil krijgen, en daar je wensen op aanpassen

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
Heb er zelf een raspberry Pi met openelec tussen liggen die de transcoding op zich neemt. Dan ben je voor 50 euro klaar en heb je een mooie overzichtelijke interface. (NAS->router->Pi->TV)

Acties:
  • 0 Henk 'm!

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 18:01

mphilipp

Romanes eunt domus

Vraag voor deskundologen:

ik heb nu een serverd met 2 werkende ZFS zpools. Stel nu dat ik die server wil omzetten naar een Vsphere host en het NAS gedeelte met FreeNAS wil doen. In een andere host kiep ik dan wat randverschijnselen. Ik meen dat je in Vmware kun aangeven dat een host een bepaalde PCI kaart mag gebruiken, dus die mag mijn sas kaart 'hebben'. Maar kan FreeNAS zomaar die zpools oppakken (import) of moet ik de hele bende weer opnieuw aanmaken en mijn data eerst veiligstellen?
Ik heb even terug nl gemerkt dat als ik een ander OS op die machine knal, zfs installeer en een import doe, de handel gewoon werkt. Maar ja...ik weet niet of Vmware moeilijk gaat doen en iets met die disks wil voordat ie ze aan een host doorgeeft. Of is dat geen issue vanwege die sas kaart?

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Ik wil graag een krachtige DIY NAS + gameserver bouwen in één 3U/4U case. En juist de case vind ik een lastig onderdeel.

De eisen voor de case zijn:
- Dual motherboard
- Minimaal 16 hotswappable bays
- Stil
- 3U of 4U

Als dual moederbord een probleem is, kan ik deze eventueel ook in een apart 1U of 2U case bouwen, maar mijn voorkeur gaat uit naar één 3U of 4U.

Welke modellen voldoen aan deze eisen?

Het plan is om eerst de NAS te bouwen met:
- zuinige Intel i5 (of andere krachtige cpu)
- 8GB RAM
- 12 x 3TB WD Red hdd's in RAID5 op een Areca RAID-controller
- energiezuinig stabiel moederbord met weinig toeters en bellen
- 256GB SSD voor hdd intensieve rekentaken zoals parren
- efficiënte voldoende krachtige voeding

In tweede instantie wil ik in dezelfde case ook een gameserver maken. Deze heeft enkel een moederbord, CPU (i5), RAM (8GB) en een SSD (120GB) nodig en ik neem aan ook een eigen (zuinige) voeding.

Alle suggesties, ideeën, opmerkingen, etc. zijn welkom.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Zo veel hdd's stil krijgen kan een opgave zijn.
Ik heb norco 4220 met 20 hdd's, maar ook gedraaid met 10 hdd's. De 80 mm fans aan de achterkant zijn verre van stil, en de fanwall met 4x80 is erg luid.

Alles vervangen door noctua, 3x120 fanwall, en 2x 80 exit fan, pwm gestuurd met een controller.
Er zit dan nog een 90 mm op de cpu, en een 140 mm boven de lan en sata kaarten.

De hele norco volgeplakt met dempingsmat waar het kan. Als ik de fans langzamer laat lopen, en de hdds op 40 graden zitten maakt het mij eigenlijk nog te veel lawaai. CPU wordt niet echt warm, xeon e3 die haast niet hoeft te doen onder zfsguru.

Dus een 19" stil krijgen wordt volgens mij een opgave, maar wellicht dat anderen het wel kunnen.
Hdd's maken ook lawaai zelf als het er meer worden..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
mphilipp schreef op vrijdag 04 april 2014 @ 19:20:
Vraag voor deskundologen:

ik heb nu een serverd met 2 werkende ZFS zpools. Stel nu dat ik die server wil omzetten naar een Vsphere host en het NAS gedeelte met FreeNAS wil doen. In een andere host kiep ik dan wat randverschijnselen. Ik meen dat je in Vmware kun aangeven dat een host een bepaalde PCI kaart mag gebruiken, dus die mag mijn sas kaart 'hebben'. Maar kan FreeNAS zomaar die zpools oppakken (import) of moet ik de hele bende weer opnieuw aanmaken en mijn data eerst veiligstellen?
Ik heb even terug nl gemerkt dat als ik een ander OS op die machine knal, zfs installeer en een import doe, de handel gewoon werkt. Maar ja...ik weet niet of Vmware moeilijk gaat doen en iets met die disks wil voordat ie ze aan een host doorgeeft. Of is dat geen issue vanwege die sas kaart?
Ja, mits je kaart PCIe is (PCI word sowieso niet gesupport, tenzij het weer op een PCIe-to-PCI bridge zit, maar dat is een ander verhaal.
Bovendien moeten je moederbord, je CPU en je BIOS het ondersteunen. Lees vooral de topicstart even door van Het Zuinige ESXi topic.

Je pools zijn gewoon importeerbaar.
-Moondust- schreef op vrijdag 04 april 2014 @ 19:33:
Ik wil graag een krachtige DIY NAS + gameserver bouwen in één 3U/4U case. En juist de case vind ik een lastig onderdeel.

De eisen voor de case zijn:
- Dual motherboard
- Minimaal 16 hotswappable bays
- Stil
- 3U of 4U

Als dual moederbord een probleem is, kan ik deze eventueel ook in een apart 1U of 2U case bouwen, maar mijn voorkeur gaat uit naar één 3U of 4U.

Welke modellen voldoen aan deze eisen?

Het plan is om eerst de NAS te bouwen met:
- zuinige Intel i5 (of andere krachtige cpu)
- 8GB RAM
- 12 x 3TB WD Red hdd's in RAID5 op een Areca RAID-controller
- energiezuinig stabiel moederbord met weinig toeters en bellen
- 256GB SSD voor hdd intensieve rekentaken zoals parren
- efficiënte voldoende krachtige voeding

In tweede instantie wil ik in dezelfde case ook een gameserver maken. Deze heeft enkel een moederbord, CPU (i5), RAM (8GB) en een SSD (120GB) nodig en ik neem aan ook een eigen (zuinige) voeding.

Alle suggesties, ideeën, opmerkingen, etc. zijn welkom.
Check even op ri-vier.nl

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 16:54
-Moondust- schreef op vrijdag 04 april 2014 @ 19:33:
De eisen voor de case zijn:
- Dual motherboard
Ik ken eigenlijk maar één 'behuizing' waar 2 moederborden in passen en dat is de HP BL2x220c, een (oude) blade. Ik denk niet dat je een c7000 of c3000 in de huiskamer wilt hebben :P

Als je die eis laat varen maar wel binnen 4u wil blijven dan kun je wel een 3u behuizing met 16 hotswap bays vinden en een 1u voor je gameserver maar dat valt niet onder de noemer 'stil' :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Verwijderd

Lijkt me ook een veel betere keuze, 2 aparte behuizingen :)

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
-Moondust- schreef op vrijdag 04 april 2014 @ 19:33:
Ik wil graag een krachtige DIY NAS + gameserver bouwen in één 3U/4U case. En juist de case vind ik een lastig onderdeel.

De eisen voor de case zijn:
- Dual motherboard
- Minimaal 16 hotswappable bays
- Stil
- 3U of 4U

Als dual moederbord een probleem is, kan ik deze eventueel ook in een apart 1U of 2U case bouwen, maar mijn voorkeur gaat uit naar één 3U of 4U.

Welke modellen voldoen aan deze eisen?

Het plan is om eerst de NAS te bouwen met:
- zuinige Intel i5 (of andere krachtige cpu)
- 8GB RAM
- 12 x 3TB WD Red hdd's in RAID5 op een Areca RAID-controller
- energiezuinig stabiel moederbord met weinig toeters en bellen
- 256GB SSD voor hdd intensieve rekentaken zoals parren
- efficiënte voldoende krachtige voeding

In tweede instantie wil ik in dezelfde case ook een gameserver maken. Deze heeft enkel een moederbord, CPU (i5), RAM (8GB) en een SSD (120GB) nodig en ik neem aan ook een eigen (zuinige) voeding.

Alle suggesties, ideeën, opmerkingen, etc. zijn welkom.
Waarom 2 systemen, als ik vragen mag?

Wat je ook kan doen is het volgende:

1 systeem; case boeit niet echt zolang er genoeg disks in past ( 3U voor 16 slots zou genoeg moeten zijn )
Je pakt een moederbord met cpu die VT-d ondersteunt en ECC ram (eerste belangrijker dan het laatste). een IBM M1015 (of 2, als je mobo/case geen expanders ondersteunt) en een bak met ram (16G? 32G? wat jij wilt betalen er voor)

Vervolgens dump je er ESXi op, dan maak je 2 instances aan: 1 voor je nas, een ZFS OS (zfsguru, freenas, nexenta, whatever).. de VT-d heb je hiervoor nodig voor de betere support.

de 2e instance is dan voor je gameserver.. aangezien 90+% van alle gameservers geen GPU nodig hebben kan dat vrolijk naast je nas draaien; die zal enkel bij parren wat aan CPU gebruiken, en voor de rest idle zijn.

Dit heeft als voordeel dat je maar 1 systeem hebt, en alle resources die je hebt worden verdeelt waar je ze nodig hebt.

Het nadeel is dat je wellicht wat nieuwe dingen moet leren, zoals ESXi.. maar dat zal niet -zo- lastig zijn... als je wat rond leest over ZFS zal je zien dat je daar meer performance uit kan halen dan een simpele Areca raid kaart (daarnaast zullen veel zeggen dat raid5 als dood beschouwd moet worden als je disks van meer dan 2TB gaat gebruiken)

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Ok, dus....of 2 servers (3U + 1U).....of 1 server en die virtualiseren. Dan heeft virtualiseren mijn voorkeur omdat ik daardoor flexibeler en daarmee toekomstbestendiger ben. Ik begeef me dan wel op een terrein dat ik niet ken (serverhardware en virtualisatie), maar dat is eigenlijk ook wel weer leuk. Ik wil de 3U of 4U inbouwen in een houten kastje met de achterkant uitgesneden voor de fans. Maar dan nog moet de server behoorlijk stil zijn. Dat zal niet meevallen begrijp ik.

Wat betreft de serverhardware. Wie heeft suggesties voor betaalbare onderdelen?
- case (16 hotswappable bays)
- mobo (server moederbord)
- cpu (snelle server cpu met VT-d)

Ligt ESXi als laag onder de OS-laag? Ik denk dat een gameserver het beste op Windows kan draaien, dan heb ik de meeste mogelijkheden denk ik. ZFS klinkt interessant, ga ik me in verdiepen. Wat heb ik verder nog nodig aan software om de basis te leggen? Linux?

En waar moet ik verder nog aan denken?
Kunnen jullie mij nog even wat verder op weg helpen?
DXaroth schreef op zaterdag 05 april 2014 @ 00:02:
daarnaast zullen veel zeggen dat raid5 als dood beschouwd moet worden als je disks van meer dan 2TB gaat gebruiken
Waar doelt men dan op? Ik gebruik nu ook een Areca RAID5 config met 3TB schijven. Werkt prima.

[ Voor 13% gewijzigd door -Moondust- op 05-04-2014 01:16 ]


Acties:
  • 0 Henk 'm!

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 18:01

mphilipp

Romanes eunt domus

FireDrunk schreef op vrijdag 04 april 2014 @ 21:33:
[...]
Ja, mits je kaart PCIe is (PCI word sowieso niet gesupport, tenzij het weer op een PCIe-to-PCI bridge zit, maar dat is een ander verhaal.
Bovendien moeten je moederbord, je CPU en je BIOS het ondersteunen. Lees vooral de topicstart even door van Het Zuinige ESXi topic.

Je pools zijn gewoon importeerbaar.
Ik moest het maar gewoon eens proberen. Ik heb nu maar even voor de test FreeNAS zo overheen geknald (bare metal, nog geen ESX) en dat werkt goed. Zo te zien kan ik ook eea (wat niet door de plugings geleverd wordt) ook via een 'jail' doen. Wie weet lost dat mijn probleem al op.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Voor betaalbare 19" behuizingen op ri-vier.nl kijken

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
Kort door de bocht: Een rebuild veroorzaakt zoveel load op 1 schijf, dat hij gegarandeerd een fout maakt.
Veel schijven zijn namelijk gespecifieerd op 1 fout per 10 tot de 15e of 16e bits(of bytes?) gelezen.
Dat komt overeen met (minimaal) 1 keer per rebuild actie.

Dus je kan er bijna vanuit gaan dat met regulier RAID5 je array stuk gaat.

Even niets...


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
-Moondust- schreef op zaterdag 05 april 2014 @ 01:15:
Ok, dus....of 2 servers (3U + 1U).....of 1 server en die virtualiseren. Dan heeft virtualiseren mijn voorkeur omdat ik daardoor flexibeler en daarmee toekomstbestendiger ben. Ik begeef me dan wel op een terrein dat ik niet ken (serverhardware en virtualisatie), maar dat is eigenlijk ook wel weer leuk. Ik wil de 3U of 4U inbouwen in een houten kastje met de achterkant uitgesneden voor de fans. Maar dan nog moet de server behoorlijk stil zijn. Dat zal niet meevallen begrijp ik.

Wat betreft de serverhardware. Wie heeft suggesties voor betaalbare onderdelen?
- case (16 hotswappable bays)
- mobo (server moederbord)
- cpu (snelle server cpu met VT-d)

Ligt ESXi als laag onder de OS-laag? Ik denk dat een gameserver het beste op Windows kan draaien, dan heb ik de meeste mogelijkheden denk ik. ZFS klinkt interessant, ga ik me in verdiepen. Wat heb ik verder nog nodig aan software om de basis te leggen? Linux?

En waar moet ik verder nog aan denken?
Kunnen jullie mij nog even wat verder op weg helpen?


[...]

Waar doelt men dan op? Ik gebruik nu ook een Areca RAID5 config met 3TB schijven. Werkt prima.
ESXi (en vSphere, en KVM, en Xen, en HyperV) zijn in feite het OS op je systeem; hun doel is om de hardware die je systeem heeft beschikbaar te maken voor alle instances op je systeem, zodat die daar gebruik van kunnen maken... nu kunnen bepaalde dingen wel gedeeld worden (netwerk, processor), maar zolang die nog capaciteit hebben, maar uiteraard bepaalde dingen moeten verdeeld worden (HDD ruimte en RAM).

Qua hardware betekent dit dat je dus voldoende RAM moet hebben om beide (of meerdere, want je bent gelimiteerd aan de hardware die je hebt) instances te draaien, ZFS is altijd wel happig op wat RAM (want dat gebruikt hij om veelgebruikte bestanden/data sneller toegankelijk te maken), maar als je bijvoorbeeld enkel films/muziek er van gaat streamen, zou 4gb al meer dan genoeg moeten zijn.

Je gameserver is een ander verhaal; hier heb je inderdaad de keuze tussen windows of linux. In mijn ervaring is het vaak (als de makers van het spel enigszins zinnig zijn geweest iig) dat linux servers efficienter omgaan met hardware (dit ook omdat windows uit zichzelf al veel meer gebruikt dan een simpel linux systeem).. maar ik denk dat je uiteindelijk er voor gaat kiezen om zowel een linux instance als een windows instance te gebruiken, om dat zelf te kunnen bepalen :)

Voor het uitzoeken van je hardware zijn er wel wat dingen waar je rekening moet houden, en dat komt voor het meerendeel door je NAS opstelling.
ZFS werkt het beste als het zo dicht mogelijk op je hardware zit, nu ga je dus een opstelling maken waar dit niet zo is (want ESXi komt er tussen te zitten), dus heb je dingen als VT-d nodig op je processor (en een moederbord die dat ondersteunt) om ESXi te helpen om je hardware direct te virtualiseren naar je NAS instance.
Dit brengt wel met zich mee dat je een storage controller wilt gebruiken die genoeg HDDs aankan, en goed werkt met zowel ESXi als ZFS; in de topics hier op tweakers zul je genoeg van dat soort hardware vinden (LSI HBAs (dus geen raid controllers, of iig raid controllers die IT mode supporten) zijn vaak gebruikt)... daarnaast is het gebruik van ECC ram een stukje extra veiligheid tijdens het draaien van ZFS ( om het kort te houden; ZFS gebruikt je ram om data op te slaan die veel gebruikt wordt; mocht je ram een kleine fout geven (iets wat normaal niet super erg zou zijn), dan is het mogelijk dat ZFS corrupte data terug stuurt ... ECC is een extra bescherming hier tegen. )

Ik zou adviseren om te kijken naar CPUs die het ondersteunen (niet alle CPUs ondersteunen het; de i3 serie compleet niet, maar de Xeon series vaak weer wel), en van daaruit verder werken.

Acties:
  • 0 Henk 'm!

Verwijderd

Veel schijven zijn namelijk gespecifieerd op 1 fout per 10 tot de 15e of 16e bits(of bytes?) gelezen.
10^-14 zelfs.

Maar het gaat om bits ja; maar dat is verraderlijk. Eén uncorrectable bit error per X bits. Maar in de praktijk betekent één foutieve bit teveel dat de hele sector wordt afgekeurd. Dus één uncorrectable bit error = een defecte sector van 512B of 4K. Correctable errors worden door ECC gecorrigeerd en die worden wel foutloos uitgelezen. Maar bij ECC-errors is er te weinig errorcorrectie om de data foutloos uit te lezen; en de ATA standaard verbiedt een hardeschijf om 'maar te sturen wat het wel heeft'. Of je kunt een sector foutloos uitlezen, of je stuurt een error; dat zijn de spelregels.

Ik had ooit eens uitgerekend dat een consumentenschijf met 10^-14 uBER op 100% duty cycle op méér dan één bad sector per dag zat. In de praktijk zal de uBER per schijf/serie verschillen; maar een beetje marge wil je toch wel hebben...

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
-Moondust- schreef op zaterdag 05 april 2014 @ 01:15:
Waar doelt men dan op? Ik gebruik nu ook een Areca RAID5 config met 3TB schijven. Werkt prima.
Afbeeldingslocatie: https://lh5.googleusercontent.com/-KCGGedAqykA/Uz_KRMZ5R0I/AAAAAAAABHs/63FzYK-KZUQ/w800-h207-no/rebuild.gif

dat dit niet zou werken O-)

Mijn eerste 4TB Seagate fail gisteren en raid 5 set nu aan het rebuilden...

Acties:
  • 0 Henk 'm!

  • dreku88000
  • Registratie: Februari 2002
  • Laatst online: 06-08 08:43
BartNL schreef op zaterdag 05 april 2014 @ 11:20:
[...]

Mijn eerste 4TB Seagate fail gisteren en raid 5 set nu aan het rebuilden...
Dan ben ik benieuwd naar de screenshot als hij klaar is met rebuilden, gezien de berichten hierboven. Benieuwd of je errors tegen gaat komen.

Lenovo Thinkpad Yoga X380


Acties:
  • 0 Henk 'm!

Verwijderd

@BartNL welke controller gebruik je ?

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
een Areca 1882ix-24 en ik ben ook benieuwd of het gaat lukken.
Heb er goede hoop op omdat er bij het scrubben van de raidsets in afgelopen jaar minimaal errors zijn. Maar ja als er een disk gaat kan er nu ook best wat mis gaan dus even (rebuild zit nu op 20%) duimen en afwachten.

Acties:
  • 0 Henk 'm!

Verwijderd

dreku88000 schreef op zaterdag 05 april 2014 @ 11:48:
[...]


Dan ben ik benieuwd naar de screenshot als hij klaar is met rebuilden, gezien de berichten hierboven. Benieuwd of je errors tegen gaat komen.
Het probleem van uBER met ouderwets RAID is dat dergelijke RAID engines een hardeschijf helemaal als failed beschouwen, als hij 10 seconden niet reageert of in recovery is. Een schijf met een bad sector, staat nu gelijk aan een gefaalde schijf. Bij ZFS is dat niet zo, en kunnen er hooguit afzonderlijke bestanden ontoegankelijk worden. Maar corruptie of beschadiging van de metadata komt daarbij niet voor. Bij ouderwetse RAID engines wel. Die zijn kwetsbaar voor silent corruption en gebroken arrays door bad sectors. Dat laatste komt enorm veel voor. Veel meer dan vroeger, want vroeger hadden hardeschijven weinig last van hun 10^-14 uBER specificatie. Pas nu schijven groter worden (1TB+) dat uBER echt een issue begint te worden; vandaar ook de uitspraak dat RAID5 niet meer veilig is vanaf 2009 en RAID6 niet meer veilig vanaf 2019; dat is enkel een tijdsfunctie van uBER en mechanische hardeschijven. In het jaar 2000 was dit probleem helemaal niet zo groot als nu.

Ga je voor ouderwets RAID, dan kijk ik daar wel op neer. Het is duidelijk iets van een oudere generatie waarbij heel veel zaken niet zijn afgedekt en je volume zomaar over de kop kan gaan. Nog erger, je weet eigenlijk niet of je data intact is totdat je het zelf controleert. Dus je trouwfoto's kun je 10x gebackupped hebben, maar door silent corruption kan het zijn dat die corruptie ook even hard doorvloeit naar je backups. ZFS met end-to-end Data Integrity protection in combinatie met snapshots biedt zoveel meer veiligheid dan RAID alleen zou kunnen... jammer als je daar in dit tijdperk geen gebruik van maakt. Zo denk ik er over althans. :)

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Bedankt jacovn en Firedrunk. ZFS wordt the way to go dus. Nu ik me een beetje verdiept heb in virtualisatie en DXaroth zo erover hoor ben ik toch wel wat geschrokken. Ik bedoel, virtualisatie is in theorie perfect, maar ik ben een leek op dat gebied en heb dan wel heeeel veel in te halen. Mijn interesse is om een krachtige, stabiele, stille, energiezuinige server neer te zetten en niet om virtualisatie onder de knie te krijgen. kortom, ik zie denk ik toch af van virtualisatie. Dat maakt het een stuk eenvoudiger. Ik ga eens nadenken over hardware voor de opslag-torrent-usenet-ftp-server. Ik denk aan Supermicro mobo (bij voorkeur met HBA onboard), Intel Xeon cpu, 8GB ECC, 8 x 4TB WD Red en een Samsung 840 Pro SSD. Volgens mij ben ik dan al een heel eind, maar ik moet me nog verder verdiepen in ZFS om te zien hoe ik ZFS zoveel mogelijk kan faciliteren met de hardware. Ik sta open voor tips, suggesties, opmerkingen, etc.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
Verwijderd schreef op zaterdag 05 april 2014 @ 12:37:
[...]ZFS met end-to-end Data Integrity protection in combinatie met snapshots biedt zoveel meer veiligheid dan RAID alleen zou kunnen... jammer als je daar in dit tijdperk geen gebruik van maakt. Zo denk ik er over althans.
inderdaad jammer dat de gangbare besturingssystemen geen ondersteuning voor een modern filesysteem bieden. Zolang dat zo is kan ik wel leven met hardware raid.

Acties:
  • 0 Henk 'm!

Verwijderd

Maar je opslagserver hoeft toch geen desktop OS te draaien; je wasmachine draait toch ook geen Windows?! Zelfde geldt voor Synology. Dan zouden mensen geen Synology kopen, omdat het Linux draait ipv Windows? Het gaat er toch om hoe makkelijk/laagdrempelig iets te gebruiken is? Daarvoor heb je nu juist die ZFS appliances (FreeNAS, NAS4Free, ZFSguru) zodat je een gebruiksvriendelijke schil om ZFS heen hebt. Dan kan opeens 'iedereen' over de kracht van ZFS beschikken.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
bij mij is het niet puur NAS. Ik draai er Logitech Media Server op en gebruik de PC via remote desktop voor remuxen / rippen van blu-ray schijven. Ben ook gewend aan Newsbinpro onder windows.
Daarnaast ervaar ik in de praktijk geen van de minpunten van hardware raid d.w.z. ben nog geen data kwijt geraakt terwijl ik 48 schijven van 3TB en 4TB aan een hardware controller heb hangen. Stel dat ik wel problemen zou hebben en data zou verliezen zou ik overgaan naar een moderner filesysteem.

Acties:
  • 0 Henk 'm!

  • dreku88000
  • Registratie: Februari 2002
  • Laatst online: 06-08 08:43
Verwijderd schreef op zaterdag 05 april 2014 @ 12:37:
[...]

ZFS met end-to-end Data Integrity protection in combinatie met snapshots biedt zoveel meer veiligheid dan RAID alleen zou kunnen... jammer als je daar in dit tijdperk geen gebruik van maakt. Zo denk ik er over althans. :)
Dat vonden wij ook en daarom ben ik blij dat onze ICT manager heeft ingestemd met ons idee en gaan we uiteindelijk toch met een redundant zelfbouw SAN aan de slag.

Een SAN zal bestaan uit een Supermicro SC826 TQ R800UB behuizing, Supermicro X10SL7-F moederbord, Xeon E3-1220V3, 32 GB DDR3 ECC UDIMM, 6x 2TB WD Black RE4 (komen uit huidige NASsen) en 6x Crucial M500 240 SSD. Daarbij wordt een Intel I340T2 NIC geplaatst, zodat we 4 LAN poorten hebben. Deze SAN willen we 2x identiek uitvoeren (mirror).

Hiermee willen we een snelle en een grote pool creeren; 1 van 6 SSD's die in RAIDZ2 array ongeveer 960 GB zal zijn en daarnaast een 2e grote storage pool van de 6 RE4's die in RAIDZ2 ongeveer 7,2 TB zal zijn.

Door dit geheel te mirroren en elk op een aparte UPS aan te sluiten, willen we ervoor zorgen dat we door kunnen werken, zelfs als 1 SAN compleet uitvalt (moederbord oid).

Wat ik me nog wel afvraag: welk OS zou jullie voorkeur hebben om hierop te installeren?
  • FreeNAS?
  • ZFSGuru?
  • Linux (hoe is het met de ZFS port daarin tegenwoordig?)?
  • Iets anders?
Is het bijvoorbeeld ook mogelijk om te virtualiseren èn gebruik te maken van ZFS? Of moeten we ze als dedicated SANs gewoon iSCSI targets aan laten bieden aan de huidige Hyper-V host?

Lenovo Thinkpad Yoga X380


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:22
dreku88000 schreef op zaterdag 05 april 2014 @ 15:45:
[...]


Dat vonden wij ook en daarom ben ik blij dat onze ICT manager heeft ingestemd met ons idee en gaan we uiteindelijk toch met een redundant zelfbouw SAN aan de slag.

Wat ik me nog wel afvraag: welk OS zou jullie voorkeur hebben om hierop te installeren?
  • FreeNAS?
  • ZFSGuru?
  • Linux (hoe is het met de ZFS port daarin tegenwoordig?)?
  • Iets anders?
Persoonlijk griezel ik een beetje bij de gedachte dat je een project als dit start - een zelf-bouw SAN - maar dan geen goed zicht hebt op antwoorden op dit soort redelijk basale vragen. Het spijt me dat ik dit wat negatief breng, maar dit is oprecht mijn eerste gedachte toen ik dit las. Maar misschien zegt dat meer over mij ;)

Dat gezegd hebbende:

Ik zou kijken of er een kant-en-klare battle-tested software is, zoals OpenFiler maar dan met ZFS support.

Als dat er echt niet is: minimale installatie van Linux, zoals Debian of FreeBSD en daarop je services bouwen: SMB/NFS/iSCSI. Maar verwacht dan geen GUI of wat dan ook, je mag alles lekker met text-based config filetjes lekker met de hand doen. Zelf vind ik dat positief, dat geeft (de illusie van) controle over het systeem.
Is het bijvoorbeeld ook mogelijk om te virtualiseren èn gebruik te maken van ZFS? Of moeten we ze als dedicated SANs gewoon iSCSI targets aan laten bieden aan de huidige Hyper-V host?
Ik begrijp je vraag niet goed denk ik, maar je kunt ofwel storage gewoon aanbieden via SAMBA of NFS, ofwel kun je volumes maken op je ZFS pool en die exporteren vi iSCSI, dus beiden kan simultaan.

[ Voor 18% gewijzigd door Q op 05-04-2014 19:45 ]


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
dreku88000 schreef op zaterdag 05 april 2014 @ 11:48:
[...]Dan ben ik benieuwd naar de screenshot als hij klaar is met rebuilden, gezien de berichten hierboven. Benieuwd of je errors tegen gaat komen.
Afbeeldingslocatie: https://lh6.googleusercontent.com/-K3ffRbmOFu8/U0A__Q3JS0I/AAAAAAAABII/KsLLw3lK6Fk/w800-h246-no/rebuild-ready.gif

Afbeeldingslocatie: https://lh4.googleusercontent.com/-v8NgIppo2FY/U0A_-7p93xI/AAAAAAAABIE/cymfzmLTNL4/w800-h147-no/rebuild-ready-set.gif

"onmogelijke" raid-5 rebuild met 6x 4TB Seagates >:)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:22
Wat, hoe durf je je data niet aan ZFS toe te vertrouwen en ordinaire legacy hardware raid te gebruiken? :o :+

[ Voor 3% gewijzigd door Q op 05-04-2014 19:47 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nice , Gogo Areca ;-)

gelukkig voor je dat alles in orde is, nu snel even die disk replacen

Acties:
  • 0 Henk 'm!

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 18:01

mphilipp

Romanes eunt domus

Ik moet wel zeggen dat die RAID kaart van mij erg veel sneller was dan software raid onder Linux. Wat dat betreft is er helemaal niets mis met zo'n kaart. Alleen was de kaart kieskeurig en de ondersteuning gebrekkig. Ze hadden geen packages voor courante Linux distro's en die packages waren sowieso al borked. Zelf compileren was niet moeilijk, dus daar ben ik een keer voor gaan zitten en heb ook een DKMS package gemaakt. Alleen hadden we weer een fout gemaakt toen kernel 3 kwam waardoor ik de hele handel weer handmatig moest aanpassen. Sindsdien maar een script gemaakt om te hercompileren ipv DKMS (te lui om weer uit te zoeken hoe dat ook alweer moest).
Nu ben ik daar dus vanaf, maar die kaart was - als je 'm native gebruikte écht een pak sneller.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
Verwijderd schreef op zaterdag 05 april 2014 @ 20:06:
Nice , Gogo Areca ;-)

gelukkig voor je dat alles in orde is, nu snel even die disk replacen
ik heb eerst een backup gemaakt en daarna de disk vervangen. Dit was de rebuild met de nieuwe schijf.

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
-Moondust- schreef op zaterdag 05 april 2014 @ 14:35:
Bedankt jacovn en Firedrunk. ZFS wordt the way to go dus. Nu ik me een beetje verdiept heb in virtualisatie en DXaroth zo erover hoor ben ik toch wel wat geschrokken. Ik bedoel, virtualisatie is in theorie perfect, maar ik ben een leek op dat gebied en heb dan wel heeeel veel in te halen. Mijn interesse is om een krachtige, stabiele, stille, energiezuinige server neer te zetten en niet om virtualisatie onder de knie te krijgen. kortom, ik zie denk ik toch af van virtualisatie. Dat maakt het een stuk eenvoudiger. Ik ga eens nadenken over hardware voor de opslag-torrent-usenet-ftp-server. Ik denk aan Supermicro mobo (bij voorkeur met HBA onboard), Intel Xeon cpu, 8GB ECC, 8 x 4TB WD Red en een Samsung 840 Pro SSD. Volgens mij ben ik dan al een heel eind, maar ik moet me nog verder verdiepen in ZFS om te zien hoe ik ZFS zoveel mogelijk kan faciliteren met de hardware. Ik sta open voor tips, suggesties, opmerkingen, etc.
Bedenk je wel he, 1 virtueel systeem met 2 instances verbruikt minder stroom, en maakt minder herrie dan 2 losse systemen ;)

En waar ben je van geschrokken? het lijkt wellicht moeilijk, maar als je een tutorial volgt kom je al een heel eind..

Acties:
  • 0 Henk 'm!

  • dreku88000
  • Registratie: Februari 2002
  • Laatst online: 06-08 08:43
Q schreef op zaterdag 05 april 2014 @ 19:42:
[...]


Persoonlijk griezel ik een beetje bij de gedachte dat je een project als dit start - een zelf-bouw SAN - maar dan geen goed zicht hebt op antwoorden op dit soort redelijk basale vragen. Het spijt me dat ik dit wat negatief breng, maar dit is oprecht mijn eerste gedachte toen ik dit las. Maar misschien zegt dat meer over mij ;)
De vraag komt eigenlijk meer uit twijfel over verschillende opties die ik op internet gevonden heb en waar ik zelf nauwelijks of geen ervaring (nog) mee heb. Ik ben niet bang aangelegd om wat te proberen en om een keer opnieuw te moeten beginnen, maar als jullie me al op weg kunnen helpen met eigen ervaringen, zou ik dat op prijs stellen.

Zo las ik bijvoorbeeld dat er aanvankelijk geen port van ZFS onder Linux was vanwege licentie verschillen. Sinds 2013 schijnt die er wel te zijn. Omdat ik een beetje ervaring heb (niet veel, maar toch) met Ubuntu 12 lts, vroeg ik me af of het de moeite is om te wachten op 14 lts als die ook ZFS zou ondersteunen.
Daarnaast ben ik ook via via terecht gekomen op de site van ixsystems die SANs aanbieden op basis van FreeNAS. Daarbij vraag ik me dan af of dat dezelfde versie FreeNAS is als die ik kan downloaden van de site (en welke ik hier thuis ook op een NAS heb draaien), of dat ze daar zelf nog aan sleutelen voor hun eigen devices.
Dat gezegd hebbende:

Ik zou kijken of er een kant-en-klare battle-tested software is, zoals OpenFiler maar dan met ZFS support.

Als dat er echt niet is: minimale installatie van Linux, zoals Debian of FreeBSD en daarop je services bouwen: SMB/NFS/iSCSI. Maar verwacht dan geen GUI of wat dan ook, je mag alles lekker met text-based config filetjes lekker met de hand doen. Zelf vind ik dat positief, dat geeft (de illusie van) controle over het systeem.
CLI is geen probleem, eigenlijk eerder een voordeel. Ik gebruik onder 2008R2 ook liever cmd of powershell om wat voor elkaar te krijgen, dan de brakke consoles die Windows biedt.
Ik begrijp je vraag niet goed denk ik, maar je kunt ofwel storage gewoon aanbieden via SAMBA of NFS, ofwel kun je volumes maken op je ZFS pool en die exporteren vi iSCSI, dus beiden kan simultaan.
Dat neem ik je niet kwalijk, dat was een moment van verstandsverbijstering.. Gewoon SAN bouwen en storage aanbieden. Verder geen woorden aan vuil maken. :P

Lenovo Thinkpad Yoga X380


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
DXaroth schreef op zaterdag 05 april 2014 @ 21:06:
Bedenk je wel he, 1 virtueel systeem met 2 instances verbruikt minder stroom, en maakt minder herrie dan 2 losse systemen ;)
Ja, het is wel het meest effectief in veel opzichten.
DXaroth schreef op zaterdag 05 april 2014 @ 21:06:En waar ben je van geschrokken? het lijkt wellicht moeilijk, maar als je een tutorial volgt kom je al een heel eind..
Ik ben geschrokken van de complexiteit ervan. Ik heb jarenlange ervaring met het bouwen van PC's. Daar draai ik mijn hand niet voor om, maar ik ken eigenlijk alleen Windows. De rest is me totaal onbekend. Nu denk ik dat ik het redelijk snel kan oppikken, maar ik wil me niet vergalopperen. Heb je een voorbeeld van een guide die ik kan volgen?

Als ik zelf even snel wat bij elkaar zoek kom ik tot iets van onderstaande config (virtualisatie of niet).

#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v3 Boxed€ 237,23€ 237,23
1Supermicro X10SL7-F€ 217,76€ 217,76
8WD Red SATA 6 Gb/s WD40EFRX, 4TB€ 149,-€ 1.192,-
1Ri-vier 3U 16bay storage chassis (No SGPIO) - RV-3316-03A€ 0,-€ 0,-
1Crucial CT2K8G3ERSLD4160B€ 147,-€ 147,-
1Samsung 840 series Pro 512GB€ 322,48€ 322,48
Bekijk collectie
Importeer producten
Totaal€ 2.116,47


Is dit wat? Wat mis ik nog? Welke software heb ik allemaal nodig?

Acties:
  • 0 Henk 'm!

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

dreku88000 schreef op zaterdag 05 april 2014 @ 23:31:
Zo las ik bijvoorbeeld dat er aanvankelijk geen port van ZFS onder Linux was vanwege licentie verschillen. Sinds 2013 schijnt die er wel te zijn. Omdat ik een beetje ervaring heb (niet veel, maar toch) met Ubuntu 12 lts, vroeg ik me af of het de moeite is om te wachten op 14 lts als die ook ZFS zou ondersteunen.
Die licentieproblematiek speelt nog steeds; net zoals AMD en nVidia met hun binary blobs een workaround hebben gevonden rond de GPL-licentie die de kernelcode dekt, gebruikt de native port (LLNS) een vergelijkbare omweg.

Ik denk niet dat Ubuntu standaard ZFS gaat aanbieden. De Linux port is nog steeds in beta (al is dat bij een bestandssysteem wat anders dan bij een OS heb ik de indruk), maar Oracle kennende draaien ze liever een opensourceproject de nek om dan eraan bij te dragen. Zolang het werkt is ZFS goed, maar op Linux is het een beetje een doodlopend straatje vrees ik. Als je next-gen wil gaan is BTRFS ook een kandidaat, en dat project is ook al een tijdje aan het rijpen. Oracle integreert wel nieuwe features in ZFS, maar als die niet vrijgegeven worden kan de opensource-implementatie dat niet bijbenen.

[ Voor 4% gewijzigd door Borromini op 05-04-2014 23:47 ]

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Acties:
  • 0 Henk 'm!

Verwijderd

@ Moondust, dat geheugen kan je niet gebruiken op dat moederbord. Je mag enkel ECC en non ECC geheugen gebruiken. Registered ECC zal niet werken, aangezien die chipset daar niet mee kan werken.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:22
-Moondust- schreef op zaterdag 05 april 2014 @ 23:45:
[...]

Is dit wat? Wat mis ik nog? Welke software heb ik allemaal nodig?
Edit

V3 config, stuk goedkoper:

#ProductPrijsSubtotaal
1Intel Xeon E3-1230 V3 Boxed€ 216,59€ 216,59
1Supermicro X10SLL-F€ 156,78€ 156,78
1Crucial CT2KIT102472BA160B€ 152,71€ 152,71
Bekijk collectie
Importeer producten
Totaal€ 526,08


- 30 euro extra betalen voor 100 mhz?
- Waarom zo'n duur moederbord?

Wat jammer is ten opzichte van mijn favoriete v2 setup is alleen het beperkt aantal PCie sloten, maar van de rest, prima.

[ Voor 80% gewijzigd door Q op 06-04-2014 00:10 ]


Acties:
  • 0 Henk 'm!

Verwijderd

@ Q

6 poorten en 8 disken, komt niet goed :) dus dat board is ne nono tenzij hij een HBA gaat gebruiken... wat weer een stuk meer kost.

Hij gaat die sas controller gebruiken om ze aan te sturen, en dan heeft hij nog 6 poorten over.

Acties:
  • 0 Henk 'm!

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 18:01

mphilipp

Romanes eunt domus

Borromini schreef op zaterdag 05 april 2014 @ 23:46:
[...]
maar Oracle kennende draaien ze liever een opensourceproject de nek om dan eraan bij te dragen.
Dat zijn weer van die jammere opmerkingen. Ze hebben meer aan Linux bijgedragen dan menig open source evangelist durft toe te geven. En natuurlijk doen ze het om geld te verdienen in the end, maar dit soort opmerkingen zijn vaak het resultaat van veel te voorbarige conclusies en napraterij van mensen die op een of andere manier een hekel aan grote bedrijven hebben. Terwijl zonder die grote bedrijven Linux er al lang niet meer geweest was, of in ieder geval niet het hobbybobstatium zijn ontstegen.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Idd Timtitanium, de Supermicro X10SL7-F heeft even onboard LSI SAS 2308 controller. Als ik het goed heb begrepen is dat de opvolger van de 2008. Samen met de gewone SATA kan ik dan 14 hdd's aansluiten.

Ok, lijstje ziet er dan nu zo uit.

#ProductPrijsSubtotaal
1Intel Xeon E3-1230 V3 Boxed€ 216,59€ 216,59
1Supermicro X10SL7-F€ 217,76€ 217,76
8WD Red SATA 6 Gb/s WD40EFRX, 4TB€ 149,-€ 1.192,-
1Ri-vier 3U 16bay storage chassis (No SGPIO) - RV-3316-03A€ 0,-€ 0,-
1Crucial CT2KIT102472BA160B€ 152,71€ 152,71
1Samsung 840 series Pro 512GB€ 322,48€ 322,48
Bekijk collectie
Importeer producten
Totaal€ 2.101,54


Met ZFS ben ik niet zoals bij RAID5/6 gebonden aan hdd's met dezelfde grootte toch? Dan kan ik wellicht volstaan met 6 x 4TB nieuw waar ik dan mijn huidige 8 x 3TB aan kan toevoegen als alle data overgezet is. Dan zit de server gelijk vol, maar heb ik geen plek voor de SSD. Is er ook nog een goed 2-port SATA kaartje dat ik kan toevoegen om 16 aansluitingen te krijgen? En, heb ik voor een goede degelijke implementatie van ZFS meer dan één SSD nodig? Ik dacht zoiets gelezen te hebben.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Ik heb eerst een optische drive aangesloten samen met de ssd voor het systeem.
Zfsguru dvd erin, booten, paar vragen beantwoorden en dan heb je een werkend systeem.
Optische drive eruit, 20 hdds eraan geprikt en 2 raidz2 volumes gemaakt.

Werkte in 1 keer, met 0 ervaring met freebsd. Ik had me wel wat ingelezen en wat (domme) vragen gesteld in threads hier.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:22
Verwijderd schreef op zondag 06 april 2014 @ 00:15:
@ Q

6 poorten en 8 disken, komt niet goed :) dus dat board is ne nono tenzij hij een HBA gaat gebruiken... wat weer een stuk meer kost.

Hij gaat die sas controller gebruiken om ze aan te sturen, en dan heeft hij nog 6 poorten over.
Dat had ik gemist idd.

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
@jacovn
Hoe meer ik lees hoe meer ik ook neig naar FreeBSD. Moet me nog wel ff wat meer verdiepen in ESXi, ZFS en RAID-Z2.

Mijn nieuwe lijstje voor de server...

#ProductPrijsSubtotaal
1Intel Xeon E3-1230 V3 Boxed€ 216,59€ 216,59
1Supermicro X10SL7-F€ 217,76€ 217,76
8WD Red SATA 6 Gb/s WD40EFRX, 4TB€ 149,-€ 1.192,-
1Kingston ValueRAM KVR16E11K4/32€ 284,50€ 284,50
2Samsung 840 series Pro 256GB€ 161,90€ 323,80
Bekijk collectie
Importeer producten
Totaal€ 2.234,65


Ter ondersteuning van ZFS heb ik nu 2 SSD's op de lijst staan. Deze schijn ik zo in te kunnen partitioneren dat ik het OS en de ZIL in mirror heb draaien en de L2ARC in stripe. Wellicht nog een SSD apart voor usenet downloads (lekker snel rarren en parren), maar dat zie ik nog wel.

Toch een extra HBA erin, omdat ik met alle SSD's erbij toch te weinig aansluitingen had.

De Ri-vier 3U 16bay storage chassis heb ik er weer uitgehaald, omdat deze te diep was. De eisen voor de case zijn.

- Stil (inbouw in kast woonkamer)
- Minimaal 16 3.5" bay
- 3U of 4U (maximaal 18 cm hoog)
- Maximaal 55 cm diep

Wie kan me hierin adviseren?

En tot slot ben ik nog op zoek naar een geschikte zuinige voeding. Hoeveel Watts heb ik nodig voor 16 zuinige WD Red's?

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
als je een ZIL wilt gebruiken, moet je ook letten of de SSD wel capacitors heeft.. dus dan wil je de crucial M500 gebruiken.. then again, een ZIL is optioneel; als je bv enkel je opslag voor films/muziek gebruikt is het niet superboeiend om een ZIL disk te gebruiken.. in het ergste geval ben je een deel van je film kwijt, maar die kan je weer opnieuw downloaden, dus :)

bedenk dat een disk maximaal 20w kan trekken aan vermogen, maar hun idle ligt op iets van 4w .. dus je gebruikt ergens tussen de 320w en 64w aan je disks (al zullen niet alle disks tegelijk vol vermogen trekken)

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
@DXaroth
Over de ZIL ga ik nog nadenken. Capacitors is een goeie idd, maar als een SSD nauwelijks betere performance zal geven, dan is het natuurlijk onzin om een dure SSD-ZIL te gebruiken. Ik heb begrepen dat een L2ARC via SSD wel een behoorlijk winst oplevert bij het lezen. Klopt dat?
Een 80+ Gold voeding van 400 Watt moet voldoende zijn. En misschien even kijken naar staggered spinup.

Hoe zit het eigenlijk met ESXi en het toewijzen van resources? Cpu en RAM kan heel flexibel, maar hoe zit dat met hdd-ruimte? Kan je schijven nog opdelen en aan verschillende instances koppelen of kan je een instances alleen koppelen aan 1 of meer hele disken?

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 10-10 09:53
Op zich heeft een SSD zeker het vermogen om meerwaarde te hebben als ZIL danwel L2ARC. Maar uiteindelijk is het belangrijkste punt, gaat dat op voor jouw scenario. En is het relevant? Is het hebben van een ZIL van belang? Heb je data waarbij een L2ARC echt goed gevuld kan worden? (Bijvoorbeeld veel gebruikte data.)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:22
dreku88000 schreef op zaterdag 05 april 2014 @ 23:31:
[...]
De vraag komt eigenlijk meer uit twijfel over verschillende opties die ik op internet gevonden heb en waar ik zelf nauwelijks of geen ervaring (nog) mee heb. Ik ben niet bang aangelegd om wat te proberen en om een keer opnieuw te moeten beginnen, maar als jullie me al op weg kunnen helpen met eigen ervaringen, zou ik dat op prijs stellen.

Zo las ik bijvoorbeeld dat er aanvankelijk geen port van ZFS onder Linux was vanwege licentie verschillen. Sinds 2013 schijnt die er wel te zijn. Omdat ik een beetje ervaring heb (niet veel, maar toch) met Ubuntu 12 lts, vroeg ik me af of het de moeite is om te wachten op 14 lts als die ook ZFS zou ondersteunen.
Daarnaast ben ik ook via via terecht gekomen op de site van ixsystems die SANs aanbieden op basis van FreeNAS. Daarbij vraag ik me dan af of dat dezelfde versie FreeNAS is als die ik kan downloaden van de site (en welke ik hier thuis ook op een NAS heb draaien), of dat ze daar zelf nog aan sleutelen voor hun eigen devices.
Ik heb geen ervaring met FreeNAS.

ZFS onder Linux werkt op zich prima en de performance lijkt ok. Op het werk hergebruik ik een oude DL360 met een sloot disks + SSD's als iSCSI provider en die draait nu een maand of wat zonder problemen, met Debian als OS. Deze machine draait geen mission-critical zaken.

Smaak: ik ben/was fan van Ubuntu vanwege LTS: 5 jaar support. Maar ik zie teveel technisch gedonder waar ik last van heb gehad (display, software raid) dat ik weer terug ben gegaan naar Debian voor al mijn machines, zowel op het werk als prive.

FreeBSD heeft meer native support voor ZFS. Zelf geen ervaring mee.
CLI is geen probleem, eigenlijk eerder een voordeel. Ik gebruik onder 2008R2 ook liever cmd of powershell om wat voor elkaar te krijgen, dan de brakke consoles die Windows biedt.
That's the spirit!

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

DXaroth schreef op zondag 06 april 2014 @ 17:12:
bedenk dat een disk maximaal 20w kan trekken aan vermogen, maar hun idle ligt op iets van 4w .. dus je gebruikt ergens tussen de 320w en 64w aan je disks (al zullen niet alle disks tegelijk vol vermogen trekken)
Ik denk dat het wel mee zal vallen, want laatst had ik wat problemen met op en downspinnen van HDD's wat uiteindelijk helemaal niet aan mijn voeding bleek te liggen, maar tijdens het zoeken naar de oorzaak heb ik wel het verbruik van de HDD's opgezocht en dat was echt super weinig :
Power Requirements:
Standby & Sleep / Idle / R&W / Seek : 1W / 5.4W / 6.2W / 7.1W
En dat voor een HDD die ondertussen als heel erg oud beschouwd mag worden dus de nieuwste HDD's kunnen het alleen maar beter doen :)

Hier werd de HDD vergeleken met modellen die al ouder waren en bleek toen al heel zuinig te zijn : http://www.storagereview....cogreen_f3_review_hd203wi

Ik denk dus dat een beetje WD Green of Red HDD of de Seagate 5900 rpm modellen flink zuiniger zijn ondertussen!

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Dadona schreef op zondag 06 april 2014 @ 19:50:
Op zich heeft een SSD zeker het vermogen om meerwaarde te hebben als ZIL danwel L2ARC. Maar uiteindelijk is het belangrijkste punt, gaat dat op voor jouw scenario. En is het relevant? Is het hebben van een ZIL van belang? Heb je data waarbij een L2ARC echt goed gevuld kan worden? (Bijvoorbeeld veel gebruikte data.)
Ja idd. Kan ik in een later stadium nog een SSD inzetten voor de ZIL en L2ARC of moet je dat gelijk bij het opzetten al inregelen?

Acties:
  • 0 Henk 'm!

Verwijderd

Iemand toevallig ervaring met een Asrock C226 ?

Ik twijfel nog tussen een supermicro X10SL7-F bord (met sas controller) of die Asrock C226, heel mss een Asus (met sas controller).

Die Asrock heeft heeft geen sas controller maar wel 10 sata poorten, en leuke specs en heeft hdmi wat handig is om een scherm of receiver aan te hangen voor beeld. Ik begrijp niet goed hoe de meeste moederborden zonder vga worden geinstalleerd ? Is dat door tijdelijk een vga kaart te installeren of doet met iets van remote desktop ?

Bovendien is die Asrock met 179 euro betaalbaar.

Dus iemand opmerkingen of ervaringen om dat in een nas te gebruiken ?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:22
Verwijderd schreef op maandag 07 april 2014 @ 01:28:
Ik begrijp niet goed hoe de meeste moederborden zonder vga worden geinstalleerd ?
Kijk nog eens goed naar dat Supermicro bord, daar zit gewoon een VGA aansluiting op, dus er zit een minimale on-board grafische kaart in. Supermicro borden hebben tevens KVM over IP dus strikt genomen kun je het ding zonder monitor bedienen.

Acties:
  • 0 Henk 'm!

  • tcpie
  • Registratie: November 2013
  • Laatst online: 22-09 20:47
Hoi allemaal,

wist niet zeker of ik n nieuw topic aan moest maken, maar omdat t nog allemaal in een vrij vroeg stadium zit post ik hier maar.

Bij onze studievereniging zijn we aan het overwegen onze huidige NAS te vervangen. Dit is n vrij traag ding, ook niet zelfgebouwd maar gewoon gekocht. We zouden weer een nieuwe kunnen kopen, maar ik ben zelf meer voor zelf bouwen, dan krijg je meestal meer waar voor je geld.

Nou moet ik zeggen dat wij over vrij weinig ICT expertise beschikken. Zelf n desktop bouwen en er Windows op zetten gaat prima, zelf heb ik n Raspberry Pi waar ik Samba goed draaiende op heb gekregen (werken met CLI gaat dus wel.)

De NAS zal draaien op t netwerk in onze werkkamer: vier PCs (windows 7) en twee Macs. Hij zal gebruikt worden om Word, Excel bestanden op te zetten, evenals afbeeldingen (Photoshop, Illustrator, Indesign.) Vooral kantoorwerkzaamheden dus, maar ook voor grafische toepassingen. De meeste bestanden zijn niet zo groot, we hebben ook niet zoveel opslagruimte nodig, 1 TB is voldoende. Belangrijk is dat hij redelijk snel werkt en bovenal betrouwbaar is.

Omdat wij over niet zoveel expertise beschikken is het ook zaak dat er weinig onderhoud vrreist is. Backuppen (naar draagbare HDDs) moet ook makkelijk gaan (bijv HDD via usb aan de NAS hangen.)

Ik heb mij georienteerd op internet: ZFS schijnt een goede keus als bestandssysteem te zijn. Dan icm FreeNAS zou t ook gebruiksvriendelijk moeten zijn.

Qua hardware heb ik vernomen:
* 8GB RAM
* goede cpu (=?)

Verder natuurlijk goede PSU. Van t soort moederbord heb ik geen weet. Hardware RAID controller zou niet nodig zijn icm ZFS. Liefst een kleinere (mini atx?) kast.

Klopt dit zo'n beetje? Wat zou voor ons, gezien omze situatie, een goede keus zijn? Aan wat voor kosten zouden we moeten denken?

Ons netwerk is ook vrij oud, daar gaan we ook naar kijken, maar dat is weer een ander verhaal.

Alvast bedankt!

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
-Moondust- schreef op zondag 06 april 2014 @ 23:29:
[...]

Ja idd. Kan ik in een later stadium nog een SSD inzetten voor de ZIL en L2ARC of moet je dat gelijk bij het opzetten al inregelen?
Dat kan prima later idd, is geen probleem.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • Phyt_
  • Registratie: Oktober 2009
  • Laatst online: 00:11
Wat is er "traag" aan je huidige nas?
En wat is er verouderd aan het werk is het 10 of 100 mbit? Gebruik je nog hubs ipv switches ?(Bestaan die dingen nog?)
Als je " maar" 1 tb storage gaat gebruiken, zou ik eerst naar bovenstaande kijken.
Met je huidige nas, en netwerk upgrade naar 1gbit, mogelijk al stuk mee geholpen.

En hoeveel disks van welke groote zitten er nu in de huidige nas, en wat is het voor nas type/merk etc.

You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Kan ik een RAID-Z2 ZFS pool maken van 8 x 4TB disks en daar later nog 8 x 3TB disks aan toevoegen?

Acties:
  • 0 Henk 'm!

  • slooffmaster
  • Registratie: September 2013
  • Laatst online: 23-07 23:39
jazeker, door de tweede set van disken als een tweede vdev aan de initiele pool toe te voegen.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:22
-Moondust- schreef op maandag 07 april 2014 @ 19:17:
Kan ik een RAID-Z2 ZFS pool maken van 8 x 4TB disks en daar later nog 8 x 3TB disks aan toevoegen?
RAIDZ2 vdevs hebben 4,6,10,18,34 als aanbevolen aantal disks in de VDEV. Anders ga je opslag capaciteit verliezen.

Acties:
  • 0 Henk 'm!

  • sphere
  • Registratie: Juli 2003
  • Laatst online: 07:45

sphere

Debian abuser

nero355 schreef op zondag 06 april 2014 @ 22:32:
[...]


Ik denk dat het wel mee zal vallen, want laatst had ik wat problemen met op en downspinnen van HDD's wat uiteindelijk helemaal niet aan mijn voeding bleek te liggen, maar tijdens het zoeken naar de oorzaak heb ik wel het verbruik van de HDD's opgezocht en dat was echt super weinig :

[...]


En dat voor een HDD die ondertussen als heel erg oud beschouwd mag worden dus de nieuwste HDD's kunnen het alleen maar beter doen :)

Hier werd de HDD vergeleken met modellen die al ouder waren en bleek toen al heel zuinig te zijn : http://www.storagereview....cogreen_f3_review_hd203wi

Ik denk dus dat een beetje WD Green of Red HDD of de Seagate 5900 rpm modellen flink zuiniger zijn ondertussen!
Startup is 14 watt...

http://stackoverflow.com/questions/1732348/regex-match-open-tags-except-xhtml-self-contained-tags/1732454#1732454


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Ja, maar geen 20 watt en het is nu echt een oude HDD dus een nieuwe/hedendaagse zal wat... 10 watt of minder doen ?? :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Q schreef op maandag 07 april 2014 @ 21:07:
RAIDZ2 vdevs hebben 4,6,10,18,34 als aanbevolen aantal disks in de VDEV. Anders ga je opslag capaciteit verliezen.
Ok, dat is goed om te weten maar is geen antwoord op de vraag. Kan je in een RAID-Z2 ZFS pool nog extra schijven toevoegen later?

Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
-Moondust- schreef op dinsdag 08 april 2014 @ 00:39:
[...]

Ok, dat is goed om te weten maar is geen antwoord op de vraag. Kan je in een RAID-Z2 ZFS pool nog extra schijven toevoegen later?
Ja je kan een nieuwe pool aanmaken maar dan ben je dus wel weer opnieuw 2 schijven kwijt aan parity.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 16:54
Je kunt ook een nieuw vdev toevoegen aan een bestaande pool, hoef je geen nieuwe pool voor te maken.

Je hebt echter geen RAIDZ2 pool, je hebt een pool met daarin een RAIDZ2 vdev :) Je pool bevat net zo veel redundancy als de vdev met de laagste redundancy. Als je dus een vdev met maar één schijf toevoegt verlies je _alles_ als (die ene) schijf stuk gaat. Je kunt dus aan een pool met een RAIDZ2 vdev het beste alleen maar nieuwe RAIDZ2 vdevs toevoegen.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Taartvarken
  • Registratie: Januari 2007
  • Laatst online: 24-09 10:17
Ik wil graag een NAS voor thuis gaan bouwen, nu heb ik even zitten kijken naar een kant en klare Synology maar de niet-uitbreidbaarheid daarvan bevalt me niet zo. Daarnaast zie ik het ook wel zitten om zelf iets te bouwen. Ik wil beginnen met 3 hardeschijven in RAIDZ1, dat is voorlopig meer dan genoeg.

Ik begrijp dat ECC geheugen zeer wenselijk is, dus heb ik gekozen voor het SuperMicro X9SCM-F moederbord met een Intel Pentium G3220. Ik kom nu qua prijs (excl. hardeschijven) uit op ongeveer hetzelfde bedrag als een kant en klare oplossing, dus dat is prachtig.

#ProductPrijsSubtotaal
1Intel Pentium G3220 Boxed€ 49,-€ 49,-
1Supermicro X9SCM-F€ 151,27€ 151,27
3HGST Deskstar NAS, 4TB€ 150,90€ 452,70
1Cooler Master N300 (Closed)€ 34,-€ 34,-
2Kingston ValueRAM KVR13LE9S8/4€ 38,65€ 77,30
1Seasonic G-Serie 360Watt€ 51,-€ 51,-
Bekijk collectie
Importeer producten
Totaal€ 815,27


De NAS gaat met name voor opslag van films, foto's en backups van vrienden gebruikt worden dus extreem snel hoeft het ook weer niet te zijn.

Heeft het dan nog nut om nog een SSD te plaatsen of maak ik het mezelf dan vooral ingewikkeld?
Heb ik een beetje zinnige dingen bij elkaar gezocht?

Acties:
  • 0 Henk 'm!
Ziet er prima uit. Bedenk wel dat die Deskstar 7200 RPM is, die zijn dus niet zo heel zuinig. Je kan beter 5400RPM schijven nemen. Zijn een stukje zuiniger.

SSD zal niet veel zin hebben tenzij je virtual machines gaat draaien ofzo. Voor booten zou ik het niet doen. Ding staat neem ik aan toch vooral de hele dag aan :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Taartvarken
  • Registratie: Januari 2007
  • Laatst online: 24-09 10:17
De WD Red's zijn dus een betere keuze of bedoel je die niet? Uit het blog (http://blog.backblaze.com...-hard-drive-should-i-buy/) van Backblaze maak ik dat in ieder geval wel op.

Acties:
  • 0 Henk 'm!
Red's, Green's, Seagate HDD.15, zijn allemaal betere keuzes als het gaat om stroomverbruik.

Welke van de bovenstaande je precies moet nemen, hangt af van je eisen. (Red meer garantie en iets andere firmware, Green's goede reputatie en zuinig, of de Seagate's all time low price)

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 10-10 09:53
Het hangt van je gebruik af, maar is het misschien handig om de backup op een andere schijf binnen te laten lopen? Wellicht wil je de array gewoon in de nacht uit laten zetten (kan gewoon, ook als array). Dat terwijl de backup mogelijkerwijs op ieder moment bezig kan zijn. (Of je moet dat ook instellen.)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
TrsvK schreef op dinsdag 08 april 2014 @ 01:35:
Ja je kan een nieuwe pool aanmaken maar dan ben je dus wel weer opnieuw 2 schijven kwijt aan parity.
Jammer. Dit vind ik wel een grote tegenvaller. Ik had graag eerst 8 x 4TB in een ZFS pool met RAID-Z2 willen zetten, dan mijn data overzetten en dan de oude disks eraan toevoegen. Dat gaat dus niet.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:22
Dat is de teleurstelling die ZFS keer op keer te bieden heeft.

Acties:
  • 0 Henk 'm!
Jup, als btrfs echt volwassen is, ga ik daar ook even kijken.
Daar hebben ze juist dat stukje geniaal goed gemaakt (meerdere filesystems per pool, realtime wijzigen van het raid level en migreren, realtime devices verwijderen en toevoegen, online filesystems shrinken en growen).

Maar ja, btrfs op RAID5/6 is nogal... alpha...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

-Moondust- schreef op dinsdag 08 april 2014 @ 18:09:
[...]

Jammer. Dit vind ik wel een grote tegenvaller. Ik had graag eerst 8 x 4TB in een ZFS pool met RAID-Z2 willen zetten, dan mijn data overzetten en dan de oude disks eraan toevoegen. Dat gaat dus niet.
Het wordt niet helemaal goed uitgelegd:

Je kunt wel een pool hebben met meerdere RAID-Z arrays. Je kunt dus beginnen met 8x 4TB in RAID-Z2 en later weer x schijven toevoegen, maar dan wordt het geen 16x 4TB in RAID-Z2, maar dan wordt het 2x 8x 4TB in RAID-Z2. Je mag overigens prima met aantal disks en disk grootte variëren. Het voordeel is dat je op deze manier echt veilig kunt uitbreiden zonder enig risico en je de redundancy op peil houdt naarmate je je pool groter maakt. Maar het grote nadeel is natuurlijk dat je niet achteraf van een 8-disk RAID-Z2 een 10-disk RAID-Z2 ofzo kunt maken. Wat wel weer kan is een 10-disk RAID-Z2 maken met twee missende disks; dan is het een soort RAID0 en kun je later één disk toevoegen ('RAID5') en daarna nog een disk en is hij compleet met 'RAID6' bescherming.

Ook kan ZFS wel degelijk van RAID level migreren, bijvoorbeel dvan een single disk vdev naar een mirror, en van een mirror naar meervoudige mirror, en van mirror weer naar single disk. Maar voor RAID-Z familie werkt dat niet. Wat ook niet werkt is later een vdev splitsen of weg doen/shrinken.

Lees ook de ZFS topicstart door want dit is een echte ZFS vraag, die hoort hier ook eigenlijk niet thuis. ;)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:22
FireDrunk schreef op dinsdag 08 april 2014 @ 18:35:
Jup, als btrfs echt volwassen is, ga ik daar ook even kijken.
Daar hebben ze juist dat stukje geniaal goed gemaakt (meerdere filesystems per pool, realtime wijzigen van het raid level en migreren, realtime devices verwijderen en toevoegen, online filesystems shrinken en growen).

Maar ja, btrfs op RAID5/6 is nogal... alpha...
Dat is precies hoe ik er in sta.
Verwijderd schreef op dinsdag 08 april 2014 @ 19:06:
[...]

Het wordt niet helemaal goed uitgelegd:
Volgens mij is glashelder dat ZFS je gewoon onnodig 2 harde schijven kost omdat je een 2e vdev met zijn eigen 2x parity disks moet maken. Dat kost zomaar 300 euro als je met 4 TB disks werkt. Gewoon, door het toilet.

Tenzij je tijdelijk ergens je data kwijt kunt, maar dan zit je weer vast aan die regel dat je 2^n+parity disks in een vdev moet stoppen.

Het is niet zozeer dat ZFS zo cool is. Het is meer dat ZFS meer 'bij gebrek aan beter' is. Gezien vanuit het perspectief van een thuisgebruiker.

[ Voor 42% gewijzigd door Q op 08-04-2014 19:45 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 16:54
Als jij je veilig voelt bij 16 schijven met maar 2 parity-schijven dan houdt ZFS je echt niet tegen hoor.

Je hebt (in het geval van -Moondust-) dan een array van ~49 TB met schijven die een UBER van 12.5 TB hebben maar hè, geen € 300 door het toilet 8)

[ Voor 6% gewijzigd door Paul op 08-04-2014 19:54 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • maniak
  • Registratie: Augustus 2000
  • Laatst online: 21-09 08:52
Korte vraag over het verbruik van mijn FreeNAS server. Op dit moment verbruikt mijn NAS rond de 42 watt.. Is dit aan de hoge of lage kant?

Acties:
  • 0 Henk 'm!

Verwijderd

@Q

Er werd gesteld dat als je wilt uitbreiden je een 2e pool moet aanmaken. Dat is niet zo. Je kunt met vdevs uitbreiden. Dat heb ik volgens mij allemaal goed uitgelegd, maar uit de uitleg die eerder werd gegeven zou je kunnen concluderen dat uitbreiden helemaal niet mogelijk is met ZFS. Je kunt wel degelijk je pool groter maken en alle ruimte als één groot blok beschikbaar krijgen, geen 2e pool met aparte vrije ruimte.

Het 'live' uitbreiden van een parity array door alle datablokken om te spitten, is niet zonder risico voor zowel bugs in de implementatie, als voor dingen die misgaan (bad sectors) tijdens het omspitten. Bovendien kan het best lang duren. Kortom, OCE ('live' uitbreiden van een array) is ook niet zaligmakend.

Zo ga jij wel heel gemakkelijk voorbij aan de parity, dat het 'verspilling' zou zijn. Maar een 8-disk RAID-Z2 is nog deftige bescherming; bij 16-disks in RAID-Z2 heb ik toch mijn twijfels. En vaak zijn dit soort opstellingen zonder een 1:1 gedekte backup. Daar heb jij vast een mening over, maar dat verandert niet dat twee vdevs van 8-disks in RAID-Z2 veel beter is dan één vdev met 16 disks in RAID-Z2.

De manier van uitbreiden die ZFS ondersteunt kent nadelen maar ook voordelen die traditioneel RAID niet heeft. Daar staat ook wat over in de startpost van ZFS. :)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:22
[quote]Verwijderd schreef op dinsdag 08 april 2014 @ 21:01:
@Q
Het 'live' uitbreiden van een parity array door alle datablokken om te spitten, is niet zonder risico voor zowel bugs in de implementatie, als voor dingen die misgaan (bad sectors) tijdens het omspitten. Bovendien kan het best lang duren. Kortom, OCE ('live' uitbreiden van een array) is ook niet zaligmakend.
Vertel dit even aan de mensen die aan BTRFS werken. Dat ze dit soort zooi er toch maar niet in stoppen dan. Veel te gevaarlijk. Wie wil dit nou. En toegegeven, thuis gebruikers hebben ook te maken met een hoge tijdsdruk dus ze kunnen er beter mee stoppen.
Zo ga jij wel heel gemakkelijk voorbij aan de parity, dat het 'verspilling' zou zijn. Maar een 8-disk RAID-Z2 is nog deftige bescherming; bij 16-disks in RAID-Z2 heb ik toch mijn twijfels. En vaak zijn dit soort opstellingen zonder een 1:1 gedekte backup. Daar heb jij vast een mening over, maar dat verandert niet dat twee vdevs van 8-disks in RAID-Z2 veel beter is dan één vdev met 16 disks in RAID-Z2.
2 x 8 disk RAID6 is veiliger dan 1 x 16 disk RAID6, daar is geen discussie over.

Maar je hebt als consument geen groei pad. Je moet van te voren meteen capaciteit kopen die je over x jaar pas nodig denkt te hebben.

Ik kan met MDADM van 8 disks naar bijv 12 disks groeien en dan een 2e array starten waarbij ik met 4 disks begin en ook deze langzaam uitbreid tot 12 disks, en zo verder.
De manier van uitbreiden die ZFS ondersteunt kent nadelen maar ook voordelen die traditioneel RAID niet heeft. Daar staat ook wat over in de startpost van ZFS. :)
Die 'voordelen' zijn voor thuis gebruik en DIY NAS bouwers niet relevant in de meeste gevallen.

ZFS is gewoon kut, maar het is het beste moderne file system wat we nu hebben. Dus als je van de voordelen van ZFS wilt genieten, dan kun je niet anders.

Maar als BTRFS stable is, ben ik zo van ZFS vertrokken.

Ik haat smurfen! ;)

Zakelijk gezien ben ik niet zo negatief over ZFS, alleen in de context van thuis gebruik.

[ Voor 11% gewijzigd door Q op 08-04-2014 21:43 ]


Acties:
  • 0 Henk 'm!

Verwijderd

ZFS is gewoon kut
Ik vind ZFS de beste ontwikkeling in storage-land sinds mijn eerste RAID-array.

Maar ik respecteer je mening, verschil in inzicht mag er wezen.

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Bedankt Q, FireDrunk en CiPHER, jullie helpen me goed op weg om verstandige keuzes te maken (hoop ik). Ik denk nu aan de volgende hardware.

#ProductPrijsSubtotaal
1Intel Xeon E3-1230 V3 Boxed€ 218,50€ 218,50
1Supermicro X10SL7-F€ 217,76€ 217,76
10WD Red SATA 6 Gb/s WD40EFRX, 4TB€ 149,80€ 1.498,-
1Fractal Design Define XL R2 Black Pearl€ 113,-€ 113,-
1Cooler Master 4-in-3 Device Module€ 0,-€ 0,-
2Silverstone SST-CP06 4x SATA€ 8,17€ 16,34
1Kingston ValueRAM KVR16E11K4/32€ 281,49€ 281,49
1Seasonic G-Serie 360Watt€ 51,-€ 51,-
2Crucial M500 2,5" 480GB€ 187,-€ 374,-
Bekijk collectie
Importeer producten
Totaal€ 2.770,09


- Virtualisatie laat ik toch zitten vooralsnog, dus één server voor storage, downloads en ftp.
- OS -> FreeBSD (ZFSguru)
- 10 x 4TB in RAID-Z2 waarvan 8 op de SAS-controller en 2 op de SATA300 (10 disks schijnt optimaal te zijn voor RAID-Z2 met 4K schijven), dus een mooie 32TB opslag (= 29TB effectief).
- 32GB ECC RAM om ZFS optimaal te ondersteunen
- De SSD's (op SATA600) gebruik ik voor het OS (mirror), usenet downloads (stripe), ZIL (mirror) en L2ARC (stripe).
- Ik ben overgestapt van een 3U/4U-servercase naar een tower, maar ben er nog niet zeker van dat deze Fractal Design de juiste is. Stilte is de belangrijkste eigenschap naast het feit dat er natuurlijk 10 hhd's en 2 SSD's in moeten passen.
- 360 Watt Seasonic 80+ Gold voeding voor hoge efficiëntie, ook bij laag vermogen.

Klopt dit een beetje met elkaar? Nog opmerkingen/suggesties/toevoegingen?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:22
Als je niet gaat virtualiseren kun je gerust geld besparen en voor bijvoorbeeld 16 GB gaan. Met een UPS kun je ook mooi het SLOG/ZIL uitschakelen. Als het puur een NAS is heb je waarschijnlijk ook niet veel aan de SSD en die kun je er later bij zetten. Zie argumentatie in mijn 'Thinking about ZFS' linkje in mijn signature.

[ Voor 12% gewijzigd door Q op 09-04-2014 07:45 ]


Acties:
  • 0 Henk 'm!
Ik denk dat slog/zil uitzetten niet eens nodig is voor snelheid... Zonder VMs word de ZIL amper gebruikt.

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:22
Dat is waar, aangenomen dat er dus bijna geen sync writes plaats vinden, wat volgens mij het geval is met SAMBA.

Zelf heb ik twee kleine goedkope SSDs gekocht die ik in RAID1 zet als boot disk. Omdat het OS niet zoveel ruimte in neemt, kun je de rest als aparte partitie als L2ARC in zetten. Dat kost dan niets extra.

[ Voor 39% gewijzigd door Q op 09-04-2014 09:53 ]


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
@Q
Zeer verhelderende blog, ook de commentaren. Mijn dank daarvoor.

- Welke UPS kan je aanraden voor een home NAS met 360Watt PSU?

- Heb ik niet genoeg bescherming tegen stroomuitval met de M500 SSD's waarop een ZIL in mirror draait? Het lijkt me sowieso handig om het OS in mirror te draaien, dan kan de ZIL er ook bij en is een UPS overbodig. Toch? Keuze hangt ook een beetje af van de kosten van een goede UPS.

- Ik neem sowieso een SSD voor OS en usenet. Met name het parren geeft veel druk op hdd's en een SSD doet het lekker snel. Wellicht het OS toch in mirror zetten en dan kan ik datzelfde natuurlijk ook voor de ZIL doen. Het kost toch maar 2-4GB ruimte. De overige ruimte van de SSD's kan dan in stripe door de L2ARC en usenet gebruikt worden. Daar zit geen risico. Wellicht allemaal niet nodig, maar de meerprijs is relatief laag.

- Ik gebruik veel torrents, heel veel. Doorgaans wordt op nieuwe torrents veel een beroep gedaan gedurende de eerste paar dagen, daarna neemt het snel of totdat de data tamelijk koud is geworden. Zou L2ARC enigszins kunnen bijdragen aan het leveren van de data voor torrents in de eerste paar dagen dat ik deze share?

- Ik hou toch de 32GB. De meerprijs is relatief laag en ik lees overal dat je met ZFS nooit teveel RAM hebt. En dan gaat het niet alleen om performance, maar ook om het feit dat de RAM zorgt voor minder druk op andere componenten (alles wat in het RAM zit hoeft niet van hdd's gelezen te worden). Maakt het nog uit of ik kies voor 2 kits van 2 x 8GB Crucial of 1 kit van 4 x 8GB van Kingston?

Acties:
  • 0 Henk 'm!
Neem een recente UPS! Bij APC is de efficientie echt met bakken omhoog gegaan de afgelopen jaren. Tweedehands is dus eigenlijk altijd duurkoop. Efficientie van oude modellen zit rond de 75-85% waar de nieuwste modellen 95-98% doen.

M500 als ZIL gebruiken zonder UPS zou in theorie kunnen ja, maar zoals ik al eerder zei, een SLOG/ZIL heb je helemaal niet nodig als je geen SYNC writes hebt.

ZIL is echt niet nodig, laat de SSD lekker voor de helft leeg, en maak een scratch partitie aan voor je downloads. Dan blijft de SSD lekker snel. Bedenk wel, dat L2ARC *ECHT* een flinke aanslag is op je SSD.

Ja zeker, mits je server in de tussentijd niet al heel veel andere data heeft moeten verstoken. L2ARC is (standaard) 50% Most Recently Used en 50% Most Frequently Used. Als er data is die aan een van die beide eisen voldoet, zal de torrent data vervangen worden. Je kan dit altijd forceren door op bepaalde filesystems wel of geen SecondaryCache aan te zetten (L2ARC caching).
De vraag is alleen, waarom zou je dat willen? Wat maakt het uit dat je torrent van disk geleverd word? Het is niet als of je met > 300MB/s torrents gaat seeden neem ik aan...

Maakt niets uit, Crucial, Corsair, GEIL, Kingston, en vele anderen hebben allemaal prima 32GB kits. Soms zijn ze iets goedkoper, soms niet. Persoonlijk heb ik Corsair Vengeance LP geheugen kits van 32GB (meerdere). Bedenk wel dat je als je een goedkope CPU neemt (zoals een Celeron, Pentium, of i3) je geen 1600Mhz geheugen nodig hebt, die goedkope CPU's doen 'maar' 1333Mhz geheugen.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

@ Moondust 2 opmerkingen :

Die cpu is volgens mij overkill, die gaat voor het geen jij gebruikt het grootste deel van de tijd niets doen. Ik zou een G3220 / 3420 aanraden. Deze cpu ondersteunt ook ECC en is meer dan krachtig genoeg. Is een stuk goedkoper en later kan je nog altijd upgraden moest het nodig zijn.

Geheugen zou ik ook beginnen met 16 gb ( 1 kit 2 * 8 ) , meer ga je zeker niet nodig hebben. En moest het nodig zijn zijn kan je later nog extra geheugen bijsteken. In de praktijk kom je met 8 gb al ruim toe.

Dit alles geeft een besparing van 300 euro, wat toch een aanzienlijke som geld is, zeker als je in rekening neem dat die 2 besparingen niets van verschil gaan geven in wat jij er mee wil gaan doen.

[ Voor 4% gewijzigd door Verwijderd op 09-04-2014 11:27 ]


Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 10-10 20:00

hidde212

Free your mind...

FireDrunk schreef op woensdag 09 april 2014 @ 11:10:
[...]

Maakt niets uit, Crucial, Corsair, GEIL, Kingston, en vele anderen hebben allemaal prima 32GB kits. Soms zijn ze iets goedkoper, soms niet. Persoonlijk heb ik Corsair Vengeance LP geheugen kits van 32GB (meerdere). Bedenk wel dat je als je een goedkope CPU neemt (zoals een Celeron, Pentium, of i3) je geen 1600Mhz geheugen nodig hebt, die goedkope CPU's doen 'maar' 1333Mhz geheugen.
De pricewatch: Intel Pentium G3420 Boxed ondersteunt wel 1600MHz geheugen, is voor de rest zoals gezegd ook wel genoeg kracht voor de genoemde activiteiten. Upgraden kan altijd nog.

...and your ass will follow


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
@FireDrunk
Ik ben het inmiddels met je eens dat de ZIL en L2ARC in mijn situatie niet via een SSD hoeven. Bovendien merk je terecht op dat L2ARC een flinke aanslag is op de SSD. En dat is natuurlijk zonde als het toch geen echte meerwaarde oplevert. Het OS wil ik wel op 2 SSD's in mirror hebben, zodat alles gewoon doordraait als een SSD het begeeft. Ik vind de meerprijs voor dat stukje veiligheid de moeite waard. Ik kan er dan gelijk een scratch in stripe op laten draaien voor downloads. Heb geen ervaring met de configuratie van scratch space maar dat vogel ik nog wel uit. Een APC UPS (meest populaire in de PW) heb ik toegevoegd. De M500 SSD's heb ik daardoor weer vervangen voor Samsung 840 Pro's, omdat ik vermoed dat die een stuk beter zijn, maar ik vraag me af of ik die snelheid niet toch beter in meer GB's kan investeren. Dus dan toch de M500's...

@Timtitanium
Je hebt gelijk, het is ook al eerder gezegd, maar ik heb bewust niet voor een Synology NAS gekozen, omdat ik computing power wil hebben. Momenteel draai ik een i7 met SSD, 8 x 3TB op Areca, 8GB RAM in Win7 en dat werkt met downloads (usenet en torrents) echt heel lekker. Rarren en parren is nog nooit zo vlug gegaan. Die power wil ik graag houden in de nieuwe server config. Desalniettemin kan ik niet uitsluiten dat ik met 16GB en G3420 zo goed als dezelfde performance haal. En wellicht wil ik toch wat meer gaan doen emt de server en dan is wat ruimte in de resources wel fijn. Ik wil als controlfreak graag gelijk goed zitten. ;-)

[ Voor 3% gewijzigd door -Moondust- op 09-04-2014 12:59 ]


Acties:
  • 0 Henk 'm!
hidde212 schreef op woensdag 09 april 2014 @ 11:44:
[...]


De pricewatch: Intel Pentium G3420 Boxed ondersteunt wel 1600MHz geheugen, is voor de rest zoals gezegd ook wel genoeg kracht voor de genoemde activiteiten. Upgraden kan altijd nog.
Aha! Dat is met de recente haswell dus geupgrade!
De vorige had dat nog niet!

http://ark.intel.com/prod...3M-Cache-3_00-GHz?q=g3220

Goed om te weten :)
-Moondust- schreef op woensdag 09 april 2014 @ 12:57:
@FireDrunk
Ik ben het inmiddels met je eens dat de ZIL en L2ARC in mijn situatie niet via een SSD hoeven. Bovendien merk je terecht op dat L2ARC een flinke aanslag is op de SSD. En dat is natuurlijk zonde als het toch geen echte meerwaarde oplevert. Het OS wil ik wel op 2 SSD's in mirror hebben, zodat alles gewoon doordraait als een SSD het begeeft. Ik vind de meerprijs voor dat stukje veiligheid de moeite waard. Ik kan er dan gelijk een scratch in stripe op laten draaien voor downloads. Heb geen ervaring met de configuratie van scratch space maar dat vogel ik nog wel uit. Een APC UPS (meest populaire in de PW) heb ik toegevoegd. De M500 SSD's heb ik daardoor weer vervangen voor Samsung 840 Pro's, omdat ik vermoed dat die een stuk beter zijn, maar ik vraag me af of ik die snelheid niet toch beter in meer GB's kan investeren. Dus dan toch de M500's...
Als je echt snelle SSD's wil, heb ik nog een setje Intel DC S3700's liggen. Die winnen van al die SSD's... :+

Even niets...


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Is de Xeon E3-1230v3 (TDP 80W) passief te koelen in de zin dat de airflow van de case de hitte van het koelblok afvoert? Dat levert me weer wat meer stilte op. Bij mijn i7 2600K's (TDP 95W) lukt dat prima met een Scythe Mugen 3 in mijn werkpc en een Scythe Samurai ZZ in mijn HTPC. Dus in theorie zou het makkelijk moeten lukken met een goede koeler en pasta. Wat denken jullie?

[ Voor 5% gewijzigd door -Moondust- op 09-04-2014 14:06 ]


Acties:
  • 0 Henk 'm!

Verwijderd

ja, want die staat 99% van de tijd niets te doen, dus warm zal hij ook niet worden...

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 06-10 10:11
Van tijd tot tijd zal hij (relatief kortdurend) wel flink aan de bak moeten. Een goede referentie is dat Prime95 urenlang stabiel gedraaid kan worden. Dan weet ik zeker dat de koeling geen issue is en stabiliteit in dat opzicht gegarandeerd is. Ik zit te denken aan een Scythe Mugen 4 waarvan ik dan alleen het koelblok gebruik en niet de fan.

[ Voor 9% gewijzigd door -Moondust- op 09-04-2014 14:36 ]


Acties:
  • 0 Henk 'm!

  • Taartvarken
  • Registratie: Januari 2007
  • Laatst online: 24-09 10:17
Wat is aan te raden als OS-schijf, ik wil graag ZFSGuru gaan draaien en aangezien een M500 tegenwoordig slechts weinig kost lijkt me dit wel prima en dan zou ik die eventueel ook gelijk als caching-schijf in kunnen zetten. Heeft dit veel nut en is dit lastig te configureren?

En ipv een Supermicro moederbord met losse CPU dit moederbord: http://tweakers.net/pricewatch/353821/asrock-c2550d4i.html?

Dat moederbord heeft namelijk 12 sata poorten ipv de 6 die de meeste Supermicro moederborden hebben.

[ Voor 30% gewijzigd door Taartvarken op 09-04-2014 14:47 ]


Acties:
  • 0 Henk 'm!
Dat is een prima bordje, en een M500 is ook een prima oplossing als OS / Cache schijf.
Let wel op dat dat bord (voor zover ik weet) alleen maar ECC geheugen wil.

Even niets...

Pagina: 1 ... 147 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.