Acties:
  • 0 Henk 'm!

  • JForceDesigns
  • Registratie: Oktober 2006
  • Laatst online: 11-01-2021
Q schreef op dinsdag 17 mei 2016 @ 20:26:
[...]


Op basis van je wensen en eisen zie ik geen reden waarom je nu voor een DIY NAS zou gaan. Een Synology of Qnap zou prima werken. Echter, mogelijk vind je dit een leuk hobby / knutsel project, dat is natuurlijk altijd een goede reden ;)
Zo een Qnap lijkt een desktop en NAS ineen, gewoon een grafische linux desktop omgeving.

Ook gelet op wat @player-x schreef, is het misschien niet verstandig voor een beginner als ik om een systeem te bouwen met een grafische interface ipv text/code? En is Linux geschikt om 24/7 aan te staan? Of moet ik misschien toch mijn beperkte kennis accepteren en kijken naar een consumenten oplossing?

Acties:
  • +1 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Nee, een Qnap of Synology is een Linux systeem met een web-interface voor management. Het is geen desktop. Overigens zijn die dingen erg uitgebreid tegenwoordig, compleet met usenet / torrent ondersteuning.

Als jij een beginner bent dan is dit mijn voorstel.

Wat je ook neer zet, je moet in staat zijn om problemen te verhelpen. Een kant-en-klare NAS is gemaakt zodat mensen geen enkele expertise hoeven te hebben (mass market). Die dingen worden in vollume verkocht en ook goed getest.

FreeNAS is een kant-en-klare distro waar ik zelf weinig ervaring mee heb, maar het vraagt al iets meer expertise om te installeren. En als daar iets mis mee gaat dan mag je je FreeBSD kennis afstoffen. Er zijn fora, maar je bent 'on your own'.

Dat geldt helemaal voor Linux-based zelfbouw.

De vraag is dus of jij tijd en moeite wilt besteden om voldoende kennis op te bouwen om eventuele problemen het hoofd te bieden. Ik draai zelf een text-only console Linux omdat ik goed bekend ben met Linux.

Ik heb behoorlijk wat tijd besteed om bekend te raken met RAID en ZFS om het te begrijpen en er mee om te kunnen gaan. Een tutorial volgen is niet moeilijk, maar je moet ook weten wat te doen als iets niet werkt.

Linux is gemaakt voor 24/7, alle Synology en QNAps enzo draaien Linux onder de motorkap.

Als jij je meer vertrouwd voelt met een oplossing met een GUI, dan denk ik dat je goed moet kijken wat bij je past. Het is wat mij betreft acceptabel om Windows te gaan draaien met Storage Spaces. Verwacht geen gigantische performance, maar het werkt wel OK onder Windows 10.

Of van mijn part ga je voor Windows met een hardware RAID controller. Voor thuis is dat prima acceptabel.

Als jij het leuk vind om tijd te investeren in een DIY NAS dan zijn er veel opties en zolang je bereid bent om te leren is ZFS of Windows of Linux prima. Test de failure-scenario's simuleer disk failure.

Maar misschien wil je gewoon geen gezeik en een werkende NAS in een uur. Tja.

Aan jou de keuze. Wat vind je leuk :)

http://louwrentius.com/should-i-use-zfs-for-my-home-nas.html

Acties:
  • +1 Henk 'm!

  • janser01
  • Registratie: Augustus 2013
  • Laatst online: 06-05-2024
Je kan ook natuurlijk voor een xpenology oplossing gaan. Dat is eigen hardware (meer bang for the buck t.o.v. de standaard synology hardware) met het gemak van de Synology software. Ik ben een tevreden gebruiker, mijn installatie heeft al 2 harde schijf crashes overleefd.

Mijn stuff -> http://gathering.tweakers.net/forum/view_message/43289117


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Dat lijkt me ook een prima keuze.

Acties:
  • 0 Henk 'm!

  • JForceDesigns
  • Registratie: Oktober 2006
  • Laatst online: 11-01-2021
janser01 schreef op woensdag 18 mei 2016 @ 10:48:
Je kan ook natuurlijk voor een xpenology oplossing gaan. Dat is eigen hardware (meer bang for the buck t.o.v. de standaard synology hardware) met het gemak van de Synology software. Ik ben een tevreden gebruiker, mijn installatie heeft al 2 harde schijf crashes overleefd.
Maar dan behoort ZFS niet direct tot de mogelijkheden toch?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Als ik mag antwoorde: nee maar dat is thuis geen halszaak. Edit: Als je toch ZFS wilt kun je het mogelijk handmatig onder de motorkap wel wroeten via de command line en het aan de praat krijgen.

[ Voor 53% gewijzigd door Q op 18-05-2016 16:45 ]


Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 16:47
En wat gedacht van één Synology met Btrfs, gemak van de webinterface en modern FS, of is het daar nog te vroeg voor?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Daar durf ik geen uitspraak over te doen, ik zou btrfs zelf nog niet aandurven met RAID 5 / 6 alhoewel bijvoorbeeld Player-x naar mijn weten er tot nu toe geen issues mee heeft gehad.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 12:24
Ik hen mijn BtrFS test systeem, erg zwaar getest, met veel gesimuleerde drive uitvallen, en tot nu toe geen problemen.

Maar ook hier geld, resultaten van vandaag geven geen garanties voor morgen, maar met een maand of twee ga ik van mijn oude ZFS server, een echte offline backup server maken, en ga ik mijn BtrFS server 24/7 gebruiken.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • janser01
  • Registratie: Augustus 2013
  • Laatst online: 06-05-2024
JForceDesigns schreef op woensdag 18 mei 2016 @ 14:31:
[...]


Maar dan behoort ZFS niet direct tot de mogelijkheden toch?
Nope, maar is dat een halszaak? Je wilt toch gewoon storage, een handige gui om de zaak te beheren en de mogelijkheid om wat programma's zoals couchpotato, sabnzb, sickbeard of sonar te installeren of niet?

Synology's SHR (2) is ideaal voor huis-en-tuin gebruik naar mijn mening. Gewoon schijven van verschillende groottes mixen zonder problemen. Dat wil je toch als thuisgebruiker? Je hebt bijvoorbeeld 3x3TB en je kan er gewoon een schijf van 4TB en later een van 6TB zonder enige problemen erbij prikken zonder dat je GB's aan onbenutte capaciteit verliest. Volgens gaat dat met ZFS niet lukken. Zelf heb ik 3x5TB en 4x3TB erin liggen in 1 volume. Het Xpenology image komt volgens mij van een DS3612. Dus dat betekent dat je gewoon 12 schijven in je build kwijt kunt.

Trouwens op mijn xpenology heb ik ook Docker en Virtual box draaien dus ik kan gewoon meerdere VM's hosten en daarmee prutsen. Ideaal als je dan toch wilt hobbyen.

[ Voor 6% gewijzigd door janser01 op 19-05-2016 00:11 ]

Mijn stuff -> http://gathering.tweakers.net/forum/view_message/43289117


Acties:
  • 0 Henk 'm!

  • JForceDesigns
  • Registratie: Oktober 2006
  • Laatst online: 11-01-2021
janser01 schreef op woensdag 18 mei 2016 @ 10:48:
Je kan ook natuurlijk voor een xpenology oplossing gaan. Dat is eigen hardware (meer bang for the buck t.o.v. de standaard synology hardware) met het gemak van de Synology software. Ik ben een tevreden gebruiker, mijn installatie heeft al 2 harde schijf crashes overleefd.
Is dan de hardware zoals ik nu heb samengesteld goed? Stap 1 is toch de boel bij elkaar shoppen en in elkaar zetten. FreeNAS lijkt me een mooi OS maar jouw idee ga ik ook nog wat verder onderzoek naar doen.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Ik heb nog even in detail gekeken naar je hardware voorstel. Ik heb slecht nieuws, denk ik.

Helaas heeft dat moederbord, wat eigenlijk een soort workstation bord is, geen on-board video kaart.
Het kaartje wat je er bij hebt gedaan doet zelf al 20 watt idle. Ofwel 40 euro per jaar.

https://www.msi.com/Graph...C.html#hero-specification

Niet exact het zelfde kaartje, maar volgens mij klopt het wel.

Of je accepteert de hogere stroom rekening, of ik zou naar een supermicro bordje kijken.

Acties:
  • 0 Henk 'm!

  • jan99999
  • Registratie: Augustus 2005
  • Laatst online: 21-09 18:08
Openmediavault is ook linux en nas software.
Dmv plugins kun je ook ZFS gebruiken(zelf nog niet getest).
Openmediavault is debian(linux), werkt redelijk gemakkelijk, als je niks weet, misschien even zoeken maar het is te doen.
Netwerk instellen op je openmediavault, dan via je gewone pc bedienen via een website.

ZFS heeft gewoon als voordeel dat je eerder merkt dat er iets niet klopt met backup.
Uitbreiden is misschien moeilijker, maar dat weet je van te voren, dus pas je harde schijven aan aan wat je wilt/kunt betalen.
Op dit moment is ZFS gewoon het beste, en ik zeg niet dat je het moet gebruiken.
En of het repareren gemakkelijk is? Is ook geen probleem als je je backup goed regelt, dan ben je niet afhankelijk van 1 ZFS server, maar dan heb je meerdere backups.

Acties:
  • 0 Henk 'm!

  • janser01
  • Registratie: Augustus 2013
  • Laatst online: 06-05-2024
JForceDesigns schreef op donderdag 19 mei 2016 @ 08:23:
[...]


Is dan de hardware zoals ik nu heb samengesteld goed? Stap 1 is toch de boel bij elkaar shoppen en in elkaar zetten. FreeNAS lijkt me een mooi OS maar jouw idee ga ik ook nog wat verder onderzoek naar doen.
Er is een apart Xpenology draadje hier op tweakers. De hardware hangt af van wat je wilt. Ben je tevreden met max 4 schijven of wil je flink uitbreiden in de toekomst? Wil je gewoon heel veel storage? VM's draaien? Een Plex server met transcoding voor 4 streams op 1080P? etc etc. Zet die dingen eerst voor jezelf goed op een rij.

Lees je dan in op het forum en pas je wensenlijst aan m.b.v. je opgedane kennis. Ga dan pas shoppen. Ik weet dat de handen jeuken om z.s.m. wat te kopen maar zelfbouw vergt wat uitzoek werk en tijd voordat je de juiste aankopen kunt doen. Daarvoor ben je een tweaker. ;)

Mijn stuff -> http://gathering.tweakers.net/forum/view_message/43289117


Acties:
  • 0 Henk 'm!

  • JForceDesigns
  • Registratie: Oktober 2006
  • Laatst online: 11-01-2021
Q schreef op donderdag 19 mei 2016 @ 11:25:
Ik heb nog even in detail gekeken naar je hardware voorstel. Ik heb slecht nieuws, denk ik.

Helaas heeft dat moederbord, wat eigenlijk een soort workstation bord is, geen on-board video kaart.
Het kaartje wat je er bij hebt gedaan doet zelf al 20 watt idle. Ofwel 40 euro per jaar.

https://www.msi.com/Graph...C.html#hero-specification

Niet exact het zelfde kaartje, maar volgens mij klopt het wel.

Of je accepteert de hogere stroom rekening, of ik zou naar een supermicro bordje kijken.
Klinkt als een onderdeel om nader te bekijken. Volgens mij is er nog de 3e optie: ik verwijder de videokaart na de installatie en plaats deze terug in geval van een issue. Ik hoor natuurlijk graag welk moederbord een goed alternatief is. Ook de hdd hoor ik over dat WD RED te prefereren is boven WD BLUE. hoe kijken jullie daar tegenaan?

Edit:
Ik ga het advies van het moederbord opvolgen. Kan geen reviews vinden maar ziet er goed uit. Voor zover ik kan zien betreft dit geen met FreeNAS conflicterende SATA controller. Gelijk even ander RAM geselecteerd.

#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 59,95€ 59,95
1MSI C236M WORKSTATION€ 140,-€ 140,-
3HGST Deskstar NAS, 4TB€ 151,24€ 453,72
3WD Blue WD40EZRZ, 4TB€ 128,95€ 386,85
3WD Red WD40EFRX, 4TB€ 150,95€ 452,85
2Sandisk Cruzer Fit 16GB Zwart€ 6,95€ 13,90
1Noctua NH-L12€ 42,95€ 42,95
2Kingston ValueRAM KVR21E15D8/8€ 42,69€ 85,38
1Corsair RM750x€ 106,95€ 106,95
Bekijk collectie
Importeer producten
Totaal€ 1.742,55


Edit2: het systeem besteld met de WD RED schijven. SPOED vraag nu! Tenminste voor mij voelt het zo. Ik lees net een stuk over RAID5 en RAIDZ1 waarin het als onveilig wordt verklaard. Dat zou betekenen dat ik nog 2 extra hard disks moet aanschaffen(!?). Letterlijk staat er dat het "dood" is sinds 2009. Hoe denken jullie erover?

[ Voor 66% gewijzigd door JForceDesigns op 22-05-2016 08:29 ]


Acties:
  • 0 Henk 'm!

  • Toelly
  • Registratie: Juli 2011
  • Laatst online: 10:07
Dag iedereen,

Ik ben van plan een "kleine" nas in elkaar te steken. Deze zal gebruikt worden voor backups (documenten, foto's, muziek, etc.) en het beschikbaar stellen van media in het thuisnetwerk. Daarnaast zullen er ook wel een paar lichte services bijkomen (bv een torrent client).

Volgende compontenten heb ik geselecteerd:
#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 59,95€ 59,95
2WD Red WD40EFRX, 4TB€ 150,95€ 301,90
1Noctua NF-P14s redux-1500 PWM, 140mm€ 13,95€ 13,95
1Noctua NF-R8 redux 1800 PWM, 80mm€ 9,95€ 9,95
1Kingston ValueRAM KVR21E15D8/8HA€ 42,69€ 42,69
1Seasonic G-series 450 watt€ 72,95€ 72,95
Bekijk collectie
Importeer producten
Totaal€ 501,39


Even een korte toelichting daarbij:
  1. Er zit geen case in de lijst omdat ik die al heb (gerecycleerd van een oude pc).
  2. Het moederbord dat ik zou gebruiken is een supermicro X11SSL-F (ongeveer €215). Die staat niet in bovenstaand lijstje omdat ik hem niet kan vinden in de pricewatch (maar hij is wel te koop via bv azerty.nl en amazon.de). Het bord is misschien wel een beetje overkill voor dit systeem, maar ik heb het gekozen omwille van volgende redenen:
  3. [list]
  4. future-proof: ik vind het moeilijk in te schatten wat mijn eisen voor de nas binnen bv 3 jaar zullen zijn. Zo zijn virualisatie en plex 2 dingen die ik op korte termijn niet ga gebruiken, maar niet uitsluit op lange termijn. In dat geval kan ik simpelweg een xeon in dit systeem steken, zonder dat ik een nieuw moederbord moet kopen.
  5. kwaliteit en betrouwbaarheid zijn natuurlijk belangrijk voor een systeem dat 24/7 draait. Ik wil natuurlijk niet zeggen dat andere fabrikanten niet goed zijn, maar een server bord van supermicro lijkt mij zeker een goede keuze.
  6. IPMI is in principe niet zo belangrijk, maar aangezien de nas zich ergens zal bevinden waar niet direct een scherm e.d. past, is dit wel nice to have.
  7. [/list]
  8. De Seasonic G-450 komt uit de lijst in dit topic. Ik heb de 450Watt variant genomen omdat deze 6 sata-aansluitingen heeft (de 360Watt heeft er maar 4), evenveel als mijn moederbord.
Lijkt dit systeem een beetje ok? Of heb ik al flagrante fouten gemaakt? Zo vroeg ik mij bijvoorbeeld af hoe het zit met de compatibiliteit van deze RAM stick met het moederbord. In de compatibiliteitslijst van supermicro staan maar zeer weinig RAM sticks vermeld. Moet ik mij hier zorgen over maken?

Ten laatste, dit systeem zou draaien op linux + btrfs (de 2 schijven in RAID1). Op welk medium kan ik best mijn OS zetten? Als ik daar bv een aparte SSD voor koop, ben ik er een SATA aansluiting aan kwijt. Ik zie op het internet soms mensen die een usb stick gebruiken, maar ben niet echt overtuigd dat dit het beste is voor prestatie en betrouwbaarheid.

Acties:
  • 0 Henk 'm!
JForceDesigns schreef op donderdag 19 mei 2016 @ 12:36:
[...]


Klinkt als een onderdeel om nader te bekijken. Volgens mij is er nog de 3e optie: ik verwijder de videokaart na de installatie en plaats deze terug in geval van een issue. Ik hoor natuurlijk graag welk moederbord een goed alternatief is. Ook de hdd hoor ik over dat WD RED te prefereren is boven WD BLUE. hoe kijken jullie daar tegenaan?

Edit:
Ik ga het advies van het moederbord opvolgen. Kan geen reviews vinden maar ziet er goed uit. Voor zover ik kan zien betreft dit geen met FreeNAS conflicterende SATA controller. Gelijk even ander RAM geselecteerd.

#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 59,95€ 59,95
1MSI C236M WORKSTATION€ 140,-€ 140,-
3HGST Deskstar NAS, 4TB€ 151,24€ 453,72
3WD Blue WD40EZRZ, 4TB€ 128,95€ 386,85
3WD Red WD40EFRX, 4TB€ 150,95€ 452,85
2Sandisk Cruzer Fit 16GB Zwart€ 6,95€ 13,90
1Noctua NH-L12€ 42,95€ 42,95
2Kingston ValueRAM KVR21E15D8/8€ 42,69€ 85,38
1Corsair RM750x€ 106,95€ 106,95
Bekijk collectie
Importeer producten
Totaal€ 1.742,55


Edit2: het systeem besteld met de WD RED schijven. SPOED vraag nu! Tenminste voor mij voelt het zo. Ik lees net een stuk over RAID5 en RAIDZ1 waarin het als onveilig wordt verklaard. Dat zou betekenen dat ik nog 2 extra hard disks moet aanschaffen(!?). Letterlijk staat er dat het "dood" is sinds 2009. Hoe denken jullie erover?
Als je ZFS gaat gebruiken is het iets minder erg. Het welbekende stuk gaat er over dat de kans dat je een UBER tegenkomt bij een rebuild bij moderne grootte schijven vrij hoog is, waardoor de kans op een gefaalde rebuild hoog is.

Bij ZFS heb je dat probleem een stuk minder omdat een UBER bij ZFS niet zoveel uit maakt, mits je hele OS niet vast loopt omdat de disk te lang over een sector recovery doet. Maar met genoeg geduld, de goede instellingen en een klein beetje gezond verstand kom je er wel :)

Het is niet iets om perse aan de kant te zetten, maar je kan als je zeker wil zijn van je zaak ook overstappen naar RAIDZ2.
Toelly schreef op zondag 22 mei 2016 @ 22:43:
Dag iedereen,

Ik ben van plan een "kleine" nas in elkaar te steken. Deze zal gebruikt worden voor backups (documenten, foto's, muziek, etc.) en het beschikbaar stellen van media in het thuisnetwerk. Daarnaast zullen er ook wel een paar lichte services bijkomen (bv een torrent client).

Volgende compontenten heb ik geselecteerd:
#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 59,95€ 59,95
2WD Red WD40EFRX, 4TB€ 150,95€ 301,90
1Noctua NF-P14s redux-1500 PWM, 140mm€ 13,95€ 13,95
1Noctua NF-R8 redux 1800 PWM, 80mm€ 9,95€ 9,95
1Kingston ValueRAM KVR21E15D8/8HA€ 42,69€ 42,69
1Seasonic G-series 450 watt€ 72,95€ 72,95
Bekijk collectie
Importeer producten
Totaal€ 501,39


Even een korte toelichting daarbij:
  1. Er zit geen case in de lijst omdat ik die al heb (gerecycleerd van een oude pc).
  2. Het moederbord dat ik zou gebruiken is een supermicro X11SSL-F (ongeveer €215). Die staat niet in bovenstaand lijstje omdat ik hem niet kan vinden in de pricewatch (maar hij is wel te koop via bv azerty.nl en amazon.de). Het bord is misschien wel een beetje overkill voor dit systeem, maar ik heb het gekozen omwille van volgende redenen:
  3. [list]
  4. future-proof: ik vind het moeilijk in te schatten wat mijn eisen voor de nas binnen bv 3 jaar zullen zijn. Zo zijn virualisatie en plex 2 dingen die ik op korte termijn niet ga gebruiken, maar niet uitsluit op lange termijn. In dat geval kan ik simpelweg een xeon in dit systeem steken, zonder dat ik een nieuw moederbord moet kopen.
  5. kwaliteit en betrouwbaarheid zijn natuurlijk belangrijk voor een systeem dat 24/7 draait. Ik wil natuurlijk niet zeggen dat andere fabrikanten niet goed zijn, maar een server bord van supermicro lijkt mij zeker een goede keuze.
  6. IPMI is in principe niet zo belangrijk, maar aangezien de nas zich ergens zal bevinden waar niet direct een scherm e.d. past, is dit wel nice to have.
  7. [/list]
  8. De Seasonic G-450 komt uit de lijst in dit topic. Ik heb de 450Watt variant genomen omdat deze 6 sata-aansluitingen heeft (de 360Watt heeft er maar 4), evenveel als mijn moederbord.
Lijkt dit systeem een beetje ok? Of heb ik al flagrante fouten gemaakt? Zo vroeg ik mij bijvoorbeeld af hoe het zit met de compatibiliteit van deze RAM stick met het moederbord. In de compatibiliteitslijst van supermicro staan maar zeer weinig RAM sticks vermeld. Moet ik mij hier zorgen over maken?

Ten laatste, dit systeem zou draaien op linux + btrfs (de 2 schijven in RAID1). Op welk medium kan ik best mijn OS zetten? Als ik daar bv een aparte SSD voor koop, ben ik er een SATA aansluiting aan kwijt. Ik zie op het internet soms mensen die een usb stick gebruiken, maar ben niet echt overtuigd dat dit het beste is voor prestatie en betrouwbaarheid.
Ik vind het eerlijk gezegd best duur voor een simpele NAS waar je alleen wat lichte services mee doet... Dat moederbord kost je ook nog eens 215 euro.

Wat is de reden dat je zo duur spul wil? Alleen maar omdat het je een gevoel van betrouwbaarheid geeft? Natuurlijk moet je dat helemaal zelf weten, maar persoonlijk vind ik het overkill.

Over je OS, je kan FreeNAS gebruiken vanaf een USB stick, maar een losse SSD is ook prima.
Je zegt dat je dan direct een SATA aansluiting kwijt bent, maar dan zeg ik: Nou en? Je hebt er 6, daar zijn die dingen voor :) Je hebt maar 3 devices...

Verder geen bijzonderheden.

Even niets...


Acties:
  • +1 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
JForceDesigns schreef op donderdag 19 mei 2016 @ 12:36:

Edit2: het systeem besteld met de WD RED schijven. SPOED vraag nu! Tenminste voor mij voelt het zo. Ik lees net een stuk over RAID5 en RAIDZ1 waarin het als onveilig wordt verklaard. Dat zou betekenen dat ik nog 2 extra hard disks moet aanschaffen(!?). Letterlijk staat er dat het "dood" is sinds 2009. Hoe denken jullie erover?
Dat artikel is sterk overdreven en als thuis gebruiker zou ik er geen aandacht aan schenken. Er is deze hele hype rond UREs maar disks zijn in de praktijk betrouwbaarder dan de worst-case specificatie.

Als je 3 disks in RAIDZ gaat draaien neem je geen onredelijke risico's. RAID5 is niet dood. Echter, ik zou RAID RAID5 niet met meer dan 5-6 disks draaien want dan wordt de kans gewoon groter dat gedurende een rebuild een 2e disk faalt.

RAID6 is een must bij meer dan 6 disks wat mij betreft, puur omdat de kans op uitval van een 2e disk te groot wordt. Ongeacht of het om een bad sector gaat of dat de hele schijf stopt.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Toelly schreef op zondag 22 mei 2016 @ 22:43:
Dag iedereen,

Ik ben van plan een "kleine" nas in elkaar te steken. Deze zal gebruikt worden voor backups (documenten, foto's, muziek, etc.) en het beschikbaar stellen van media in het thuisnetwerk. Daarnaast zullen er ook wel een paar lichte services bijkomen (bv een torrent client).
Ik zou niet kopen op de toekomst, koop wat je nodig hebt. Tenzij je het leuk vind als hobby om een NAS te bouwen zie ik niet in waarom je niet gewoon een Synology of QNAP koopt. Die kunnen wat jij wilt.

Ga je toch voor zelfbouw: stop er een extra PCIe controllertje in met 2 of meer sata poorten en sluit daar je bootschijven op aan (controller moet boot supporten). Alternatief is booten van USB hard disk of ssd, wat met Linux/BSD igg geen issue is.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Toelly schreef op zondag 22 mei 2016 @ 22:43:

• De Seasonic G-450 komt uit de lijst in dit topic. Ik heb de 450Watt variant genomen omdat deze 6 sata-aansluitingen heeft (de 360Watt heeft er maar 4), evenveel als mijn moederbord.
Neem de Cooler Master V550, duurder maar stuk hoger rendement waardoor je het prijsverschil relatief snel terug verdient.

pricewatch unsorted: Supermicro Server MB Super Micro MBD-X11SSL-F-O (MBD-X11... is trouwens het moederbord.

[ Voor 25% gewijzigd door -The_Mask- op 23-05-2016 09:58 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Luukwa
  • Registratie: Maart 2013
  • Laatst online: 22-09 13:21

Luukwa

o/

Ik ben opzoek naar een stil, laag stroom verbruik nas systeem, waar uiteindelijk esxi op moet gaan draaien voor verschillende services, moet uiteraard ook geschikt zijn voor streaming en backup services.

Budget rond de 350 euro, is hiervoor iets te bestellen? Schijven heb ik allemaal al.

Soundcloud!


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
@Luukwa, wat heb je zelf al uitgezocht? Er is ook een zuinige home server topic.

Acties:
  • 0 Henk 'm!

  • stuffer
  • Registratie: Juli 2009
  • Laatst online: 02-09 15:40

stuffer

Ondertietel

En een zuinig esxi Server topic: http://gathering.tweakers.net/forum/list_messages/1455241/0

Staan genoeg voorbeelden in die gevolgd kunnen worden.

Ik heb die en die hierboven samen met dit topic gebruikt om tot mijn keuze te komen.

Wat zijn naast de prijs je eisen en wensen?

Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***


Acties:
  • 0 Henk 'm!

  • Luukwa
  • Registratie: Maart 2013
  • Laatst online: 22-09 13:21

Luukwa

o/

stuffer schreef op maandag 23 mei 2016 @ 11:13:
En een zuinig esxi Server topic: http://gathering.tweakers.net/forum/list_messages/1455241/0

Staan genoeg voorbeelden in die gevolgd kunnen worden.

Ik heb die en die hierboven samen met dit topic gebruikt om tot mijn keuze te komen.

Wat zijn naast de prijs je eisen en wensen?
Vooral stil, weinig stroom verbruik en goed tegen warmte kunnen.
Verder moet het full-hd kunnen streamen, laten we zeggen minimaal 720p.
En hij moet snel kunnen lezen omdat hij ook gebruik gaat worden voor audio-samples ed.

Soundcloud!


Acties:
  • 0 Henk 'm!
FullHD kunnen stream , zeg minimaal 720p....

Dat is geen FullHD... FullHD is altijd 1080p 8-)

Maar de eisen die je stelt zijn allemaal relatief.


Stil -> Hoe stil, onhoorbaar? of in verhouding tot prestaties?
Weinig stroom verbruik -> 15W voor een Raspberry Pi is veel, maar voor een Dual Xeon met 256GB RAM is het weinig...
Goed tegen warmte -> Ook weer relatief? Wil je hem niet actief koelen? Heb je geen aanvoer van frisse lucht? Komt hij in een kleine ruimte? Staat hij naast een radiator?

Even niets...


Acties:
  • 0 Henk 'm!

  • Luukwa
  • Registratie: Maart 2013
  • Laatst online: 22-09 13:21

Luukwa

o/

FireDrunk schreef op maandag 23 mei 2016 @ 12:42:
FullHD kunnen stream , zeg minimaal 720p....

Dat is geen FullHD... FullHD is altijd 1080p 8-)

Maar de eisen die je stelt zijn allemaal relatief.


Stil -> Hoe stil, onhoorbaar? of in verhouding tot prestaties?
Weinig stroom verbruik -> 15W voor een Raspberry Pi is veel, maar voor een Dual Xeon met 256GB RAM is het weinig...
Goed tegen warmte -> Ook weer relatief? Wil je hem niet actief koelen? Heb je geen aanvoer van frisse lucht? Komt hij in een kleine ruimte? Staat hij naast een radiator?
Sorry, sorry! De PC komt op zolder, daar is het vooral in de zomer maanden erg warm, oplopend tot 30-40 graden, hij zou inprincipe ook op mijn slaapkamer kunnen komen maar daar is het nog erg warm.
Weinig stroom verbruik, dan praten we over weinig, geen idee wat normaal is maar ik wil er geen honderden euros aan uit geven, stil = stil, niet willen horen eigenlijk, vooral als die toch op mijn slaapkamer komt.

Verder maak ik zelf muziek, dan maak je dus gebruik van audio samples die snel gelezen en geschreven moeten worden, alhoewel ik aangeef dat ik zelf hdd's heb, weet ik niet hoeveel impact andere hardware hier op heeft.

Soundcloud!


Acties:
  • 0 Henk 'm!

  • kakanox
  • Registratie: Oktober 2002
  • Laatst online: 21-09 02:17
Luukwa schreef op maandag 23 mei 2016 @ 13:07:
Verder maak ik zelf muziek, dan maak je dus gebruik van audio samples die snel gelezen en geschreven moeten worden, alhoewel ik aangeef dat ik zelf hdd's heb, weet ik niet hoeveel impact andere hardware hier op heeft.
Samples wil je ivm latency gewoon op de pc hebben waar je ze ook bewerkt. Dat je ze als backup op een server bewaart is begrijpelijk, maar ik maak voor iedere track gewoon een mapje met alles dat erbij hoort erin.

Ga toch fietsen.


Acties:
  • 0 Henk 'm!

  • Luukwa
  • Registratie: Maart 2013
  • Laatst online: 22-09 13:21

Luukwa

o/

kakanox schreef op maandag 23 mei 2016 @ 13:22:
[...]
Samples wil je ivm latency gewoon op de pc hebben waar je ze ook bewerkt. Dat je ze als backup op een server bewaart is begrijpelijk, maar ik maak voor iedere track gewoon een mapje met alles dat erbij hoort erin.
Als ik straks op vakantie ga dan wil ik toch wel graag 200/300 gb aan samples/vsts en presets meenemen via een NaS..

Soundcloud!


Acties:
  • 0 Henk 'm!
Sorry hoeft niet hoor :)

Slaapkamer is altijd lastig, want het is een klein beetje afhankelijk van hoe veel geluid je 's nachts kan hebben.

Als het 40 graden wordt, zou ik toch schaalbare koeling kopen, lees: toch wel 2 casefans en een moderne CPU koeler. Tijdens de winter draaien die gewoon op minimale snelheid, maar zomers kan je ze dan misschien een klein beetje horen.

Mijn oplossing zou dan heel simpel zijn, als het *echt* te warm is, en je kan door het lawaai *echt* niet slapen. zet het ding gewoon uit...

Maar koop een goede geisoleerde kast (Fractal ofzo), met 2 Noctua fans, en een goede CPU koeler (Noctua of BeQuiet ofzo), en je hebt er weinig last van.

Qua stroomverbruik, alle redelijk moderne borden doen al sub 25W idle ongeacht welk merk, dus dan zit je al snel aan maar 50 euro per jaar.

Even niets...


Acties:
  • 0 Henk 'm!

  • Toelly
  • Registratie: Juli 2011
  • Laatst online: 10:07
Bedankt allemaal voor de reacties!
Q schreef op maandag 23 mei 2016 @ 08:24:
Ik zou niet kopen op de toekomst, koop wat je nodig hebt. Tenzij je het leuk vind als hobby om een NAS te bouwen zie ik niet in waarom je niet gewoon een Synology of QNAP koopt. Die kunnen wat jij wilt.
Het is ook als hobby projectje bedoeld :)
FireDrunk schreef op maandag 23 mei 2016 @ 07:18:
Ik vind het eerlijk gezegd best duur voor een simpele NAS waar je alleen wat lichte services mee doet... Dat moederbord kost je ook nog eens 215 euro.

Wat is de reden dat je zo duur spul wil? Alleen maar omdat het je een gevoel van betrouwbaarheid geeft? Natuurlijk moet je dat helemaal zelf weten, maar persoonlijk vind ik het overkill.
Tja, het bord is inderdaad nogal overkill. Met bv een Gigabyte GA-X150M-PRO ECC, kan ik al ong. 100 euro uitsparen. Er zit wel maar 1 ethernet poort en geen IPMI op, maar dat is mij wel 100 euro waard.
Maar als je spreekt over "duur" spul, bedoel je daar dan nog iets anders mee dan het moederbord?
FireDrunk schreef op maandag 23 mei 2016 @ 07:18:
Over je OS, je kan FreeNAS gebruiken vanaf een USB stick, maar een losse SSD is ook prima.
Je zegt dat je dan direct een SATA aansluiting kwijt bent, maar dan zeg ik: Nou en? Je hebt er 6, daar zijn die dingen voor :) Je hebt maar 3 devices...
True, 1 sata poort kan er eigenlijk wel af ;)
-The_Mask- schreef op maandag 23 mei 2016 @ 09:54:
Neem de Cooler Master V550, duurder maar stuk hoger rendement waardoor je het prijsverschil relatief snel terug verdient.
Bedankt voor de link naar het mobo! Die voeding ziet er goed uit, maar is 550Watt niet wat aan de hoge kant voor een nas?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Toelly schreef op maandag 23 mei 2016 @ 13:56:
Die voeding ziet er goed uit, maar is 550Watt niet wat aan de hoge kant voor een nas?
Ja, maar er is geen versie van 350W of 450W en de Cooler Master V550 is nu éénmaal de meest zuinige ATX voeding bij lage vermogens die je kunt kopen.

[ Voor 5% gewijzigd door -The_Mask- op 23-05-2016 13:58 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
Wil je perse ECC? Want het is niet verplicht. Uiteraard is het beter, maar ik lees niet echt alsof het systeem voor jou een primaire levensbehoefte is waar bedrijfskritische data op staat? Als dat wel zo is, neem vooral dat systeem :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Toelly
  • Registratie: Juli 2011
  • Laatst online: 10:07
-The_Mask- schreef op maandag 23 mei 2016 @ 13:58:
Ja, maar er is geen versie van 350W of 450W en de Cooler Master V550 is nu éénmaal de meest zuinige ATX voeding bij lage vermogens die je kunt kopen.
Jammer, maar als zijn zuinigheid het prijsverschil van ongeveer 15euro compenseert, is dat niet echt een probleem ;)
FireDrunk schreef op maandag 23 mei 2016 @ 13:59:
Wil je perse ECC? Want het is niet verplicht. Uiteraard is het beter, maar ik lees niet echt alsof het systeem voor jou een primaire levensbehoefte is waar bedrijfskritische data op staat? Als dat wel zo is, neem vooral dat systeem :)
Goh, ik heb een tijd geleden heel forumdiscussies en blogs gelezen over ECC en weet dat het inderdaad nergens een vereiste is. Wat betreft mijn data, die is persoonlijk en dus niet bedrijfskritisch o.i.d. Maar hoe zit het bv met metadata? Als die corrupt kan raken en heel mijn array kan killen (hoe klein de kans ook), zou ik, gezien de relatief beperkte prijsverschillen, toch voor ECC kiezen. Ik ben hier zeker geen expert in, dus als ik er naast zit, kan ik die keuze nog wel eens herbekijken.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Toelly schreef op maandag 23 mei 2016 @ 14:14:
[...]


Jammer, maar als zijn zuinigheid het prijsverschil van ongeveer 15euro compenseert, is dat niet echt een probleem ;)
-The_Mask- in "Het grote zuinige server topic - deel 2"

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
Toelly schreef op maandag 23 mei 2016 @ 14:14:
[...]


Jammer, maar als zijn zuinigheid het prijsverschil van ongeveer 15euro compenseert, is dat niet echt een probleem ;)


[...]


Goh, ik heb een tijd geleden heel forumdiscussies en blogs gelezen over ECC en weet dat het inderdaad nergens een vereiste is. Wat betreft mijn data, die is persoonlijk en dus niet bedrijfskritisch o.i.d. Maar hoe zit het bv met metadata? Als die corrupt kan raken en heel mijn array kan killen (hoe klein de kans ook), zou ik, gezien de relatief beperkte prijsverschillen, toch voor ECC kiezen. Ik ben hier zeker geen expert in, dus als ik er naast zit, kan ik die keuze nog wel eens herbekijken.
Dat is een afweging die je zelf moet maken. Als je rekening wil houden met die relatief kleine (maar niet onmogelijke) kans, zul je inderdaad naar ECC toe moeten. Je kan ook er voor kiezen om de meest kritische data extern te backuppen. Maar dat is geheel aan jezelf.

Als het geld je verder niet uit maakt, heb je een keurig systeempje te pakken.

Even niets...


Acties:
  • 0 Henk 'm!

  • Toelly
  • Registratie: Juli 2011
  • Laatst online: 10:07
Ok, ik ben overtuigd :) ik vraag mij enkel nog af of er een verschil is tussen de volledig modulaire en de semi-modulaire versie (buiten dan de graad van modulariteit :p). Is er een verschil in kwaliteit, of zijn ze onderhuids exact hetzelfde?
FireDrunk schreef op maandag 23 mei 2016 @ 14:25:
Dat is een afweging die je zelf moet maken. Als je rekening wil houden met die relatief kleine (maar niet onmogelijke) kans, zul je inderdaad naar ECC toe moeten. Je kan ook er voor kiezen om de meest kritische data extern te backuppen. Maar dat is geheel aan jezelf.

Als het geld je verder niet uit maakt, heb je een keurig systeempje te pakken.
De meest kritische data wordt sowieso nog extern gebackupt, ECC of niet. Maar er zal ook een boel data op staan waarvan het niet onoverkomelijk, maar wel verschikkelijk irritant zou zijn moest ik die verliezen. Dus daar heb ik wel enkele tientjes extra voor over ;)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Toelly schreef op maandag 23 mei 2016 @ 14:47:
[...]


Ok, ik ben overtuigd :) ik vraag mij enkel nog af of er een verschil is tussen de volledig modulaire en de semi-modulaire versie (buiten dan de graad van modulariteit :p). Is er een verschil in kwaliteit, of zijn ze onderhuids exact hetzelfde?
De fan is veranderd voor de rest is de laatste revisie van de semi-modulaire versie intern hetzelfde. Wel had één van de eerste revisies van de semi-modulaire versie (waarvan er dus meerdere revisies zijn) kwalitatief mindere condensators.

Maar de semi-modulaire versie is dus EOL en nieuw dus niet meer verkrijgbaar.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Toelly
  • Registratie: Juli 2011
  • Laatst online: 10:07
Ah ok, dat had ik niet zo goed begrepen uit die post uit het zuinige server topic. Vandaar dat de prijs zo hoog ligt en er zo weinig winkels zijn die hem aanbieden :)

Ik heb nog even rondgekeken en ben nog een moederbord van asrock tegengekomen, de E3V5 WS. In vergelijking met de Gigabyte GA-X150M-PRO EEC biedt die een extra pci slot, maar verliest een m.2 aansluiting. Op zich zou ik dan eerder het gigabyte bordje kiezen, maar daarvan vind ik nergens terug welke ethernet aansluiting gebruikt wordt, terwijl ik van het asrock bord weet dat die een intel i219lm is. Heeft iemand ervaring met een van beiden borden?

[ Voor 64% gewijzigd door Toelly op 23-05-2016 15:21 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Toelly schreef op maandag 23 mei 2016 @ 14:57:
Ah ok, dat had ik niet zo goed begrepen uit die post uit het zuinige server topic. Vandaar dat de prijs zo hoog ligt en er zo weinig winkels zijn die hem aanbieden :)

Ik heb nog even rondgekeken en ben nog een moederbord van asrock tegengekomen, de E3V5 WS. In vergelijking met de Gigabyte GA-X150M-PRO EEC biedt die een extra pci slot, maar verliest een m.2 aansluiting. Op zich zou ik dan eerder het gigabyte bordje kiezen, maar daarvan vind ik nergens terug welke ethernet aansluiting gebruikt wordt, terwijl ik van het asrock bord weet dat die een intel i219lm is. Heeft iemand ervaring met een van beiden borden?
Bij het gigabyte bordt staat overal Intel, op Tweakers en bij Gigabyte zelf?

Acties:
  • 0 Henk 'm!

  • Toelly
  • Registratie: Juli 2011
  • Laatst online: 10:07
Ja ok, maar niet wat voor intel chip. Niet dat dat echt veel uit maakt natuurlijk :)

Acties:
  • 0 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 19:05

Harrie

NederVlaming

Toelly schreef op maandag 23 mei 2016 @ 16:52:
Ja ok, maar niet wat voor intel chip. Niet dat dat echt veel uit maakt natuurlijk :)
Op de Gigabyte zal waarschijnlijlk ook wel de I219-V of de I219-LM zijn. Die zijn redelijk standaard op het Skylake platform.

Edit: volgens de buren zit er inderdaad de I219-LM op:
http://be.hardware.info/r...ectiviteit-usbnen-netwerk

[ Voor 65% gewijzigd door Harrie op 23-05-2016 18:46 ]


Acties:
  • 0 Henk 'm!

  • Niels.68
  • Registratie: Mei 2010
  • Laatst online: 03-08-2024
Toelly schreef op maandag 23 mei 2016 @ 14:57:

Ik heb nog even rondgekeken en ben nog een moederbord van asrock tegengekomen, de E3V5 WS. In vergelijking met de Gigabyte GA-X150M-PRO EEC biedt die een extra pci slot, maar verliest een m.2 aansluiting.
Beide bordjes hebben geen onboard video aansluiting, niet onoverkomelijk maar wel iets om rekening mee te houden.

Heb je dezehttp://tweakers.net/pricewatch/476476/asus-p10s-i.html al gezien??

Acties:
  • 0 Henk 'm!

  • DuDePrOdUcTiOnS
  • Registratie: Augustus 2001
  • Laatst online: 23-08 16:51
Ik ben van plan binnenkort een NAS te gaan bouwen die mijn huidige Netgear NASje met pensioen kan sturen (of degraderen tot off-site backup). Ik wil hier ZFSGuru op gaan draaien, maar ik weet nog niet zeker hoeveel opslag ik nodig heb. In principe is meer beter in mijn ogen zodat ik er weer zo lang mogelijk mee verder kan, maar het moet allemaal wel binnen budget vallen. Onderstaande config heb ik samengesteld met het idee dat er 6 schijven (RAIDZ2) in passen.

#ProductPrijsSubtotaal
1Intel Celeron G3900 Boxed€ 44,-€ 44,-
1Gigabyte GA-B150M-HD3 DDR3€ 66,-€ 66,-
1Crucial CT2KIT102464BA160B€ 55,93€ 55,93
1Seasonic G-series 360 watt€ 57,95€ 57,95
1Samsung SM951 (NVMe) 128GB€ 82,75€ 82,75
Bekijk collectie
Importeer producten
Totaal€ 306,63


Behuizing heb ik nog en indien nodig heb ik ook nog een Intel NIC liggen. 16GB geheugen moet genoeg zijn voor een flinke ZFS pool, de Seasonic is betrouwbaar en zuinig en de Samsung M.2 SSD heeft een PCIe interface zodat er geen SATA poort opgeofferd hoeft te worden. ZFS is niet nodig voor mijn toepassing denk ik, maar ik vind het een mooi systeem en wil er graag mee bezig gaan. Ondanks mijn minimale kennis van Linux en niet bestaande kennis van BSD. :p

Als ik hier 6x 4TB WD green in RAIDZ2 in stop heb ik voor 1100 - 1200 Euro volgens mij wel een NAS waar ik de komende jaren mee vooruit kan. Foto's en dergelijke wil ik op externe HD's en via Crashplan oid naar een andere NAS backuppen.

Een andere optie is 3x 4TB in RAIDZ1, dan heb ik ruim 2x zoveel opslag als met mijn huidige NAS met ruimte voor uitbreiding.

Welke van deze twee opties ik moet kiezen moet ik met mezelf uitvechten, maar ik ben benieuwd of er mensen zijn die op- of aanmerkingen op deze config hebben.

www.teamgenie.nl
You raise the blade, you make the change
You re-arrange me till I'm sane
You lock the door, and throw away the key
There's someone in my head but it's not me


Acties:
  • 0 Henk 'm!

  • Toelly
  • Registratie: Juli 2011
  • Laatst online: 10:07
Niels.68 schreef op maandag 23 mei 2016 @ 19:25:
Beide bordjes hebben geen onboard video aansluiting, niet onoverkomelijk maar wel iets om rekening mee te houden.

Heb je dezehttp://tweakers.net/pricewatch/476476/asus-p10s-i.html al gezien??
Wauw, daar had ik blijkbaar volledig over gekeken 8)7 Bedankt om dat te melden. Ik ga nog eens rondkijken naar een paar alternatieven (dat asus bord ziet er idd niet slecht uit), maar in principe is dat inderdaad niet zo'n probleem.

Acties:
  • +1 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
DuDePrOdUcTiOnS schreef op maandag 23 mei 2016 @ 21:23:
Ik ben van plan binnenkort een NAS te gaan bouwen die mijn huidige Netgear NASje met pensioen kan sturen (of degraderen tot off-site backup).

ZFS is niet nodig voor mijn toepassing denk ik, maar ik vind het een mooi systeem en wil er graag mee bezig gaan. Ondanks mijn minimale kennis van Linux en niet bestaande kennis van BSD. :p

Als ik hier 6x 4TB WD green in RAIDZ2 in stop heb ik voor 1100 - 1200 Euro volgens mij wel een NAS waar ik de komende jaren mee vooruit kan. Foto's en dergelijke wil ik op externe HD's en via Crashplan oid naar een andere NAS backuppen.
- Wat is nu werkelijk de motivatie om zelfbouw neer te zetten? Hobby? Leuk? Ga je dan ook ZFS en BSD een beetje snappen zodat je weet wat je doet?
- Waarom ZFS als het niet nodig is volgens jezelf en je geen kaas hebt gegeten van Linux/BSD?
- Ga je jezelf redden met deze zelfbouw als dingen niet meer werken?
- Waarom - als je budget 1000+ euro is - investeer je niet in wat betere hardware met ECC als je toch zelfbouw wilt zoals de voorbeelden hierboven?
- Waarom niet gewoon een mooie Synology/QNAP met 4-8 bays?

Acties:
  • 0 Henk 'm!

  • DuDePrOdUcTiOnS
  • Registratie: Augustus 2001
  • Laatst online: 23-08 16:51
- Hobby, ja. Leuk, ook. :) Ik heb me redelijk ingelezen in ZFS en heb het idee dat ik wel enigszins begrijp hoe het werkt. De bedoeling is idd dat ik wel ga snappen wat er onder water allemaal gebeurt, ondanks dat ik begin met een systeem met grafische (web) interface.

- ZFS omdat het kan vooral, en omdat ik ervoor open sta om te leren ermee te werken.

- Ik ben redelijk zelfredzaam met het opzoeken van oplossingen, als ik er echt niet uitkom is er volgens mij een mooi topic over ZFS met de nodige expertise. :)

- Ik heb ook een lijst met hardware voor een build met ECC ondersteuning, maar die is toch aanzienlijk duurder. Het originele budget heb ik op 1000 Euro gezet incl. opslag. Waarbij ik rekening gehouden heb met 700 opslag, 300 systeem en een systeem met ECC is over het algemeen toch wat duurder. Ik heb ook een lijstje met dat ASUS bordje van een paar posts hierboven, maar ik heb geprobeerd een zo goedkoop mogelijk systeem samen te stellen voor het doel. Wel of geen ECC is inderdaad een afweging waar ik zelf ook nog niet helemaal over uit ben.

- Waarom wel? Ik vind zelfbouw leuk en ik heb het idee dat ik er meer voor minder mee krijg.

www.teamgenie.nl
You raise the blade, you make the change
You re-arrange me till I'm sane
You lock the door, and throw away the key
There's someone in my head but it's not me


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Ik denk dat je het vooral moet doen omdat je het leuk vind. Maak je geen illusies dat je meer voor minder krijgt. Zeker niet als je je eigen tijd een bepaalde waarde toekent.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Q schreef op dinsdag 24 mei 2016 @ 10:21:
Zeker niet als je je eigen tijd een bepaalde waarde toekent.
Waar weer tegenover staat dat kennis opdoen ook wat waard is (en best lastig te kwantificeren is).

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Ik denk niet dat dit soort kennis enige waarde heeft buiten de huiselijke kring. Maar dat is prima, als je het maar een leuke hobby vindt.

Acties:
  • 0 Henk 'm!

  • Xenophoben
  • Registratie: Augustus 2007
  • Laatst online: 13:44
Ik ben sinds lange tijd maar weer is gaan spelen met unraid, echter lijkt dit veel stabieler sinds versie 6. Zijn er meer mensen die dit gebruiken ? Ik moet eerlijk zeggen dat ik het eerst echt bagger vond maar nu is het eigenlijk een prima os.

Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 11-09 19:56

MvL

Iemand ervaring met de Inter-tech kasten en specifiek de IPC 4U 4424?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 18:28
MvL schreef op woensdag 01 juni 2016 @ 19:02:
Iemand ervaring met de Inter-tech kasten en specifiek de IPC 4U 4424?
Yes, heb die een tijdje geleden mogen "inwerken" met 20 x 4TB HGST disks.

Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 11-09 19:56

MvL

En een positieve ervaring?

Acties:
  • 0 Henk 'm!

  • revox862
  • Registratie: September 2002
  • Laatst online: 21-09 19:22
Lijkt verdacht veel op de X-Case die ik heb. Alleen een andere backplane. Prima kast.
Afbeeldingslocatie: https://c1.staticflickr.com/1/399/20164738249_66886b1c45_z.jpg

[ Voor 32% gewijzigd door revox862 op 02-06-2016 09:19 ]


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 11-09 19:56

MvL

revox862 schreef op donderdag 02 juni 2016 @ 09:18:
Lijkt verdacht veel op de X-Case die ik heb. Alleen een andere backplane. Prima kast.
[afbeelding]
Is dat de xcase pro 424 met expander?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 18:28
Ja hoor, best een fijn kastje, goede bays, alles wat je wil, maar ik heb de eigenaar van die bak wel het advies gegeven om andere fans te steken, ik vond de koeling van die fans maar wat magertjes, zeker met die HGST-heethoofden

Acties:
  • 0 Henk 'm!

  • revox862
  • Registratie: September 2002
  • Laatst online: 21-09 19:22
MvL schreef op donderdag 02 juni 2016 @ 12:55:
[...]


Is dat de xcase pro 424 met expander?
Niet de Pro, maar wel met expander inderdaad. X-Case RM 424-EX Gen II.

Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 11-09 19:56

MvL

HyperBart schreef op donderdag 02 juni 2016 @ 14:34:
[...]


Ja hoor, best een fijn kastje, goede bays, alles wat je wil, maar ik heb de eigenaar van die bak wel het advies gegeven om andere fans te steken, ik vond de koeling van die fans maar wat magertjes, zeker met die HGST-heethoofden
revox862 schreef op donderdag 02 juni 2016 @ 16:25:
[...]

Niet de Pro, maar wel met expander inderdaad. X-Case RM 424-EX Gen II.
Op het moment twijfel ik wat / waar voor kast ik zal bestellen. Inter-Tech, Xcase, Ri-vier. Als ik bij Ri-vier een kast bestel moet ik tot September wachten aan de andere kant weet ik wat ik heb aan RI-Vier. Xcase heeft op zich ook wel mooie kast wat je via product videos goed kan vergelijken. Inter-Tech ziet er op het eerste gezicht ook wel okay uit. Nadeel van Xcase kast is dan weer dat je met het Pond - Euro verschil zit.

Hoe bevalt jou die expander kast? Welk filesystem gebruik je? Merk je dat nu dat je een expander gebruikt? Hoe is jou bestel ervaring bij Xcase?

Misschien moet ik geduldig zijn en wachten tot September. Dan gewoon bestellen bij Richard...

[ Voor 9% gewijzigd door MvL op 02-06-2016 19:58 . Reden: wie leest dit nu? ]


Acties:
  • 0 Henk 'm!

  • revox862
  • Registratie: September 2002
  • Laatst online: 21-09 19:22
De Pond Euro conversie is niet fijn inderdaad.

De expander bevalt prima. Ik gebruik ZFS op FreeBSD. Niet iedereen is van mening dat dat een goede combinatie is. Ik merk er tot nu toe niets van, maar ik gebruik het systeem ook amper. Ik heb een andere server voor "hot" data.

Geen problemen met het bestellen bij X-Case. Leveren snel en was double boxed.

Acties:
  • 0 Henk 'm!

  • flipkipse
  • Registratie: Mei 2010
  • Laatst online: 17-08 21:59

flipkipse

Google it

Voor mijn http://tweakers.net/produ...logy-diskstation-ds1513+/ ben ik opzoek naar een externe back-up van mijn nas.

De nas draait onder RAID 5, alleen onlangs waren er toch opeens 2 schrijven tegelijk kapot. Sinds dien kriebelt het mij toch wel enorm om een NAS zelf te bouwen die ik op een andere locatie neer zet. Die via het internet (minimaal 50/50 aan beide kanten) dagelijks 's nachts een back-up maakt van de verschillen.

Op de nieuwe locatie zou ik graag wat uitbreiding mogelijkheden (mogelijk een IP-camera) hebben, voor in de toekomst.

Ik zat er naar te kijken om deze Nas Zelf te bouwen. Alleen mijn vraag; moet ik hier aan ZFS en/of ECC voldoen? Of zou dit in dit geval een zware overkill zijn omdat het een back-up van een back-up is?

ECC leek mij zelf handig in het geval data overdracht corrupt is, anders is mogelijk gelijk mijn hele back-up corrupt.

Ik was hier ingehaakt met mijn zoektocht: player-x in "Het grote DIY RAID NAS topic deel 3" alleen daar gingen de meningen nog al over en weer.

[ Voor 8% gewijzigd door flipkipse op 07-06-2016 08:26 ]

Certified Google Teacher.


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Zelf een 2e server neerzetten vind ik zelf thuis in de meeste gevallen een beetje overkill. Neem gewoon een cloud backup abonnement voor je kritische data.

Also, double drive failure is niet ongebruikelijk, daarom bestaat RAID6.

ZFS leuk maar thuis niet noodzakelijk. Het is wat je zelf wilt en wat je doel is. Als je gewoon een excuus zoekt om lekker te hobbyen, prima.

ZFS hoef je ook niet met ECC geheugen te draaien, het werkt prima zonder. Het druist alleen erg in tegen de reden waarom je uberhaupt moeite doet om ZFS te draaien.

Dus als je toch iets neerzet zonder ECC geheugen omdat je de meerprijs niet aanstaat, dan maakt het niet uit wat voor RAID/Filesystem keuze je maakt. Prima als je voor ZFS gaat, prima als je hardware RAID met Windows of Linux + MDADM gebruikt.

[ Voor 58% gewijzigd door Q op 07-06-2016 11:22 ]


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 18:28
MvL schreef op donderdag 02 juni 2016 @ 18:00:
[...]


[...]


Op het moment twijfel ik wat / waar voor kast ik zal bestellen. Inter-Tech, Xcase, Ri-vier. Als ik bij Ri-vier een kast bestel moet ik tot September wachten aan de andere kant weet ik wat ik heb aan RI-Vier. Xcase heeft op zich ook wel mooie kast wat je via product videos goed kan vergelijken. Inter-Tech ziet er op het eerste gezicht ook wel okay uit. Nadeel van Xcase kast is dan weer dat je met het Pond - Euro verschil zit.

Hoe bevalt jou die expander kast? Welk filesystem gebruik je? Merk je dat nu dat je een expander gebruikt? Hoe is jou bestel ervaring bij Xcase?

Misschien moet ik geduldig zijn en wachten tot September. Dan gewoon bestellen bij Richard...
Als je nog maar tot in september zou moeten wachten dan zou ik het wel weten, RI-VIER all the way...

Acties:
  • 0 Henk 'm!

  • flipkipse
  • Registratie: Mei 2010
  • Laatst online: 17-08 21:59

flipkipse

Google it

Q schreef op dinsdag 07 juni 2016 @ 10:11:
Zelf een 2e server neerzetten vind ik zelf thuis in de meeste gevallen een beetje overkill. Neem gewoon een cloud backup abonnement voor je kritische data.
Het is hoofdzakelijk data die ik niet in de cloud wil hebben staan
Q schreef op dinsdag 07 juni 2016 @ 10:11:
ZFS leuk maar thuis niet noodzakelijk. Het is wat je zelf wilt en wat je doel is. Als je gewoon een excuus zoekt om lekker te hobbyen, prima.

ZFS hoef je ook niet met ECC geheugen te draaien, het werkt prima zonder. Het druist alleen erg in tegen de reden waarom je uberhaupt moeite doet om ZFS te draaien.
Het is in principe ook niet voor thuis, de externe locatie is juist thuis. Dus het gaat om data met zakelijk veel waarde.

Het ECC wou ik juist toepassen zo dat mijn back-up file niet corrupt raakt. Want dat lijkt mij erg zonde. De kans als je via internet een back-up file van je back-up maakt, dat deze corrupt raakt is natuurlijk groter.
Q schreef op dinsdag 07 juni 2016 @ 10:11:
Dus als je toch iets neerzet zonder ECC geheugen omdat je de meerprijs niet aanstaat, dan maakt het niet uit wat voor RAID/Filesystem keuze je maakt. Prima als je voor ZFS gaat, prima als je hardware RAID met Windows of Linux + MDADM gebruikt.
Het is meer; geld uit geven om het geld uitgeven hoeft niet. Daarom is mijn vraag; voorkomt ZFS/ECC een corrupte back-up file? Of is de kans op een corrupte back-up file wel zo minimaal, dat dit nagenoeg nooit voorkomt?

Certified Google Teacher.


Acties:
  • 0 Henk 'm!
Daarom is mijn vraag; voorkomt ZFS/ECC een corrupte back-up file? Of is de kans op een corrupte back-up file wel zo minimaal, dat dit nagenoeg nooit voorkomt?
Dat is koffiedik kijken. In sommige omstandigheden zal ZFS je niet helpen, in andere wel.
Als je full stack je best doet draagt ZFS zijn steentje bij aan het geheel.

Denk aan:

Fatsoenlijke UPS
Fatsoenlijke (redundantene) voeding(en)
Server grade hardware
ECC geheugen
Enterprise grade harde schijven (SAS Schijven, en SAS Controllers van een behoorlijk merk, SAS Expanders van goede kwaliteit, met goede debugging mogelijkheden).
Enterprise grade Behuizingen (minder elektrostatisch gevaar etc).

ZFS/ECC is niet de heilige graal, en dat zal het ook nooit worden.

Het is een radertje in een geheel. De keuze is, of je een houten, stenen, ijzeren, stalen, of een titanium wil.
Maar het radertje maakt niet de machine.

Even niets...


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 11-09 19:56

MvL

HyperBart schreef op dinsdag 07 juni 2016 @ 11:23:
[...]


Als je nog maar tot in september zou moeten wachten dan zou ik het wel weten, RI-VIER all the way...
En wat is jou motivatie hierachter?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 18:28
MvL schreef op dinsdag 07 juni 2016 @ 12:45:
[...]


En wat is jou motivatie hierachter?
Op basis van reviewservaringen op GoT, afaik is die XCASE van dezelfde fabrikant als Norco of lijken de onderdelen zeer sterk overeen te komen, die laatste heeft imho een twijfelachtige reputatie, zeker met backplanes die disks aan de lopende band fryen. Toen ben ik wat afgehaakt. In een van de posts bij het 20TB+ topic kwam ook naar voor dat de gebruikte elektronica bij RIVIER ook van betere kwaliteit is/was (dacht ik he, schiet me niet af :> )

De kwaliteit van de kast an sich is prima, maar de elektronica laat ik liever aan RIVIER over. Neemt niet weg dat RIVIER zo lang op zich liet wachten dat we bij martinos ook voor XCASE zijn gegaan.

[ Voor 9% gewijzigd door HyperBart op 07-06-2016 13:57 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
flipkipse schreef op dinsdag 07 juni 2016 @ 11:35:
[...]


Het is hoofdzakelijk data die ik niet in de cloud wil hebben staan


[...]


Het is in principe ook niet voor thuis, de externe locatie is juist thuis. Dus het gaat om data met zakelijk veel waarde.

Het ECC wou ik juist toepassen zo dat mijn back-up file niet corrupt raakt. Want dat lijkt mij erg zonde. De kans als je via internet een back-up file van je back-up maakt, dat deze corrupt raakt is natuurlijk groter.


[...]


Het is meer; geld uit geven om het geld uitgeven hoeft niet. Daarom is mijn vraag; voorkomt ZFS/ECC een corrupte back-up file? Of is de kans op een corrupte back-up file wel zo minimaal, dat dit nagenoeg nooit voorkomt?
Ik ben even van mijn apropos want dit is een consumenten forumpje.

Voor zakelijk denk ik dat jouw drang om de cloud te vermijden en zelf wat te gaan lopen 'beunhazen' een groter bedrijfsrisico met zich mee brengt dan dat je denkt te voorkomen.

Bovendien, met een partij als Backblaze kun je extra encryptie toepassen zodat zelfs een hack op backblaze voor jou geen risico is. Dat is wat ik zelf doe met prive data.

Als zakelijke gebruiker zou ik zeggen gooi dan gewoon je NAS met wat disks in RAID6 en doe dat ook voor een identieke Synology/QNAP ergens anders en laat die dingen syncen met een backup history van voldoende ver terug.
Zorg ook voor alerting als de backup faalt. Zorg voor een UPS en cofigureer autoshutdown. Het hele lijstje van Firedrunk. Dan snap je hoeveel ellende cloud wegneemt.

[ Voor 4% gewijzigd door Q op 07-06-2016 17:05 ]


Acties:
  • 0 Henk 'm!

  • flipkipse
  • Registratie: Mei 2010
  • Laatst online: 17-08 21:59

flipkipse

Google it

Q schreef op dinsdag 07 juni 2016 @ 16:59:
[...]

Ik ben even van mijn apropos want dit is een consumenten forumpje.
Ik denk dat er naast mij, vele andere tweakers zzp-er/freelancer/semi-professional zijn en gewoon hun projecten veilig willen hebben staan.
Q schreef op dinsdag 07 juni 2016 @ 16:59:
Voor zakelijk denk ik dat jouw drang om de cloud te vermijden en zelf wat te gaan lopen 'beunhazen' een groter bedrijfsrisico met zich mee brengt dan dat je denkt te voorkomen.
We praten niet over zulke zaken. Meer over; digitaliseren van foto's / videos van enkele mensen. Dat zijn prive gegevens die ik liever niet in de cloud zet, maar het geeft mij een fijn gevoel dat ik ze minimaal op een backup voor ze heb staan.

Mocht er dan toch iets mis gaan, heb ik ze altijd nog.

Certified Google Teacher.


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
flipkipse schreef op dinsdag 07 juni 2016 @ 19:18:
[...]


Ik denk dat er naast mij, vele andere tweakers zzp-er/freelancer/semi-professional zijn en gewoon hun projecten veilig willen hebben staan.
Dat is redelijk en die wens wordt toch niet in twijfel getrokken?

Hoeveel van hen zal zonder overleg met klanten gewoon hun zooi in Crashplan of Backblaze zetten?
We praten niet over zulke zaken. Meer over; digitaliseren van foto's / videos van enkele mensen. Dat zijn prive gegevens die ik liever niet in de cloud zet, maar het geeft mij een fijn gevoel dat ik ze minimaal op een backup voor ze heb staan.

Mocht er dan toch iets mis gaan, heb ik ze altijd nog.
Als je geen duidelijke context geeft dan kunnen mensen je nooit van dienst zijn.

Zoals ik het nu lees heb je gewoon vette pech gehad dat je RAID5 draaide en is je NAS op basis van RAID6 draaien veiligheid zat.

ZFS en zelfbouw is juist business wise meer werk, meer gedonder en is dat die data waard, heb je die plicht? Of wil je stiekem lekker hobbyen?

In het gekste geval kun je deze paar mensen even vragen wat ze willen (cloud met encryptie ok of niet), misschien willen ze zelfs helemaal niet dat je hun data bewaard. :P

Volgens mij - zoals ik het nu lees - verwachten de mensen niet eens dat jij die data bewaard en heb jij die plicht niet.

[ Voor 8% gewijzigd door Q op 07-06-2016 20:31 ]


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 11-09 19:56

MvL

HyperBart schreef op dinsdag 07 juni 2016 @ 13:46:
[...]

Op basis van reviewservaringen op GoT, afaik is die XCASE van dezelfde fabrikant als Norco of lijken de onderdelen zeer sterk overeen te komen, die laatste heeft imho een twijfelachtige reputatie, zeker met backplanes die disks aan de lopende band fryen. Toen ben ik wat afgehaakt. In een van de posts bij het 20TB+ topic kwam ook naar voor dat de gebruikte elektronica bij RIVIER ook van betere kwaliteit is/was (dacht ik he, schiet me niet af :> )

De kwaliteit van de kast an sich is prima, maar de elektronica laat ik liever aan RIVIER over. Neemt niet weg dat RIVIER zo lang op zich liet wachten dat we bij martinos ook voor XCASE zijn gegaan.
Bedankt voor je uitleg.

Ik heb inmiddels ook wat gezocht en idd de Xcase, Inter-Tech kasten lijken veel op die van Norco.

Ik heb bij Rivier ook al eens een 5 voudige hotswap module defect gehad maar het is uitstekend opgelost door Rivier. Dat is dan wel weer een voordeel als je in Nederland besteld dat het vrij snel afgehandeld kan worden.

Ik ben benieuwd wat voor backplanes we in de aankomende kasten van Rivier mogen verwachten.

[ Voor 0% gewijzigd door MvL op 07-06-2016 20:33 . Reden: foutje ]


Acties:
  • 0 Henk 'm!

  • flipkipse
  • Registratie: Mei 2010
  • Laatst online: 17-08 21:59

flipkipse

Google it

Q schreef op dinsdag 07 juni 2016 @ 20:28:
[...]


Dat is redelijk en die wens wordt toch niet in twijfel getrokken?

Hoeveel van hen zal zonder overleg met klanten gewoon hun zooi in Crashplan of Backblaze zetten?


[...]


Als je geen duidelijke context geeft dan kunnen mensen je nooit van dienst zijn.

Zoals ik het nu lees heb je gewoon vette pech gehad dat je RAID5 draaide en is je NAS op basis van RAID6 draaien veiligheid zat.

ZFS en zelfbouw is juist business wise meer werk, meer gedonder en is dat die data waard, heb je die plicht? Of wil je stiekem lekker hobbyen?

In het gekste geval kun je deze paar mensen even vragen wat ze willen (cloud met encryptie ok of niet), misschien willen ze zelfs helemaal niet dat je hun data bewaard. :P

Volgens mij - zoals ik het nu lees - verwachten de mensen niet eens dat jij die data bewaard en heb jij die plicht niet.
Had misschien nog duidelijker moeten zijn :)

De mensen weten het en vinden het een fijn idee dat ze zelf een 3de backup hebben.

Uiteindelijk heb ik de HDD laten repareren en was toen gelukkig niks kwijt. Nu staat inderdaad alles in een nog hogere raid.

Het heeft mij vooral laten zien hoe kwetsbaar de bestanden zijn. Dat wil ik nu dus met een 3de backup van mijn backup ontlasten, zo dat ik meer vertrouwen krijgen.

Mijn grootste vraag is nu vooral; is ecc noodzakelijk bij een offside backup? Om storingen in het dataverkeer op te lossen?

Certified Google Teacher.


Acties:
  • 0 Henk 'm!

  • DuDePrOdUcTiOnS
  • Registratie: Augustus 2001
  • Laatst online: 23-08 16:51
Storingen in dataverkeer los je niet op met ECC, dat is alleen om corruptie van het geheugen zelf af te vangen.

www.teamgenie.nl
You raise the blade, you make the change
You re-arrange me till I'm sane
You lock the door, and throw away the key
There's someone in my head but it's not me


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
flipkipse schreef op dinsdag 07 juni 2016 @ 22:11:

Mijn grootste vraag is nu vooral; is ecc noodzakelijk bij een offside backup? Om storingen in het dataverkeer op te lossen?
Je hebt blijkbaar je hoofd en zinnen al lang gezet op zelfbouw, dus je wilt zelf prutsen. Moet je zelf weten, ik steun je er niet in, anderen misschien wel.

Je Diskstation doet niet eens ECC dus wat je verder doet moet jij weten. Keten integriteit kun je vergeten.

Binnen jouw context is een 2e Diskstation de meest zinnige oplossing. Compleet met ingebouwde sync enzo, volgens mij. Als je dat niet wilt horen, prima. :)

P.S.

Data in de cloud staat op servers met ECC geheugen. :>

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 12:24
Q schreef op dinsdag 07 juni 2016 @ 16:59:
Ik ben even van mijn apropos want dit is een consumenten forumpje.

Voor zakelijk denk ik dat jouw drang om de cloud te vermijden en zelf wat te gaan lopen 'beunhazen' een groter bedrijfsrisico met zich mee brengt dan dat je denkt te voorkomen.
Niet overdrijven zeg, hij zal vast een klein bedrijfje hebben, en als ZZPer of met maar een paar man, en hij heeft nu gewoon (nog) niet het geld voor een pro opstelling.

Daarnaast hoeft een goed gebouwde DIY NAS qua hardware niet onder te doen aan een dure pro oplossing, maar uiteraard wel zonder die pro ondersteuning.
Bovendien, met een partij als Backblaze kun je extra encryptie toepassen zodat zelfs een hack op backblaze voor jou geen risico is. Dat is wat ik zelf doe met prive data.
Zeker een veilige oplossing, welke ik ook zou kiezen als het binnen het budget past.
Als zakelijke gebruiker zou ik zeggen gooi dan gewoon je NAS met wat disks in RAID6 en doe dat ook voor een identieke Synology/QNAP ergens anders en laat die dingen syncen met een backup history van voldoende ver terug.
Nee, ik zou geen oude ext4 of NTFS met raid6 willen gebruiken, over ZFS, de risico's van silent corruption is me gewoon veel te groot.
Het hele lijstje van Firedrunk. Dan snap je hoeveel ellende cloud wegneemt.
Dat lijstje van Firedrunk is wel heel behoorlijk overdreven op zeer veel punten.
Fatsoenlijke UPS
Hoewel altijd aan te raden, is het Nederlandse net behoorlijk betrouwbaar, en het moet wel heel toevallig zijn dat je tijdens een back-up daar problemen van krijgt, daarnaast zelfs als er wat gebeurd tijdens een back-up, dan wil dat zeker nog niet zeggen dat je je data kwijt bent.
Maar voor 7 tientjes ben je helemaal veilig: pricewatch: APC Back-UPS 700VA (BX700UI)
Fatsoenlijke (redundantene) voeding(en)
Gewoon een goede voeding is voldoende!
Server grade hardware
pricewatch: Gigabyte GA-X150M-PRO ECC < zonder video
pricewatch: MSI C236M WORKSTATION< met video
Geen server grade, maar een 'Work Station' bord is zeker voldoende voor een backup server van een klein bedrijfje!
ECC geheugen
Zeker aan te bevelen, voor bedrijfssystemen, ook een klein bedrijfje, en zoveel duurder is ECC niet meer met de nieuwe bordjes, zoals hier boven.
Enterprise grade harde schijven (SAS Schijven, en SAS Controllers van een behoorlijk merk, SAS Expanders van goede kwaliteit, met goede debugging mogelijkheden).
Pure onzin, juist omdat hij ZFS wil draaien heeft hij dat niet meer nodig, waarom denk je dat Backblaze gewone HDDs gebruikt, uiteraard is RAIDZ2 wel zeer dringend aan te bevelen, of beter nog RAIDZ3, en afhankelijk hoe kritiek je data is, kan je er ook nog hot-spare(s) bij zetten.
Enterprise grade Behuizingen (minder elektrostatisch gevaar etc).
Als een server of PC eenmaal gebouwd is, is er nog maar verwaarloosbaar elektrostatisch gevaar.

Wel zou ik een kast zoeken waar je makkelijker de HDDs in kan vervangen, en bij de kabels kan, dat verhoogt de betrouwbaarheid ook zeker.
Als hij nog leverbaar is, is deze kast een prima keuze voor meerdere HDDs.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!
player-x schreef op woensdag 08 juni 2016 @ 04:33:
[...]

Niet overdrijven zeg, hij zal vast een klein bedrijfje hebben, en als ZZPer of met maar een paar man, en hij heeft nu gewoon (nog) niet het geld voor een pro opstelling.

Daarnaast hoeft een goed gebouwde DIY NAS qua hardware niet onder te doen aan een dure pro oplossing, maar uiteraard wel zonder die pro ondersteuning.


[...]

Zeker een veilige oplossing, welke ik ook zou kiezen als het binnen het budget past.


[...]

Nee, ik zou geen oude ext4 of NTFS met raid6 willen gebruiken, over ZFS, de risico's van silent corruption is me gewoon veel te groot.


[...]

Dat lijstje van Firedrunk is wel heel behoorlijk overdreven op zeer veel punten.
Je hebt duidelijk een bepaalde mindset, en je zet *jouw* maatstaven in als de waarheid, dat moet je absoluut niet doen.
[...]

Hoewel altijd aan te raden, is het Nederlandse net behoorlijk betrouwbaar, en het moet wel heel toevallig zijn dat je tijdens een back-up daar problemen van krijgt, daarnaast zelfs als er wat gebeurd tijdens een back-up, dan wil dat zeker nog niet zeggen dat je je data kwijt bent.
Maar voor 7 tientjes ben je helemaal veilig: pricewatch: APC Back-UPS 700VA (BX700UI)
Hier ga je dus gelijk weer voorbij aan waarom ik een UPS zou willen. Een UPS neem ik voor het risico dat *ik* iets verkloot met mijn stroomvoorziening... Een stoppenkast die er uit slaat omdat je de stofzuiger, de wasmachine en de boiler gelijk aan zet :), of omdat die ene stekkerdoos die je twee wandcontactdozen verder inprikt, toch net iets stoffiger was dan je had gehoopt, waardoor je een mooie vonk trekt met het inprikken van een apparaat. *poef* weg stroom.
Heeft niets met "het net" te maken.
[...]

Gewoon een goede voeding is voldoende!
Dat is weer *jouw* mening, er zijn echt genoeg use cases waar een redundante voeding handig is.
Wat dacht je bij het verwisselen van je UPS batterij? Hoe ga je met een enkele voeding de uptime van je systeem garanderen? Met een redundante voeding kan je 1 op het net zetten, en 1 op de UPS, en kan je de batterij van je UPS "online" vervangen. (om maar een use-case te noemen).
[...]

pricewatch: Gigabyte GA-X150M-PRO ECC < zonder video
pricewatch: MSI C236M WORKSTATION< met video
Geen server grade, maar een 'Work Station' bord is zeker voldoende voor een backup server van een klein bedrijfje!
Ook dat is compleet subjectief. Wat nou als hij octrooi data, (jouw) financiele gegevens bezit? Misschien gaat het wel over medicijnen van kankerpatienten? Wil je dan ook dat het op een Gigabyte bordje staat?

Server grade betekend niet alleen server grade HARDware, maar ook servergrade FIRMware. Supermicro, HP, en Dell hebben toch echt een stuk betere drivers en firmware testing labs dan Gigabyte en Asus (voor de consumer lijn, want beide hebben ook een server lijn.) Je wil niet weten hoe vaak ik in een groot datacenter servers heb zien falen op firmware en/of bios problemen. Vaker dan je dat thuis ziet.
[...]

Zeker aan te bevelen, voor bedrijfssystemen, ook een klein bedrijfje, en zoveel duurder is ECC niet meer met de nieuwe bordjes, zoals hier boven.


[...]

Pure onzin, juist omdat hij ZFS wil draaien heeft hij dat niet meer nodig, waarom denk je dat Backblaze gewone HDDs gebruikt, uiteraard is RAIDZ2 wel zeer dringend aan te bevelen, of beter nog RAIDZ3, en afhankelijk hoe kritiek je data is, kan je er ook nog hot-spare(s) bij zetten.
ZFS *helpt* bij het wegnemen van risico's. SAS schijven doen dat ook. Ik heb echt veel talks gezien/gehoord (via mijn werk, maar ook via internet) over ZFS, en ik hoor het echt regelmatig: SAS schijven zijn beter. Vanwege command management, vanwege queuing, vanwege meer ECC in de sectoren etc, etc.

BlackBlaze neemt geen HDD's omdat ze beter zijn, maar uit een KOSTEN overweging... Het is goed "genoeg" voor hun. Dat is heel wat anders dan dat iets per definitie een goede keuze is.

Een Ford Ka kan voor veel mensen een prima auto zijn, maar dat wil niet zeggen dat hij automatisch net zo veilig is als een Volvo V70.
[...]

Als een server of PC eenmaal gebouwd is, is er nog maar verwaarloosbaar elektrostatisch gevaar.
Want je bent zelf nooit elektrostatisch geladen? 8)7
Wel zou ik een kast zoeken waar je makkelijker de HDDs in kan vervangen, en bij de kabels kan, dat verhoogt de betrouwbaarheid ook zeker.
Als hij nog leverbaar is, is deze kast een prima keuze voor meerdere HDDs.
Hoewel je op veel punten echt wel in de goede richting zit, moet je oppassen om niet de keuze voor iemand te maken. Wij weten allemaal welke dingen je aan moet denken, en niemand in dit topic heeft de intentie om foutieve informatie te verspreiden.

Wat we alleen niet moeten doen, is keuzes aan iemand voorleggen alsof iets de enige waarheid is.

Alles in IT is relatief. Het kan altijd beter, duurder, stabieler, sneller, goedkoper, interessanter, complexer en noem maar op. Het is aan de koper/gebruiker om een afweging te maken.

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
player-x schreef op woensdag 08 juni 2016 @ 04:33:
[...]

Niet overdrijven zeg, hij zal vast een klein bedrijfje hebben, en als ZZPer of met maar een paar man, en hij heeft nu gewoon (nog) niet het geld voor een pro opstelling.

Daarnaast hoeft een goed gebouwde DIY NAS qua hardware niet onder te doen aan een dure pro oplossing, maar uiteraard wel zonder die pro ondersteuning.
Het concept deugt niet wat mij betreft. Als ZZP-er stop je tijd in je bedrijf, zo min mogelijk in bijzaken als IT en ga je zelf niet beunhazen.

Als je de tijd besteed aan het beunhazen gewoon besteed aan omzet maken, kun je gewoon 10 jaar backblaze of een knappe kant-en-klare nas/server kopen.
Nee, ik zou geen oude ext4 of NTFS met raid6 willen gebruiken, over ZFS, de risico's van silent corruption is me gewoon veel te groot.
In het reguliere bedrijfsleven wordt ZFS vrijwel niet gebruikt. Mensen kopen gewoon servers van HP, Dell of Supermicro.

De frequentie van silent data corruption is zeer laag. Verwar silent data corruptie niet met Unrecoverable Read Errors.

http://louwrentius.com/should-i-use-zfs-for-my-home-nas.html

[ Voor 7% gewijzigd door Q op 08-06-2016 08:11 ]


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 14-09 19:36
Q schreef op woensdag 08 juni 2016 @ 08:09:

In het reguliere bedrijfsleven wordt ZFS vrijwel niet gebruikt. Mensen kopen gewoon servers van HP, Dell of Supermicro.
Wat is dit nou weer voor anekdotisch bewijs. Dat jij het niet hebt gezien betekent niet dat er geen bedrijven zijn die het niet gebruiken. Er zijn ook nog hele storage systemen van Oracle die allemaal ZFS draaien.
Daarnaast heeft het hardware merk weinig met de software te maken. :+

TransIP bv draait alles op ZFS (volgens hun website)

:O

[ Voor 6% gewijzigd door matty___ op 08-06-2016 08:39 ]


Acties:
  • 0 Henk 'm!

  • flipkipse
  • Registratie: Mei 2010
  • Laatst online: 17-08 21:59

flipkipse

Google it

Q schreef op woensdag 08 juni 2016 @ 08:09:
[...]


Het concept deugt niet wat mij betreft. Als ZZP-er stop je tijd in je bedrijf, zo min mogelijk in bijzaken als IT en ga je zelf niet beunhazen.

Als je de tijd besteed aan het beunhazen gewoon besteed aan omzet maken, kun je gewoon 10 jaar backblaze of een knappe kant-en-klare nas/server kopen.

[...]
Dit is zeker niet altijd waar, als ZZP-er besteed je ook tijd aan hobby's. En een weekend prutsen geeft soms wel even ontspanning :)

Natuurlijk wil ik niet continu bezig zijn met de server. Maar als ik eenmaal een eigen Nas in Sync heb draaien, dan draait die toch ook en hoef ik er niet dagelijks naar om te kijken ?

Ik heb de keus voor Zelfbouw zeker nog niet gemaakt, alleen ik overweeg hem wel.

Het lijstje wat ik inmiddels heb samengesteld:

#ProductPrijsSubtotaal
1Intel Pentium G4400T Tray€ 69,90€ 69,90
1MSI C236M WORKSTATION€ 140,02€ 140,02
1Crucial CT8G4WFD8213€ 43,35€ 43,35
1Seasonic G-series 360 watt€ 56,95€ 56,95
Bekijk collectie
Importeer producten
Totaal€ 310,22

Certified Google Teacher.


Acties:
  • 0 Henk 'm!

  • revox862
  • Registratie: September 2002
  • Laatst online: 21-09 19:22
HyperBart schreef op dinsdag 07 juni 2016 @ 13:46:
[...]

Op basis van reviewservaringen op GoT, afaik is die XCASE van dezelfde fabrikant als Norco of lijken de onderdelen zeer sterk overeen te komen, die laatste heeft imho een twijfelachtige reputatie, zeker met backplanes die disks aan de lopende band fryen. Toen ben ik wat afgehaakt. In een van de posts bij het 20TB+ topic kwam ook naar voor dat de gebruikte elektronica bij RIVIER ook van betere kwaliteit is/was (dacht ik he, schiet me niet af :> )

De kwaliteit van de kast an sich is prima, maar de elektronica laat ik liever aan RIVIER over. Neemt niet weg dat RIVIER zo lang op zich liet wachten dat we bij martinos ook voor XCASE zijn gegaan.
De expander backplane in mijn X-Case is van veel betere kwaliteit dan de backplanes van Norco.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
matty___ schreef op woensdag 08 juni 2016 @ 08:36:
[...]

Wat is dit nou weer voor anekdotisch bewijs. Dat jij het niet hebt gezien betekent niet dat er geen bedrijven zijn die het niet gebruiken. Er zijn ook nog hele storage systemen van Oracle die allemaal ZFS draaien.
Daarnaast heeft het hardware merk weinig met de software te maken. :+

TransIP bv draait alles op ZFS (volgens hun website)

:O
Wat is dit nou weer voor anekdotisch bewijs. _/-\o_

99% van de bedrijven gebruikt geen ZFS.

Ik schreef *vrijwel niet gebruikt* en dat is juist. Een TransIP verandert er niets aan.

@flipkipse

Is een HP Microserver niet leuk of moet je meer dan 4 disks kwijt? Is goedkoper. Verder niets te melden over je lijst met hardware.

[ Voor 22% gewijzigd door Q op 08-06-2016 14:33 ]


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 12:24
FireDrunk schreef op woensdag 08 juni 2016 @ 07:49:
Je hebt duidelijk een bepaalde mindset, en je zet *jouw* maatstaven in als de waarheid, dat moet je absoluut niet doen.
Nee hoor dat zijn niet mijn maatstaven, zijn hele post ademde uit dat het niet om zwaar bedrijfskritieken data ging, maar meer gewoon een extra backup die hij gewoon boven gemiddeld veilig wou hebben, iets dat hij ook verderop beaamde.

Vond Q zijn post gewoon een beetje over de top.
Hier ga je dus gelijk weer voorbij aan waarom ik een UPS zou willen.
Ik zij zelf ook dat een UPS zeker aan te bevelen was, en de kosten daar voor zijn ook niet zo extreem dat het niet hoeft te laten.

Alleen zij ik dat de kans klein is dat je hem echt nodig hebt om data verlies te verkomen, of iemand het risico neemt om 70 euro te besparen is aan hem zelf, hoe belangrijk hij zijn data vind.
Dat is weer *jouw* mening, er zijn echt genoeg use cases waar een redundante voeding handig is.
Wat dacht je bij het verwisselen van je UPS batterij? Hoe ga je met een enkele voeding de uptime van je systeem garanderen? Met een redundante voeding kan je 1 op het net zetten, en 1 op de UPS, en kan je de batterij van je UPS "online" vervangen. (om maar een use-case te noemen).
Een backup server kan gemakkelijk even uit staan om een accu te vervangen, het is namelijk niet een systeem dat echt 100% uptime nodig heeft.
Ook dat is compleet subjectief. Wat nou als hij octrooi data, (jouw) financiele gegevens bezit? Misschien gaat het wel over medicijnen van kankerpatienten? Wil je dan ook dat het op een Gigabyte bordje staat?
Als je daar mee bezig bent ga je niet met DIY spul lopen te klooien, nu maak jij zelf aan namens die wel heel erg ver gaan.
Server grade betekend niet alleen server grade HARDware, maar ook servergrade FIRMware. Supermicro, HP, en Dell hebben toch echt een stuk betere drivers en firmware testing labs dan Gigabyte en Asus (voor de consumer lijn, want beide hebben ook een server lijn.) Je wil niet weten hoe vaak ik in een groot datacenter servers heb zien falen op firmware en/of bios problemen. Vaker dan je dat thuis ziet.
Ja een WS bordje van ASUS of Gigabyte is geen Supermicro, HP of Dell kwaliteit, maar daar durf ik best wel een simpele backup/fileserver op te draaien, zolang het maar niet essentiële/kritisch gegevens zijn.
ZFS *helpt* bij het wegnemen van risico's. SAS schijven doen dat ook. Ik heb echt veel talks gezien/gehoord (via mijn werk, maar ook via internet) over ZFS, en ik hoor het echt regelmatig: SAS schijven zijn beter. Vanwege command management, vanwege queuing, vanwege meer ECC in de sectoren etc, etc.
Klopt, maar daar hangt ook een prijskaartje van +/-100% extra aan, en het leek me niet dat hij daar naar toe wou.
BlackBlaze neemt geen HDD's omdat ze beter zijn, maar uit een KOSTEN overweging... Het is goed "genoeg" voor hun. Dat is heel wat anders dan dat iets per definitie een goede keuze is.
Ik wil in mijn server ook wel SAS schijven, en een Supermicro mobo, maar net als de meeste die hier komen, en waarschijnlijk flipkipse ook is 'Goed genoeg' waar we voor gaan
Want je bent zelf nooit elektrostatisch geladen? 8)7
Natuurlijk, maar er moet heel wat gebeuren, voordat die lading van de kast overslaat naar elektronica, en dat is voor een server waar je bijna nooit aanzit nog ene minder probleem dan een gewone PC, waar het al nagenoeg nooit gebeurd.
Hoewel je op veel punten echt wel in de goede richting zit, moet je oppassen om niet de keuze voor iemand te maken. Wij weten allemaal welke dingen je aan moet denken, en niemand in dit topic heeft de intentie om foutieve informatie te verspreiden.
Met de punten die jij opnoemde ben ik het helemaal eens, als het een server voor Shell of een ziekenhuis is, maar daar wat ik in zijn post las, zocht hij ook niet naar.
Wat we alleen niet moeten doen, is keuzes aan iemand voorleggen alsof iets de enige waarheid is.
Maar jij en Q moeten mensen ook niet afschrikken, door te zeggen "Ik ben even van mijn apropos want dit is een consumenten forumpje." of je moet een redundantene voeding etc. etc. nemen, want jullie deden het zelfde als waar jij mij van beschuldigt, dan hadden jullie eerst even moeten vragen, wat is nu eigenlijk het doel van de server, ik relativeerde alleen jullie post's een beetje.
Alles in IT is relatief. Het kan altijd beter, duurder, stabieler, sneller, goedkoper, interessanter, complexer en noem maar op. Het is aan de koper/gebruiker om een afweging te maken.
Mee eens, ik weet ook wel wat ik wil, en net als die Lambo die niet voor mijn deur staat, zitten er ook geen SAS schijven in mijn toch al extreem dure server.
Q schreef op woensdag 08 juni 2016 @ 08:09:
Het concept deugt niet wat mij betreft. Als ZZP-er stop je tijd in je bedrijf, zo min mogelijk in bijzaken als IT en ga je zelf niet beunhazen.

Als je de tijd besteed aan het beunhazen gewoon besteed aan omzet maken, kun je gewoon 10 jaar backblaze of een knappe kant-en-klare nas/server kopen.
Er zijn ook zat ZZPers die het gewoon leuk vinden om een DIY NAS te bouwen.

[/quote]In het reguliere bedrijfsleven wordt ZFS vrijwel niet gebruikt. Mensen kopen gewoon servers van HP, Dell of Supermicro.[/quote]
DIY bouwers lopen altijd voor op het bedrijfsleven, maar je ziet het bedrijfsleven ook steeds meer overstappen op ZFS, mijn vriend werkt voor IT van de Noorse ziekenhuizen, en daar hebben ze bv al een van de twee backup systemen op ZFS draaien, met plannen om de ander ook over te zetten als hij aan vervanging toe is, en als die draait, gaat waarschijnlijk ook de live patiënten gegevens server over op ZFS of BtrFS, maar dat systeem is pas 2 jaar oud.

ZFS wijdverspreid in het bedrijfsleven, nog niet echt, daar het bedrijfsleven behoorlijk conservatief is met nieuwe tech, en eerst de kat flink uit de boom kijken, maar de groep bedrijven die ZFS gebruiken groeit wel.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Dj Neo Ziggy
  • Registratie: Januari 2000
  • Laatst online: 13:42
Hier komt mijn verhaal, ik hoop dat ik het goed uitleg en probeer zoveel info te geven als het kan.

Op dit moment heb ik een Synology 411j (ding is nu geel geworden) met 4 schijven erin. 2x WD EARS 1,5 TB waarvan er al eentje 3x overleden is en onder garantie omgeruild is. De andere zitten twee WD blue's in van 500 GB die ik kreeg uit een laptop. Schijven zouden niet compatible zijn, maar ze draaien nu toch al zo'n 5 jaar.

Nu is het moment aangekomen dat een van mijn ears weer op het punt staat om de geest de geven.

Dus wat ga ik doen? Ga ik de schijven vervangen voor RED's een stukje groter en klaar, of ga ik een freenas bouwen met RED's en de overgebleven blue's.
Ik heb me echt even verdiept in het freenas gebeuren, maar ik kom er gewoon niet uit.

Ik heb opstellingen gezien met ssd's zodat je beter kan cachen?
Wel of geen ECC geheugen? en vooral welke schijven.

De greens wordt ik nu wel zat, en mijn leverancier heeft al gezegd dat hij voor zijn klanten geen greens meer in zijn pc's doet omdat die zo vaak uitvallen.

Wat ik ook al las dat er voor freenas niet heel erg uitmaakt welke schijven erin zitten ivm TLER.
Maar greens komen er bij mij niet meer in.

Zijn WD Se's of Re's dan een optie of is dat weer overkill?
Mijn doel moet uiteindelijk zijn, data veiligheid.

Wat is hoop? Uitgestelde teleurstelling


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Dj Neo Ziggy schreef op woensdag 08 juni 2016 @ 21:54:
Hier komt mijn verhaal, ik hoop dat ik het goed uitleg en probeer zoveel info te geven als het kan.

Op dit moment heb ik een Synology 411j (ding is nu geel geworden) met 4 schijven erin. 2x WD EARS 1,5 TB waarvan er al eentje 3x overleden is en onder garantie omgeruild is. De andere zitten twee WD blue's in van 500 GB die ik kreeg uit een laptop. Schijven zouden niet compatible zijn, maar ze draaien nu toch al zo'n 5 jaar.

Nu is het moment aangekomen dat een van mijn ears weer op het punt staat om de geest de geven.

Dus wat ga ik doen? Ga ik de schijven vervangen voor RED's een stukje groter en klaar, of ga ik een freenas bouwen met RED's en de overgebleven blue's.
Ik heb me echt even verdiept in het freenas gebeuren, maar ik kom er gewoon niet uit.

Ik heb opstellingen gezien met ssd's zodat je beter kan cachen?
Wel of geen ECC geheugen? en vooral welke schijven.

De greens wordt ik nu wel zat, en mijn leverancier heeft al gezegd dat hij voor zijn klanten geen greens meer in zijn pc's doet omdat die zo vaak uitvallen.

Wat ik ook al las dat er voor freenas niet heel erg uitmaakt welke schijven erin zitten ivm TLER.
Maar greens komen er bij mij niet meer in.

Zijn WD Se's of Re's dan een optie of is dat weer overkill?
Mijn doel moet uiteindelijk zijn, data veiligheid.
Als ik jouw verhaal zo lees dan heb ik de indruk dat je beter af bent met een nieuwe Qnap of Synology. Die dingen zijn stukken beter geworden de afgelopen jaren en je kunt jezelf een hoop gedonder besparen met zelfbouw.

ECC en ZFS zit niet in die Qnaps en synologies. Dat relativeert de risico's denk ik wel.

Fuck rationalisatie.

Doe wat je hart je ingeeft en wat je echt wilt. Een leuk zelfbouw hobby project, prima. Geen zin om echt te nerden maar gewoon iets direct werkends neerzetten? Qnap/Synology.

Wat de schijven betreft, het is een beetje wat voor stroom rekening je kunt accepteren. Spindown met ZFS is wat lastig. Maar je kunt je NAS ook uit zetten en on-demand wekken met WOL. Ik denk dat RED/NAS branded schijven niet nodig zijn thuis maar als je echt zeker geen risico's wilt lopen, dan betaal je. Zelf heb ik 24x 7200 RPM schijven ingezet en staat mijn NAS gewoon uit de meeste tijd.

[ Voor 8% gewijzigd door Q op 08-06-2016 23:50 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
player-x schreef op woensdag 08 juni 2016 @ 19:05:

Er zijn ook zat ZZPers die het gewoon leuk vinden om een DIY NAS te bouwen.
Het is maar waar je prioriteit ligt, beunhazen met je data waar je vreten van afhangt.
[/quote]In het reguliere bedrijfsleven wordt ZFS vrijwel niet gebruikt. Mensen kopen gewoon servers van HP, Dell of Supermicro.[/quote]
DIY bouwers lopen altijd voor op het bedrijfsleven, maar je ziet het bedrijfsleven ook steeds meer overstappen op ZFS, mijn vriend werkt voor IT van de Noorse ziekenhuizen,
....
ZFS wijdverspreid in het bedrijfsleven, nog niet echt, daar het bedrijfsleven behoorlijk conservatief is met nieuwe tech, en eerst de kat flink uit de boom kijken, maar de groep bedrijven die ZFS gebruiken groeit wel.
Doen alsof ZFS gebruikers 'avant garde' (8> 8) zijn en dat mensen die gewoon Dell/HP/SM met sas diskjes kopen behoudende conservatievelingen :-( zijn . Gemixed met een magere anekdote.

Thumbs up bro.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

Dj Neo Ziggy schreef op woensdag 08 juni 2016 @ 21:54:
Hier komt mijn verhaal, ik hoop dat ik het goed uitleg en probeer zoveel info te geven als het kan.

Op dit moment heb ik een Synology 411j (ding is nu geel geworden) met 4 schijven erin. 2x WD EARS 1,5 TB waarvan er al eentje 3x overleden is en onder garantie omgeruild is. De andere zitten twee WD blue's in van 500 GB die ik kreeg uit een laptop. Schijven zouden niet compatible zijn, maar ze draaien nu toch al zo'n 5 jaar.

Nu is het moment aangekomen dat een van mijn ears weer op het punt staat om de geest de geven.

Dus wat ga ik doen? Ga ik de schijven vervangen voor RED's een stukje groter en klaar, of ga ik een freenas bouwen met RED's en de overgebleven blue's.
Ik heb me echt even verdiept in het freenas gebeuren, maar ik kom er gewoon niet uit.

Ik heb opstellingen gezien met ssd's zodat je beter kan cachen?
Wel of geen ECC geheugen? en vooral welke schijven.

De greens wordt ik nu wel zat, en mijn leverancier heeft al gezegd dat hij voor zijn klanten geen greens meer in zijn pc's doet omdat die zo vaak uitvallen.

Wat ik ook al las dat er voor freenas niet heel erg uitmaakt welke schijven erin zitten ivm TLER.
Maar greens komen er bij mij niet meer in.

Zijn WD Se's of Re's dan een optie of is dat weer overkill?
Mijn doel moet uiteindelijk zijn, data veiligheid.
Ears, dat zijn groenen zeker? Vervang die door een blauwe of rode

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!
Die hele serie is toch technisch gelijk op de Firmware na? Als je echt kwaliteit wil, moet je gewoon voor de RE series gaan, of, nog beter, voor HGST gaan...

Even niets...


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Q schreef op woensdag 08 juni 2016 @ 08:09:

In het reguliere bedrijfsleven wordt ZFS vrijwel niet gebruikt. Mensen kopen gewoon servers van HP, Dell of Supermicro.
Dat ligt zeer sterk aan je definitie van 'reguliere'.. het MKB gebruikt het wellicht niet, maar dat komt meer omdat zij niet de benodigde know-how hebben om een goed storage platform te draaien. ga je de wat meer professionele kant op (richting de hosters en dergelijke), dan zie ik ZFS veel vaker. Wel moet ik zeggen dat die bedrijven er vaak niet mee te koop lopen, want voor hun is het 'normaal'..

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 12:24
Q schreef op donderdag 09 juni 2016 @ 00:03:
Het is maar waar je prioriteit ligt, beunhazen met je data waar je vreten van afhangt.
Voor een tweede back-up, zie ik het probleem niet echt.
Doen alsof ZFS gebruikers 'avant garde' (8> 8) zijn en dat mensen die gewoon Dell/HP/SM met sas diskjes kopen behoudende conservatievelingen :-( zijn . Gemixed met een magere anekdote.
Ja en nee, het kan ook gewoon gebrek aan kennis zijn, en er is niks mis met conservatief zijn.
Thumbs up bro.
We zijn het weer lekker eens. ;)

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

Dj Neo Ziggy schreef op woensdag 08 juni 2016 @ 21:54:
Op dit moment heb ik een Synology 411j (ding is nu geel geworden) met 4 schijven erin. [..]

Nu is het moment aangekomen dat een van mijn ears weer op het punt staat om de geest de geven.

Dus wat ga ik doen? Ga ik de schijven vervangen voor RED's een stukje groter en klaar, of ga ik een freenas bouwen met RED's en de overgebleven blue's.
Ik heb me echt even verdiept in het freenas gebeuren, maar ik kom er gewoon niet uit. [..]

De greens wordt ik nu wel zat, en mijn leverancier heeft al gezegd dat hij voor zijn klanten geen greens meer in zijn pc's doet omdat die zo vaak uitvallen.
Red is fysiek hetzelfde als Green dus dat maakt ook weinig uit. Blue is in feite dezelfde schijf maar dan 7200rpm.

Je moet goed begrijpen dat 'gefaald' meerdere definities kan hebben. Vele mensen beschouwen daaronder ook een schijf die gewoon nog functioneert binnen de door de fabrikant opgegeven specificaties, maar dat deze problemen geeft door bad sectors; iets wat normaal is voor alle hardeschijven. De fabrikant specificeert in welke klasse een schijf valt: 10^-14 consumentenschijven, 10^-15 prosumer, 10^-16 enterprise.

Als je ouderwetse opslagtechnologie gebruikt zoals Synology, wat gewoon Linux software RAID is met een ouderwets ext4 bestandssysteem en een SHR-laag erbovenop, dan ben je vatbaar voor bad sectors. Dus een schijf met een paar kleine plekjes die onleesbaar zijn, kan als 'gefaald' worden aangemerkt door de Synology software. Dit terwijl de hardeschijf zelf gewoon functioneert binnen de door de fabrikant opgegeven specificaties.

Daarnaast is het zo dat bij een klein aantal schijven je geluk of pech kunt hebben: statistisch gezien kun je weinig zeggen over het aantal gefaalde schijven. Ik hoor al 20 jaar verhalen van 'voor mij nooit geen Maxtor meer die dingen falen om de haverklap' en 'mijn IBM's zijn binnen één jaar allemaal dood'. Dergelijke consumenten hebben gewoon pech. Of er is iets anders aan de hand: een gemeenschappelijke oorzaak. Een slechte voeding, veel vibraties, schokken, temperatuurschommelingen, slechte koeling (zoals een fan op één zijde terwijl de andere zijde wel warm kan worden en zodoende dus grote temperatuurvariatie binnen dezelfde schijf, enzovoorts.
Zijn WD Se's of Re's dan een optie of is dat weer overkill?
Mijn doel moet uiteindelijk zijn, data veiligheid.
Voor ouderwetse opslag heb je eigenlijk Enterprise SAS-schijven nodig om het bad sector probleem enigszins onder controle te houden. Anders moet je terugvallen op veel backups om toch risico's uit te kunnen sluiten. Kortom, dit betekent dat je er heel veel geld tegenaan moet gooien, of accepteren dat er risico's zijn.

Een andere oplossing zou kunnen zijn dat je kijkt naar 3e generatie opslag zoals ZFS en misschien in de toekomst Btrfs - wat zaken als bitrot en bad sectors vrijwel helemaal oplost. Dat is al een belangrijk probleem minder. Ook kun je met snapshots en incremental backups een goede backup-infrastructuur maken. Uiteindelijk ben je hier voor grofweg dezelfde bescherming véél minder geld aan kwijt, maar kost je wel meer tijd en energie om je te verdiepen hoe alles werkt.

Een middenweg zou zijn dat je accepteert dat je geen écht veilig opslagsysteem hebt en je gewoon extra backups maakt van de meest cruciale data en het risico neemt dat je overige data corrupt kan raken of geheel verloren raakt. Dat kost je het minste geld en de minste tijd en energie. Statistisch gezien kan het zo zijn dat je na vandaag er totaal geen last meer van hebt. Want WD Greens zijn eigenlijk de beste schijven, samen met Hitachi.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Ik ben het oneens met de notie dat Bad Sectors 'normaal' of acceptabel zouden zijn.

Een eindgebruiker mag ze nooit zien.

Dat ze onder de motorkap voorkomen dat is zeker waar, maar een hardeschijf heeft een kleine verzameling 'spare' sectors die bad sectors vervangen. Die spare sectors kunnen na een tijdje op raken.

Als je als eindgebruiker 'bad sectors' ziet, dus dat de harde schijf niet meer kan faken dat ze er niet zijn door ze te vervangen door goede exemplaren, dan is de schijf gewoon aan het sterven en moet deze vervangen worden.

ZFS kan - zeker als je redundancy toepast - beter om gaan met bad sectors dan andere hardware/software RAID maar het is waanzin om door te draaien met rotte schijven met bad sectors. Dat is niet normaal en niet acceptabel, ook niet met ZFS.

Een schijf die nog garantie heeft en bad sectors geeft kun je gewoon onder garantie retourneren.

De 1 in 10^14 specificatie van consumenten schijven houdt in dat je worst-case 1 bad sector / read error op 12.5 TB aan data transfers kunt verwachten. Dus bij een 4 TB schijf moet je die 2.5 keer lezen voordat dit voor komt.

Dit is echter een worst-case specificatie, consumenten schijven zijn in de praktijk betrouwbaarder dan dit.

Wat harde schijven betreft, mijn stelling is: doe even research, kijk of je combo bij anderen goed werkt met de hardware die je kies en koop gewoon wat je uitkomt.

Geen noodzaak voor speciale schijven.

Acties:
  • 0 Henk 'm!

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 15-09 18:04

TrailBlazer

Karnemelk FTW

Misschien wel eens leuk om te lezen hoe ze bij mijn huidige opdracht een DIY storage omgeving gebouwd is op basis van opensource software.
Alle storage wordt door middel van Ceph aangeboden. Dit is een distributed storage platform. Het bestaat enkel uit servers met JBOD. Ceph regelt zelf de verdeling van data over het cluster. Iedere bestand wordt op drie verschillende servers geplaatst en de orchestration laag weet welke servers er bij elkaar in het rack/ruimte/rekencentrum staan en houdt daar rekening mee hoe de data verdeeld wordt. Valt er een disk of server uit dan wordt de data direct opnieuw verdeeld over de resterende disken. Er worden ook enkel standaard sata disken gebruikt. Ieder server heeft een dedicated 10 gigabit nic voor storage verkeer ten behoeve van replicatie. Normaliter gaat hier zeer weinig data overheen maar als er bijvoorbeeld een heel rack uitvalt dan moet er potentieel even 100TB aan data worden gerepliceerd zodat er weer aan de eis van 3 kopieen wordt voldaan. Nadeel is wel van deze methode dat je erg veel opslag weggooit vanwege de 3 voudige replicatie.

Ceph wordt ook ingezet voor Cern om de opslag van alle data metingen op te slaan

Acties:
  • 0 Henk 'm!

Verwijderd

Q schreef op donderdag 09 juni 2016 @ 14:41:
Ik ben het oneens met de notie dat Bad Sectors 'normaal' of acceptabel zouden zijn.

Een eindgebruiker mag ze nooit zien.

Dat ze onder de motorkap voorkomen dat is zeker waar, maar een hardeschijf heeft een kleine verzameling 'spare' sectors die bad sectors vervangen. Die spare sectors kunnen na een tijdje op raken.

Als je als eindgebruiker 'bad sectors' ziet, dus dat de harde schijf niet meer kan faken dat ze er niet zijn door ze te vervangen door goede exemplaren, dan is de schijf gewoon aan het sterven en moet deze vervangen worden.
Dit is een onjuiste mythe die veel wordt herhaald.

Het wordt vaker gezegd: als je bad sectors ziet, betekent dit dat de pool van reserve sectoren op is geraakt en dan is de schijf afgeschreven en dood aan het gaan.

Het klopt dat schijven reserve sectoren hebben en dat deze hoeveelheid ook op kan raken. Het is echter zeer zeldzaam dat dit gebeurt, omdat we dan over heel veel bad sectors spreken; tienduizenden. Als er inderdaad zoveel bad sectors zijn, dan is er veelal een onderliggende oorzaak zoals gruis die continu nieuwe bad sectors veroorzaakt. In elk geval zijn we het erover eens dat een dergelijke schijf afgeschreven zou moeten worden en dood verklaard kan worden.

Maar, waar het mis gaat is de aanname dat wanneer je bad sectors ziet, dus dat deze aan de host worden blootgesteld als onleesbare sectoren, dat dit betekent dat de poel van reservesectoren op is. Dit is niet zo.

De aanname komt waarschijnlijk omdat mensen denken: als de schijf weet dat er een bad sector is, waarom wordt deze dan niet vervangen door een reservesector? Dit is echter vastgelegd in de ATA-standaard (ATA8-ACS2) dat een hardeschijf nooit data mag opgeven en daarmee de kans op datarecovery wordt verspeeld. Het is aan de gebruiker - de host - om dit te bepalen. Een onleesbare sector blijft dus eeuwig onleesbaar totdat:
  • De hardeschijf deze sector alsnog kan lezen, door error recovery, waarbij simpelweg continu wordt geprobeerd de sector foutloos uit te lezen en dit een keer wel zou kunnen lukken, doordat het aantal error bits (BER) de mogelijkheden tot errorcorrectie (ECC) niet overschrijdt.
  • Doordat de host - zeg maar de gebruiker - actief opdracht geeft om de onleesbare sector te overschrijven. Dit kan gebeuren doordat ZFS naar de schijf schrijft, of door een lange format zoals bij Windows gebeurt - een zero-write - waarbij alle sectoren en dus ook de bad sector met nulletjes worden overschreven.
Een (actieve) bad sector zul je zien als Current Pending Sector in de SMART-gegevens. Een omgewisselde sector zul je zien als Reallocated Sector Count in de SMART-gegevens.

Echter, waar vroeger 90% van de bad sectors inderdaad fysieke schade betrof en deze dus worden omgewisseld, is het hedendaags juist omgedraaid: 90% van de bad sectors betreffen onleesbare sectoren door te weinig ECC bitcorrectie, maar zijn fysiek gewoon in orde. Na het overschrijven van deze bad sectors worden ze niet omgewisseld; Reallocated Sector Count blijft gewoon 0. De Current Pending Sector verdwijnt gewoon en de sectoren werken weer prima nadat ze opnieuw zijn beschreven. Vrijwel alle bad sectors op moderne hardeschijven zijn van dit type.

Bovenstaand probleem, zogenaamde uBER bad sectors, wordt specifiek genoemd als reden dat in 2009 RAID5 niet meer bruikbaar is, en RAID6 niet meer in 2019, door Robin Harris:

Why RAID5 stops working in 2009
Een schijf die nog garantie heeft en bad sectors geeft kun je gewoon onder garantie retourneren.
Het klopt dat fabrikanten niet moeilijk doen met garantieclaims, ook al zijn ze hier formeel gezien niet toe verplicht omdat het binnen de opgegeven specificaties valt en bad sectors een inherent onderdeel zijn van mechanische opslagtechnologie.

Bedenk wel dat als je dit doet, de kans heel groot is dat je een hardeschijf terug krijgt van een andere klant, met hetzelfde probleem, waarbij er een format is uitgevoerd en zodoende de bad sectors weer zijn overschreven en de SMART data is gereset. Klant blij, maar eigenlijk onzin dat je de schijf opstuurt want je krijgt gewoon een zelfde schijf terug die ook bad sectors heeft gehad. Dan kun je net zo goed je eigen schijf een zero-write geven.
De 1 in 10^14 specificatie van consumenten schijven houdt in dat je worst-case 1 bad sector / read error op 12.5 TB aan data transfers kunt verwachten.
Voor moderne consumentenschijven betekent 10^-14 uBER dat je bij 100% duty cycle één bad sector per dag kan verwachten, gemiddeld, wanneer je test over langere tijd met een groot aantal samples.

Consumenten hebben doorgaans maar iets van 1% duty cycle, dus eens per 3 tot 6 maanden is realistischer. Nog steeds te groot om te negeren.
Geen noodzaak voor speciale schijven.
Mee eens, geen noodzaak voor dure schijven, wel noodzaak voor slimme software. ZFS is specifiek ontworpen om veilige opslag te realiseren met goedkope consumentenhardware. Dat was ook de originele gedachte achter RAID: de I stond eerst voor Inexpensive. Omdat RAID is uitgemolken door storageboeren die er grof geld aan wilde verdienen door dure hardware te verkopen met simpele software, is de I van Inexpensive langzaam aan vervangen door Independent.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Ceph is aweseome. Heb zelf thuis ook een clustertje gebouwd, de performance met een klein aantal OSDs is echter niet zo meester.

Maken jullie geen gebruik van Erasure encoded storage pools?

In wat voor 'industrie' vindt jouw opdracht plaats?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Verwijderd schreef op donderdag 09 juni 2016 @ 15:57:
[...]

Dit is een onjuiste mythe die veel wordt herhaald.
....
Consumenten hebben doorgaans maar iets van 1% duty cycle, dus eens per 3 tot 6 maanden is realistischer. Nog steeds te groot om te negeren.
Wat je hier beschrijft is helemaal juist: er zijn ook 'soft' bad sectors, sectors die niet permanent defect zijn en na overschrijven weer bruikbaar zijn.

Echter, ook dit soort fouten komt bij consumenten vrijwel niet voor door het beperkte gebruik en er is helemaal geen noodzaak om thuis hiervoor persé ZFS te gaan draaien.

Het RAID5 artikel is niet relevant voor thuisgebruikers.
Mee eens, geen noodzaak voor dure schijven, wel noodzaak voor slimme software.
Mee oneens, thuis en voor DIY is er geen enkele noodzaak voor slimme software. Als je het wilt gebruiken, prima maar er is helemaal geen noodzaak.

Wil je de data veiligheid van een Qnap of Synology overtreffen, dan is een zelfbouw setup met ECC en ZFS een goede keuze. Maar die veiligheid van een Qnap of Synology is prima voldoende voor de grote meerderheid.

Acties:
  • 0 Henk 'm!

Verwijderd

Het is mijn ervaring dat ongeveer de helft van de schijven te maken krijgt met uBER bad sectors, wat jij 'soft' bad sectors noemt. Als dat klopt is het probleem enorm groot en is ook het artikel van Robin Harris absoluut van toepassing op consumenten.

Daarnaast, het is niet onderzocht voor zover ik weet, maar het is vrijwel uitgesloten dat uBER een lineair verband heeft met duty cycle. Kortom, het is niet zo dat je 100x keer minder last hebt van dit probleem als je maar 1% duty cycle hebt. Dan zou je nooit bad sectors krijgen als je vrijwel geen I/O doet. Het zou wel degelijk zo zijn dat de uBER bad sectors toenemen met hogere duty cycle, maar een lineair verband acht ik uitgesloten. Kortom, ook bij typisch consumentengebruik heb je last van dit probleem.

Dat wordt ook bevestigd bij alle NAS systemen die ik heb gebouwd voor mensen en bedrijven, ik denk in totaal iets van 200. Vrijwel allemaal hadden tenminste één schijf met actieve bad sectors. Doordat ze ZFS gebruiken zal dat nooit geen probleem veroorzaken en zijn ze af van dit probleem, naast de overige voordelen die ZFS biedt.

Acties:
  • 0 Henk 'm!

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 15-09 18:04

TrailBlazer

Karnemelk FTW

Q schreef op donderdag 09 juni 2016 @ 15:57:
Ceph is aweseome. Heb zelf thuis ook een clustertje gebouwd, de performance met een klein aantal OSDs is echter niet zo meester.

Maken jullie geen gebruik van Erasure encoded storage pools?

In wat voor 'industrie' vindt jouw opdracht plaats?
Geen idee ik beheer eigenlijk alleen het netwerk. De storage wordt gebruikt voor een private cloud van een overheidsdienst. Het kleinste cluster heeft 160 osds het grootste meer dan 1000

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Verwijderd schreef op donderdag 09 juni 2016 @ 16:19:
Het is mijn ervaring dat ongeveer de helft van de schijven te maken krijgt met uBER bad sectors, wat jij 'soft' bad sectors noemt. Als dat klopt is het probleem enorm groot en is ook het artikel van Robin Harris absoluut van toepassing op consumenten.
Ik heb die ervaring niet.
Kortom, ook bij typisch consumentengebruik heb je last van dit probleem.
Wat raar dan toch dat Synologies en Qnaps er totaal niets mee doen.

Jouw verhaal strookt niet met mijn ervaringen en het past ook niet in het grotere plaatje.

Als wat jij zegt waar is, dan zouden al mijn NAS oplossingen en die van anderen regelmatig een disk moeten verliezen en I/O errors geven, maar ik heb het nooit aan de hand gehad, en mijn indruk is dat dit zeldzaam is want anders zag je het ook veel meer op dit forum.

Het feit is dat harde schijven eigenlijk verbazingwekkend betrouwbaar zijn, over het algemeen.
Dat wordt ook bevestigd bij alle NAS systemen die ik heb gebouwd voor mensen en bedrijven, ik denk in totaal iets van 200. Vrijwel allemaal hadden tenminste één schijf met actieve bad sectors. Doordat ze ZFS gebruiken zal dat nooit geen probleem veroorzaken en zijn ze af van dit probleem, naast de overige voordelen die ZFS biedt.
Bad sectors worden ook prima afgehandeld door niet-ZFS oplossingen. Zo'n schijf wordt gewoon uit de array gegooid en dan moet je 'm vervangen. Eventueel neemt een hot-spare het over. Of je stopt 'm weer terug en je hope for the best.

ZFS kan galanter omgaan met bad sectors, dat is zeker waar, maar dat is het dan wel weer. Dat is niet echt waar ik mijn platform keuze op zou baseren.

Mensen wordt ZFS aangepraat op basis van bangmakerij en dat vind ik nogal onoprecht.
Beweren dat ZFS ook thuis voor een NAS noodzakelijk is, is wat mij betreft overdreven en aantoonbaar onjuist.
TrailBlazer schreef op donderdag 09 juni 2016 @ 16:53:
[...]

Geen idee ik beheer eigenlijk alleen het netwerk. De storage wordt gebruikt voor een private cloud van een overheidsdienst. Het kleinste cluster heeft 160 osds het grootste meer dan 1000
Toch leuk om in zo'n omgeving te werken. Bedoel je met OSDs echt de OSDs of het aantal servers waar de OSDs in zitten? Ceph heeft zo'n regel waarbij je 1 OSD per disk draait, meestal.

[ Voor 11% gewijzigd door Q op 09-06-2016 19:28 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Statistisch gezien is dat prima mogelijk, net zoals iemand heel veel problemen met Seagate kan hebben en totaal niet met WD, of andersom.
Wat raar dan toch dat Synologies en Qnaps er totaal niets mee doen.
Oh die doen er wel wat mee hoor. Die weten ook wel dat ze nu in een moeilijke positie verkeren; ouderwetse legacy storage op basis van verouderde technologie. Daarom dat Synology hard bezig is met Btrfs. ZFS kunnen ze niet gebruiken om licentietechnische redenen. Daarom dat de thuisgebruiker en DIY zakelijke gebruiker een groot voordeel heeft in dit tijdperk; gratis nieuwe generatie opslagtechnologie gebruiken en de markt een stap voor zijn. Later zal de markt volgen.

Microsoft heeft tijden geleden met de opvolger van WHS - Windows Home Server - al gewerkt aan iets wat tegemoet moest komen aan de tekortkomingen van NTFS - zeg maar de tegenhanger van Ext4 - door extra redundantie voor bit rot / bad sectors toe te voegen op filesystem niveau. Dit zou DE oftewel Drive Extender 2.0 moeten gaan heten. Het project werd afgeblazen omdat het grote bezwaar zou zijn dat dit systeem niet meer compatible was met NTFS en samen met andere bezwaren werd het hele project van tafel geveegd. Nu zit Microsoft met ReFS als opvolger van NTFS wat al mondjesmaat in zakelijke omgevingen getest wordt. Maar van de drie grote spelers van de 3e generatie opslagtechnologie is ReFS het minst uitontwikkeld, het minst geavanceerd en het minst belovend. Toch zal dit de opvolger worden van NTFS. Btrfs is het meer ontwikkelde en al enigszins bruikbare alternatief voor Linux omgevingen. Maar pas voor UNIX-omgevingen.
Jouw verhaal strookt niet met mijn ervaringen en het past ook niet in het grotere plaatje.
Als wat jij zegt waar is, dan zouden al mijn NAS oplossingen en die van anderen regelmatig een disk moeten verliezen en I/O errors geven, maar ik heb het nooit aan de hand gehad
Was jij het niet die een 60-disk RAID0 had ofzoiets? Of vergis ik me. Zoiets staat me bij. Of was het BartNL?

Anyway, zulke oplossingen zijn natuurlijk gekkenwerk. En ja, statistisch gezien kan het goedgaan. Er zijn ook mensen die de jackpot winnen bij Lotto en mensen die 99 jaar worden met elke dag drie pakjes sigaretten. Praise yourself. ;)
Bad sectors worden ook prima afgehandeld door niet-ZFS oplossingen. Zo'n schijf wordt gewoon uit de array gegooid en dan moet je 'm vervangen.
Ja en als dat bij meerdere schijven gebeurt, dan ben je dus de pineut. Tijdens de rebuild kan een overige schijf ook een onleesbare sector tegenkomen en dan ben je de sjaak. Dat is waar het artikel van Robin Harris over gaat. Dat na een reguliere disk failure tijdens de rebuild je een bad sector tegenkomt. Dat is echt een veelvoorkomende user case.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 18:28
Mja wat ik dan wel zo raar vind is dat zen scrub dat dan ook zou moeten laten zien. Ik doe een wekelijkse scrub en heb nog nooit corrupte of onleesbare data teruggekregen van mijn disks. De kans dat dat gebeurt tijdens een resilver is gelijk aan bij een scrub en dat lijkt tot nu toe heeeeeeeeeeeeel heeeeel heeeeeeeel goed mee te vallen

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 16:21
Verwijderd schreef op donderdag 09 juni 2016 @ 20:14:
[...]

Statistisch gezien is dat prima mogelijk, net zoals iemand heel veel problemen met Seagate kan hebben en totaal niet met WD, of andersom.
Ik denk dat niemand 99% van de bezoekers hier op het forum jouw ervaringen niet deelt.
Oh die doen er wel wat mee hoor. Die weten ook wel dat ze nu in een moeilijke positie verkeren; ouderwetse legacy storage op basis van verouderde technologie.

Daarom dat de thuisgebruiker en DIY zakelijke gebruiker een groot voordeel heeft in dit tijdperk; gratis nieuwe generatie opslagtechnologie gebruiken en de markt een stap voor zijn. Later zal de markt volgen.
99.99% van de consumenten heeft geen idee van ZFS en snapt ZFS niet.

Qnaps en Synologies hebben geen enkele concurrentie van ZFS. Nul.

Hun enige concurrent is de cloud.

Je leeft in een fantasiewereld, wat mij betreft.

BTRFS wordt nu door deze clubs toegepast omdat het nieuwe features biedt en dat kan concurrentie voordeel opleveren. Deze leveranciers zijn totaal niet in gevecht met ZFS.
Was jij het niet die een 60-disk RAID0 had ofzoiets? Of vergis ik me. Zoiets staat me bij. Of was het BartNL?

Anyway, zulke oplossingen zijn natuurlijk gekkenwerk.
Je veinst. Je weet best wat ik draai en dat ik mij niet van 'gekkenwerk' bedien.

Een 71 TB NAS is volkomen rationeel ;)
En ja, statistisch gezien kan het goedgaan. Er zijn ook mensen die de jackpot winnen bij Lotto en mensen die 99 jaar worden met elke dag drie pakjes sigaretten. Praise yourself. ;)
Nu doe je weer dat 'goed' gaan de uitzondering is, maar het is de regel.

Geen ZFS draaien gelijk stellen aan roken of gokken, subtiel hoor. :)
Ja en als dat bij meerdere schijven gebeurt, dan ben je dus de pineut. Tijdens de rebuild kan een overige schijf ook een onleesbare sector tegenkomen en dan ben je de sjaak. Dat is waar het artikel van Robin Harris over gaat. Dat na een reguliere disk failure tijdens de rebuild je een bad sector tegenkomt. Dat is echt een veelvoorkomende user case.
De kans op een dubbele drive failure is erg klein, het komt voor, maar de meeste mensen komen er wel mee weg. En voor grotere arrays is RAID6 prima, want een triple drive failure is pas echt zeldzaam.
HyperBart schreef op donderdag 09 juni 2016 @ 20:38:
Mja wat ik dan wel zo raar vind is dat zen scrub dat dan ook zou moeten laten zien. De kans dat dat gebeurt tijdens een resilver is gelijk aan bij een scrub en dat lijkt tot nu toe heeeeeeeeeeeeel heeeeel heeeeeeeel goed mee te vallen
Dat is ook mijn ervaring en verwachting. ZFS heeft mij nog nooit gered. ECC geheugen trouwens ook niet.

Ik denk dat mensen alles een beetje moeten relativeren, de risico's zijn gewoon allemaal niet zo groot. Het belangrijkste risico is disk uitval en als je dat afdekt met RAID en backups dan heb je de belangrijkste zaken wel geregeld.

[ Voor 18% gewijzigd door Q op 09-06-2016 20:59 ]

Pagina: 1 ... 206 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.