Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Even niets...
[ Voor 54% gewijzigd door Damic op 19-12-2015 13:30 ]
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Als transcoden niet meer nodig is, waarom wil je zelfbouw?NiVanc schreef op vrijdag 18 december 2015 @ 15:07:
Daarenboven is er afgelopen nacht een update geweest van Plex waardoor het transcoden op de server niet meer nodig is. Hierdoor dalen mijn cpu vereisten aanzienlijk. Over een goede timing gesproken
Een QNAP of Synology is misschien in jouw situatie veel makkelijker. Zeker voor het budget wat je beschikbaar hebt. Dan kun jij een hele mooie Synology voor uitzoeken.
Wat gaat zelfbouw jouw bieden over een Synology in dezelfde prijsklasse?
Je bent bijvoorbeeld van plan om 3 disks in een RAIDZ te zetten, maar besef je dat je daar geen disks aan kunt toevoegen en dat je niet makkelijk kunt uitbreiden?
Misschien zoek je alleen maar info over ECC en maak ik het nu te groot allemaal. In dat geval sluit ik me bij het advies van Player-x aan: de belangrijkheid van je data bepaalt wat verstandig is.
[ Voor 10% gewijzigd door Q op 19-12-2015 13:43 ]
Mijn NAS werkt nog steeds naar behoren:
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G3420 Boxed | € 68,90 | € 68,90 |
1 | Gigabyte GA-H81N-D2H | € 50,26 | € 50,26 |
1 | WD Blue WD5000AAKX, 500GB | € 45,25 | € 45,25 |
1 | Cooler Master Elite 110 | € 40,95 | € 40,95 |
1 | Crucial CT51264BA160BJ | € 18,95 | € 18,95 |
1 | be quiet! System Power 7 300W | € 32,95 | € 32,95 |
Bekijk collectie Importeer producten | Totaal | € 257,26 |
Zit nog 2x WD green 500 gig in (RAID-1) en een losse 250 gig hdd van onbekend merk voor onbelangrijke data.
Echter wil ik een stapje verder gaan, ik wil om meerdere reden gaan virtualiseren. Daarin wil ik de volgende OS'sen draaien:
- OpenSUSE (webhost)
- FreeNAS (?)
- CentOS (LDAP, kerberos 5 server)
- Centos (Torrent server, kodi mySQL backend)
Ik wil waarschijnlijk vSphere gaan gebruiken(geen ervaring mee). Lijkt jullie dit haalbaar? En zijn deze OS'sen aangeraden of zouden jullie voor iets anders gaan? Ik gebruik deze omdat ik met CentOS en SUSE al enig ervaring heb, maar iets anders is ook prima.
[ Voor 0% gewijzigd door silverball op 19-12-2015 14:12 . Reden: Spelling ]
3640 Wp ZO pvoutput | FOSS | Gasloos | Trabant 601 (kubel + kombi) | Simson s53e | Ford nugget '89
Zo zal je wat kunstjes moeten uitvoeren om je NIC aan de praat te krijgen, en kan je geen Software RAID1 doen in ESXi.
Even niets...
Verwijderd
Al kun je overwegen om naast de 4GiB een 8GiB reepje te plaatsen. Ik weet alleen niet of je dan de mogelijkheid tot dual channel verliest.
Even niets...
Ja dat is achteraf inderdaad een foute keuze geweest. Gelukkig kan ik die 4 gig wel kwijt.Verwijderd schreef op zaterdag 19 december 2015 @ 15:24:
4GiB RAM is wel enorm jammer - hoe wil je gaan virtualiseren dan? Je RAM uitbreiden lijkt me de eerste stap, naar 2x 8GiB. Dat zou betekenen dat je je 4GiB reepje moet vervangen. Dat is een reden dat ik nooit aanraad om een 4GiB reepje te kopen maar altijd 8GiB reepjes. Achteraf duurkoop.
Al kun je overwegen om naast de 4GiB een 8GiB reepje te plaatsen. Ik weet alleen niet of je dan de mogelijkheid tot dual channel verliest.
Hmmz, behalve hardware RAID, is er verder een alternatief?FireDrunk schreef op zaterdag 19 december 2015 @ 14:38:
Je kan geen Software RAID1 doen in ESXi.
[ Voor 14% gewijzigd door silverball op 19-12-2015 18:27 ]
3640 Wp ZO pvoutput | FOSS | Gasloos | Trabant 601 (kubel + kombi) | Simson s53e | Ford nugget '89
Vanuit de VM terugsharen naar je host via NFS.
Nadeel is dat 9/10 keer je VM afgeschoten wordt als 1 van de datastores wegvalt.
Je behoudt je data dus wel, maar je VM's klappen wel uit.
Even niets...
[ Voor 6% gewijzigd door Q op 19-12-2015 19:06 ]
[ Voor 38% gewijzigd door LiquidSmoke op 19-12-2015 19:37 ]
Waarom zou je dat willen? Hardware RAID die door ESXi ondersteund wordt en al je VM's kunnen het dan toch zonder RAID af?Q schreef op zaterdag 19 december 2015 @ 19:06:
Is het dan niet een stuk simlerer om gewoon een supported entry-level RAID kaartje te scoren voor het OS + VM die dan verder storage (VT-d van controller) weer aanbiedt via NFS/iSCSI aan ESXi?
Indien je geen ZFS wilt gebruiken is dit inderdaad de makkelijkste en vaak beste optie. Een groot deel van de makkelijk verkrijgbare raid controllers is gewoon ondersteund, en je hebt niet het geneuzel van VM's die eruit klappen als je storage VM down gaat.synoniem schreef op zaterdag 19 december 2015 @ 19:38:
[...]
Waarom zou je dat willen? Hardware RAID die door ESXi ondersteund wordt en al je VM's kunnen het dan toch zonder RAID af?
Ja, desnoods een wat duurdere (2e hands) RAID kaart zodat je wat meer disks kwijt kunt, het is een beetje wat je zoekt.LiquidSmoke schreef op zaterdag 19 december 2015 @ 19:41:
[...]
Indien je geen ZFS wilt gebruiken is dit inderdaad de makkelijkste en vaak beste optie. Een groot deel van de makkelijk verkrijgbare raid controllers is gewoon ondersteund, en je hebt niet het geneuzel van VM's die eruit klappen als je storage VM down gaat.
Ik noem het omdat een aantal mensen hun NAS/SAN dan virtueel draait met ZFS of een andere laag die de storage weer terug aanbiedt aan ESXi of gewoon als NFS/SMB share.
Maar een 'ouderwetse' hardware RAID controller is prima iin deze context en om eerlijk te zijn denk ik dat dit voor de meeste mensen de beste optie is.
[ Voor 5% gewijzigd door Q op 20-12-2015 13:29 ]
Enige tijd geleden heb ik een media center gebouwd met 6x 3tb disks. Ik heb er toen voor gekozen om geen raid array te bouwen en mijn belangrijke data te backup-en met een externe disk en een interne disk in mijn pc.
Echter met het oog op de toekomst en de twijfelachtige kwaliteit van mijn overige 5 disks wil ik het hele zooitje los gaan koppelen en een nieuwe losse NAS bouwen met een software RAID-6 config. De planning is om te beginnen met 4 nieuwe disks in een raid-6 config en de data hier langzaam naartoe te moven. Zodra er twee oude disks leeg zijn worden deze bij de raid-6 array gezet.
Mijn grootste vraag is eigenlijk of er nog relatief goedkope kasten zijn waar comfortabel 10/12 disks in passen. Ik heb al gekeken naar de lijken niet op voorraad te zijn en ook maar sporadisch wel op voorraad te komen.
Verder vroeg ik me nog af of er specifiek tooling is voor linux die het gemakkelijk maakt om live raid array's te extenden met nieuwe disks.
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
Aye zo ver was ik al.Q schreef op zondag 20 december 2015 @ 16:09:
Als je Linux met software RAID gaat draaien dan is het groeien van je array twee commando's op de CLI. Geen speciale tools. MD device groter maken en vervolgens je file system vergroten. Ik adviseer in deze context XFS als file system.
Ik heb eerst in een VM wat onderzoek gedaan en getest wat de beste methode was.
Ik wordt alleen een beetje euh krigel dat je geen direct visuele interactie hebt als je de de grow doet.
Denk dat krijg je als je de laatste 5 jaar bijna exclusief met Microsoft spul werkt.
Als ik helemaal opnieuw zou kunnen beginnen zou ik waarschijnlijk beginnen met een ZFS omgeving maar dat gaat me nu gewoon te duur worden.
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
Ok fair enough. Ik begreep je vraag verkeerd / las niet goed.Shunt schreef op zondag 20 december 2015 @ 16:15:
[
Denk dat krijg je als je de laatste 5 jaar bijna exclusief met Microsoft spul werkt.
Het is een beetje wat je zoekt, betere gegevensbescherming maar minder flexibiliteit (geen grow zoals je met mdadm kunt).Als ik helemaal opnieuw zou kunnen beginnen zou ik waarschijnlijk beginnen met een ZFS omgeving maar dat gaat me nu gewoon te duur worden.
Zoals het er nu naar uit ziet gaat het een distro als CentOS gaat zijn (enige linux ervaring die ik heb is RedHat). De bedoeling is dat ik alles zo goed mogelijk via web kan beheren dus het boven genoemde cockpit klinkt wel fijn daar voor. Er komen SAB en of Sickbeard op te draaien. Plex weet ik nog niet zeker omdat die toch best wel hongerig is naar CPU met het transcoden.Q schreef op zondag 20 december 2015 @ 21:21:
[...]
Ok fair enough. Ik begreep je vraag verkeerd / las niet goed.
[...]
Het is een beetje wat je zoekt, betere gegevensbescherming maar minder flexibiliteit (geen grow zoals je met mdadm kunt).
Ik heb er heel lang over lopen twijfelen. Maar voor nu is mdadm meer dan voldoende voor de rotzooi die ik verzamel. Als er eens een file "corrupt" raakt dan is dat niet het einde van de wereld. Alles wat belangrijk is staat twee keer in het zelfde huis en een keer buitens huis.
Ik zit met name nog met de kast. Als je zoekt op kasten die geschikt zijn voor NAS doeleinde kom je toch vaak op kasten die ruimte bieden voor max zes tot acht disks.
[ Voor 30% gewijzigd door Shunt op 20-12-2015 21:34 ]
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
pricewatch: Fractal Design Arc Midi Tower
pricewatch: Fractal Design Define XL R2 Titanium Grey
Dit kan helpen:
pricewatch: Silverstone CFP52B
Standaard ruimte voor 10HDD en met een drivebay zoals die hierboven vermeld kom je ook wel aan de 12
Bij 10+ disks ga je toch ook vaak al kijken naar 19" rack mount chassis omdat die ook meteen voor die prijs met hot-swap bays komen.
Losse hot-swap bays in een reguliere toren is vaak even duur omdat die bays vaak al 60-100 per stuk zijn waar er vaak slechts 5 disks in kunnen.
Fuck deze is mooi (wel aan de prijs)
pricewatch: Lian Li PC-Q26B Zwart
[ Voor 17% gewijzigd door Q op 21-12-2015 22:53 ]
Ri-vier deed in leuke racks, maar levert sinds enige tijd niet meer. (de mijne staat te koop...)
Dan neem je de rode variant toch?Q schreef op maandag 21 december 2015 @ 22:49:
Zo'n groene kast vind ik persoonlijk geen pan, maar smaken verschillen.
Ik kom er vandaag achter dat ik twee hardeschijven heb die enorm tikken. Ik ga dus eerst mijn data veilig stellen en die vervangen. Gelukkig is eentje deel van een raid configuratie.silverball schreef op zaterdag 19 december 2015 @ 14:09:
Hallo allemaal!
Mijn NAS werkt nog steeds naar behoren:
Echter wil ik een stapje verder gaan, ik wil om meerdere reden gaan virtualiseren. Daarin wil ik de volgende OS'sen draaien:
- OpenSUSE (webhost)
- FreeNAS (?)
- CentOS (LDAP, kerberos 5 server)
- Centos (Torrent server, kodi mySQL backend)
Ik wil waarschijnlijk vSphere gaan gebruiken(geen ervaring mee). Lijkt jullie dit haalbaar? En zijn deze OS'sen aangeraden of zouden jullie voor iets anders gaan? Ik gebruik deze omdat ik met CentOS en SUSE al enig ervaring heb, maar iets anders is ook prima.
3640 Wp ZO pvoutput | FOSS | Gasloos | Trabant 601 (kubel + kombi) | Simson s53e | Ford nugget '89
Bij 't moederbordje en voeding zitten alle stekkertjes om ze aan te sluiten incl. omvormers (als ik 't zo mag noemen) om de sata schijven op de LSI controller aan te sluiten (dat is sas aansluiting).
(basic tools heb ik wel zoals schroevendraaiers :-P)
Nog tips die mensen kwijt willen :-) ? Ik zal zo eens kijken hoe zo'n socket 1150 er uitziet en hoe ik daar makkelijk de processor ik kan zetten :-P (laatste wat ik in elkaar gezet had is een socket 775). Hoop dat de stock-cooler makkelijker aan te sluiten is dan die irritante pinnen als bij een socket 775.
Qua software: ik heb Freenas gedownload als main os. Eerst maar eens inrichten als simpele download en stream server, met ZFS. Dat lijkt me al een 'hell of a job'. Daarna wil ik met Freenas als Host vm's via virtualbox gaan draaien.
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1231 V3 Boxed | € 261,51 | € 261,51 |
1 | ASRock E3C224D4I-14S | € 277,50 | € 277,50 |
3 | WD Green HDD, 4TB | € 138,50 | € 415,50 |
1 | Fractal Design Define R5 Zwart | € 101,95 | € 101,95 |
1 | Kingston ValueRAM KVR16E11K4/32 | € 238,50 | € 238,50 |
1 | Cooler Master V Series V550 - 80+ Gold | € 96,95 | € 96,95 |
Bekijk collectie Importeer producten | Totaal | € 1.391,91 |
[ Voor 5% gewijzigd door WTM op 22-12-2015 21:42 ]
Misschien nog een paar extra case fans van noctua? Maar ik betwijfel of dat nodig is.
Mooie setup, ga je wel plezier van beleven.
[ Voor 27% gewijzigd door Q op 23-12-2015 00:31 ]
Moet ik die LSI controller nog flashen naar IT mode (geen idee of ik dat moet doen maar ik lees er veel over maar nog niet duidelijk) op asrock rack site is in elk geval wel firmware te vinden voor freenas?
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
Verwijderd
Bovendien zit je dan vast aan een ouderwets filesystem als UFS2 en dat is echt een verkeerde keuze als je belangrijke data op wilt slaan. En ook voor minder belangrijke data denk ik dat je dan de verkeerde weg behandelt, al kun je daarover nog van mening verschillen.
Wil je echter toch legacy storage, overweeg dan een Areca RAID controller, die kan wel wat jij wilt op BSD OS en werkt ook met FreeNAS. Bedenk wel dat deze controller incompatible is met ZFS pools - je hele pool kan corrupt en onbruikbaar worden indien je data van de pool op een Areca RAID array opslaat.
Even niets...
Voor mijn toepassing is ZFS zware overkill de data die belangrijk is staat redelijk safe door het gewoon op meerdere plekken op te slaan. Als ik ZFS wil gebruiken wil ik RAIDZ2 gebruiken en dan gaat het me te kostbaar worden om daar eerst een pool te maken die groot genoeg is om mijn huidige hoeveelheid data op te slaan en om daarna van mijn huidige disk weer een nieuwe pool te maken.Verwijderd schreef op woensdag 23 december 2015 @ 09:26:
RAID6 is er nooit geweest. Er is wel Concatenating (geom_concat), RAID0 (geom_stripe), RAID1 (geom_mirror), RAID3 (geom_raid3) en RAID5 (geom_raid5) geweest. Software RAID6 bestaat niet op BSD en heeft nooit bestaan, afaik. Deze ondersteunen ook geen uitbreiding, dus kunnen veel minder dan ZFS kan want die kun je behoudens enkele belangrijke beperkingen wél uitbreiden.
Bovendien zit je dan vast aan een ouderwets filesystem als UFS2 en dat is echt een verkeerde keuze als je belangrijke data op wilt slaan. En ook voor minder belangrijke data denk ik dat je dan de verkeerde weg behandelt, al kun je daarover nog van mening verschillen.
Wil je echter toch legacy storage, overweeg dan een Areca RAID controller, die kan wel wat jij wilt op BSD OS en werkt ook met FreeNAS. Bedenk wel dat deze controller incompatible is met ZFS pools - je hele pool kan corrupt en onbruikbaar worden indien je data van de pool op een Areca RAID array opslaat.
Ik zat juist aan software raid te denken omdat je dan niet vast zit aan controllers van bepaalde merken of soorten.
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
Verwijderd
sync=always heeft geen zin omdat Areca de FLUSH-commando's negeert. Je kunt de controller wel in write-through modus zetten. Dan zou je pool niet stuk mogen gaan, omdat er geen re-ordering wordt toegepast al weet ik dit niet helemaal zeker! Wat blijft, is het probleem dat je disks onzichtbaar worden (detached) bij bad sectors en non-TLER schijven. Wat je ook met Areca doet: RAID array, passthrough disk, hele controller in 'JBOD' modus - je schijven blijven eruit gegooid worden. Het zou wel kunnen zijn dat nieuwere firmware dan de 1.46 ofzo die ik had getest, dit oplost.FireDrunk schreef op woensdag 23 december 2015 @ 12:18:
Zelfs als je write-through gebruikt en alle andere vormen van caching uit zet? (Dus sync=always bijvoorbeeld).
Hoe kan een filesystem met betere bescherming overkill zijn? Baat het niet dan schaadt het niet?! Hetzelfde argument hoor ik vaak met RAM geheugen; omdat de CPU maar DDR3/1333 ondersteunt, willen mensen geen DDR3/1600 kopen wat gewoon nieuwere modules zijn voor dezelfde prijs. Maar waarom? Koop gewoon 1600MHz dat draait prima op 1333MHz. Mogelijk heb je er later wel profijt van. Volgens mij gaat eenzelfde argument ook wel op voor ZFS. En daar heb je naast de veiligheid nog vele andere voordelen, zoals goede compressie, snapshots, send/receive, enzovoorts.Shunt schreef op woensdag 23 december 2015 @ 12:18:
Voor mijn toepassing is ZFS zware overkill
Dat is dus niet veilig als je een legacy filesystem gebruikt. Corruptie wordt niet gedetecteerd en kan dus doorstromen naar al je backups zonder dat je het weet. Dus ook met duizend backups ben je niet veilig tegen alle risico's. Je kunt dit wel deels opvangen door zelf te checksummen. Maar een filesystem waar die functionaliteit al in zit is natuurlijk vele malen beter.de data die belangrijk is staat redelijk safe door het gewoon op meerdere plekken op te slaan.
Ik snap je niet helemaal, maar je doelt denk ik op uitbreiden van de pool. Weet dat je bijvoorbeeld een degraded RAID-Z2 kunt aanmaken, en je kunt beginnen met kleine disks en deze vervangen door grotere disks. Ook kun je natuurlijk uitbreiden door vdevs toe te voegen.Als ik ZFS wil gebruiken wil ik RAIDZ2 gebruiken en dan gaat het me te kostbaar worden om daar eerst een pool te maken die groot genoeg is om mijn huidige hoeveelheid data op te slaan en om daarna van mijn huidige disk weer een nieuwe pool te maken.
Als je niet (semi) "greenfield" begint dan is het redelijk lastig om met ZFS te beginnen, want je raakt alle data die nu op de schijven die je in je pool stopt kwijtVerwijderd schreef op woensdag 23 december 2015 @ 12:45:
Ik snap je niet helemaal
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Omdat het de extra kosten die het mee neemt voor mij niet waard is.Verwijderd schreef op woensdag 23 december 2015 @ 12:45:
Hoe kan een filesystem met betere bescherming overkill zijn? Baat het niet dan schaadt het niet?! Hetzelfde argument hoor ik vaak met RAM geheugen; omdat de CPU maar DDR3/1333 ondersteunt, willen mensen geen DDR3/1600 kopen wat gewoon nieuwere modules zijn voor dezelfde prijs. Maar waarom? Koop gewoon 1600MHz dat draait prima op 1333MHz. Mogelijk heb je er later wel profijt van. Volgens mij gaat eenzelfde argument ook wel op voor ZFS. En daar heb je naast de veiligheid nog vele andere voordelen, zoals goede compressie, snapshots, send/receive, enzovoorts.
Systeem dat aanzienlijk meer geheugen nodig gaat hebben en ik zal meer disks moeten kopen.
Zoals ik het begrepen heb heeft dit in mijn situatie alsnog niet veel nut. Als de files corrupt raken zal dit niet gebeuren door de NAS maar door de client systems / laptop / media center / pc's / tablets. Als een file al corrupt is bij het schrijven naar de ZFS omgeving gaat die hem neem ik aan niet magisch maken.Dat is dus niet veilig als je een legacy filesystem gebruikt. Corruptie wordt niet gedetecteerd en kan dus doorstromen naar al je backups zonder dat je het weet. Dus ook met duizend backups ben je niet veilig tegen alle risico's. Je kunt dit wel deels opvangen door zelf te checksummen. Maar een filesystem waar die functionaliteit al in zit is natuurlijk vele malen beter.
De kans dat mijn NAS een file corrupt maakt door hem aan te raken is volgens mij zo klein dat het voor mij verwaarloosbaar is.
Ik bedoel dat als ik de overstap wil maken naar RAID-Z2 ik eerst een pool moet bouwen die net zo groot is als mijn huidige NAS dat zou dus 5x 3tb disks zijn. en dan moeten er uit eindelijk nog 2 parity disks bij. die ik dan uit mijn huidige nas kan halen. maar dan zit ik nog met 3 oude 3tb disks waar ik op dat moment niet veel nuttigs mee kan doen. En dan heb ik qua storage alsnog niet meer dan dat ik nu netto heb maar het kost me dan wel 5 nieuwe disks.Ik snap je niet helemaal, maar je doelt denk ik op uitbreiden van de pool. Weet dat je bijvoorbeeld een degraded RAID-Z2 kunt aanmaken, en je kunt beginnen met kleine disks en deze vervangen door grotere disks. Ook kun je natuurlijk uitbreiden door vdevs toe te voegen.
Als ik iemand zou kennen die 15tb aan disk space vrij heeft dan zou ik daar graag tijdelijk mijn data stallen zodat ik netjes kan beginnen met een 10 disk ZFS setup dan stap ik graag over!
Maar aangezien mijn originele plan niet door gaat ( ik had een 25tb nas op het werk kunnen lenen ) zal ik het met iets minders moeten oplossen.
[ Voor 6% gewijzigd door Shunt op 23-12-2015 13:54 ]
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
Hoeveel heeft het nu dan? 512 MB? 1 GB? Voor de gemiddelde gebruiker in dit topic is 4 of 8 GB RAM ruim voldoende omdat er overwegend maar één concurrent gebruiker is en het meeste dataverkeer sequentieel is (films streamen).Shunt schreef op woensdag 23 december 2015 @ 13:52:
Systeem dat aanzienlijk meer geheugen nodig gaat hebben
Je zit inderdaad met de migratie, maar in de eindsituatie zal dat wel meevallen? Tenzij je van JBOD naar RAIDZ2 wil natuurlijk, maar dat probleem heb je met RAID 6 ooken ik zal meer disks moeten kopen
Garbage in is inderdaad ook garbage out, maar terwijl het op je NAS staat kan het ook corrupt raken; storage is niet onfeilbaarAls een file al corrupt is bij het schrijven naar de ZFS omgeving gaat die hem neem ik aan niet magisch maken.
De kans dat mijn NAS een file corrupt maakt door hem aan te raken is volgens mij zo klein dat het voor mij verwaarloosbaar is.
Staan die 5x3 schijven ook helemaal vol? Ik heb 8.9 TB vrij... En als ze nu vol staan dan lijkt het me zonde te migreren naar iets dat exact even groot is... Met andere woorden, dan zou je waarschijnlijk toch al andere / meer schijven kopenAls ik iemand zou kennen die 15tb aan disk space vrij heeft
Als je de 'echt' belangrijke data toch al op 2 (of meer) plaatsen hebt staan en je wilt naar 10 schijven dan kun je ook een pool maken met 2 vdevs van 4+1 schijven in RAIDZ. Eerst maak je één RAIDZ vdev aan met je 5 nieuwe schijven, daar maak je een pool van, data van je oude schijven naar de nieuwe pool overzetten en dan van je oude schijven een 2e RAIDZ vdev maken dat je ook aan die pool hangt.
Als je echt naar RAIDZ2 (of RAID 6) over wil (en dan één vdev van 8+2 schijven neem ik aan?) dan moet je naast die 5 nieuwe schijven nog 3 van je oude schijven leeg moeten zien te krijgen, en accepteren dat je geen redundancy hebt totdat je die minimaal één van die laatste 2 toe kunt voegen.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Om verscheidene problemen heb ik nu 6x4TB JBOD's
En in een NAS een RAIDZ2 van 4x2 TB.
Nu wilde ik graag een FreeNAS systeempje op gaan zetten om alle data van die JBODs op 6x4TB RAIDZ2 array te zetten.
Wilde het volgende aanschaffen ervoor>
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G4400 Boxed | € 61,- | € 61,- |
1 | ASRock B150M Pro4S | € 76,10 | € 76,10 |
1 | Crucial CT2K8G4DFD8213 | € 72,95 | € 72,95 |
Bekijk collectie Importeer producten | Totaal | € 210,05 |
Nu is mijn vraag eigenlijk, kan ik ook overweg met 8GB RAM ipv 16?
En ja, voordat daar discussie over komt (weer) het is "gewoon" non -ECC ram
(heb dat hele tocpi hier op tweakers ook al gelezen. Op de FreeNAS forums hebben ze een erg lijnrechte blik erop)
Zal maar max 2 concurrent users zijn denk ik, heel soms 3.
I don't suffer from insanity. I enjoy every minute of it! Battle.net
Je moet alleen geen performance hoogvlieger verwachten.
Maar zolang je niet meer verwacht dan Gigabit kan je prima met 4 of 8GB toe.
Even niets...
Wat is je migratiescenario? En hoe vol staan die schijven? Want je gaat er 8 TB aan ruimte op achteruit en je de bestaande data op je schijven gaat verloren zodra je er een RAIDZ2 van maakt...kihon schreef op woensdag 23 december 2015 @ 14:39:
Nu wilde ik graag een FreeNAS systeempje op gaan zetten om alle data van die JBODs op 6x4TB RAIDZ2 array te zetten.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Daar zit het eerste probleem mijn systeem draait nu als plex server en ik ben er nog niet helemaal over eens of ik dit zo ga houden. Er draaien gemiddeld 1 tot 3 actieve streams + 3 / 4 devices met my documents gecyned naar de nas (om de paar min een check / sync)Paul schreef op woensdag 23 december 2015 @ 14:26:
[...]
Hoeveel heeft het nu dan? 512 MB? 1 GB? Voor de gemiddelde gebruiker in dit topic is 4 of 8 GB RAM ruim voldoende omdat er overwegend maar één concurrent gebruiker is en het meeste dataverkeer sequentieel is (films streamen).
Als ik zou overstappen van JBOD naar RAID 6 zou ik beginnen met 4 disks raid 6 data over gooien van de JBOD omgeving naar de raid 6 omgeving en zodra er van de JBOD omgeving 2 disks vrij zijn die weer in de RAID omgeving er bij zetten en zo door tot alle disks er in zitten. (heb hier nog een lege 3tb disk liggen) mijn totale aanschaf qua disks zit dan op 3x 3tb disks.Je zit inderdaad met de migratie, maar in de eindsituatie zal dat wel meevallen? Tenzij je van JBOD naar RAIDZ2 wil natuurlijk, maar dat probleem heb je met RAID 6 ook
En wat is nu het echte risico in procenten dat een file die static op een disk staat en alleen door externe devices aangeraakt zal worden dat de NAS zelf een file corrupt maakt? Naar mijn weten is het nog altijd zo dat zolang de NAS zelf de files niet aan raakt een file niet op magische wijze kapot maakt. (met uitzondering van bad sectors natuurlijk.Garbage in is inderdaad ook garbage out, maar terwijl het op je NAS staat kan het ook corrupt raken; storage is niet onfeilbaarIk kopiëer het éénmalig van mijn PC naar mijn NAS, maar op die laatste staat het vervolgens maanden / jaren.
Laten we zeggen dat ik nog ongeveer 1.5tb vrij is. Ik hoef slechts 3 disks bij te kopen om op een totaal van 10 disks uit te komen wat uit zou komen op 24tb storage netto in een raid 6 config. Ik zou er dan dus 6tb op vooruit gaan met de mogelijkheid om meer disks bij te plaatsen.Staan die 5x3 schijven ook helemaal vol? Ik heb 8.9 TB vrij... En als ze nu vol staan dan lijkt het me zonde te migreren naar iets dat exact even groot is... Met andere woorden, dan zou je waarschijnlijk toch al andere / meer schijven kopen
Ik wil juist met al mijn data in ieder geval een disk failure kunnen overleven de echt belangrijke data daar zorg ik software matig voor dat die binnen mijn budget secure staat.Als je de 'echt' belangrijke data toch al op 2 (of meer) plaatsen hebt staan en je wilt naar 10 schijven dan kun je ook een pool maken met 2 vdevs van 4+1 schijven in RAIDZ. Eerst maak je één RAIDZ vdev aan met je 5 nieuwe schijven, daar maak je een pool van, data van je oude schijven naar de nieuwe pool overzetten en dan van je oude schijven een 2e RAIDZ vdev maken dat je ook aan die pool hangt.
Zover ik het begrijp kan ik gewoon bij een 4 disk raid 6 disks bij plaatsen en zodra de disks er bij hangen de volume growen.Als je echt naar RAIDZ2 (of RAID 6) over wil (en dan één vdev van 8+2 schijven neem ik aan?) dan moet je naast die 5 nieuwe schijven nog 3 van je oude schijven leeg moeten zien te krijgen, en accepteren dat je geen redundancy hebt totdat je die minimaal één van die laatste 2 toe kunt voegen.
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
Ik heb nog 2 lege 4 TB ( die dus in de Z2 array komen) disks en een handvol 2 TB die eveneens leeg zijn.Paul schreef op woensdag 23 december 2015 @ 15:18:
[...]
Wat is je migratiescenario? En hoe vol staan die schijven? Want je gaat er 8 TB aan ruimte op achteruit en je de bestaande data op je schijven gaat verloren zodra je er een RAIDZ2 van maakt...
Net alle SMART waardes van de lege schijven geckeched en zijn allemaal 100% in orde.
Data die op de RAIDZ2 komt te staan eerst checksums van maken en dan naar de lege schijven kopieren en tenslotte terug naar de Z2. middels checksumming ofcourse
Gaat wel lang duren, maar kan geen sneller/beter? process bedenken.
I don't suffer from insanity. I enjoy every minute of it! Battle.net
# | Product | Prijs | Subtotaal |
1 | ASRock C2550D4I | € 315,64 | € 315,64 |
3 | WD Green HDD, 3TB | € 97,95 | € 293,85 |
1 | Fractal Design Node 304 Zwart | € 75,95 | € 75,95 |
Bekijk collectie Importeer producten | Totaal | € 685,44 |
Na jullie adviezen hebben gelezen en zelf wat gezocht te hebben heb ik een config samengesteld die ik jullie graag wil voorleggen (zie boven). Hierbij komt nog ECC geheugen (Crucial CT5008102).
Doel is een server te bouwen die meest backups maakt en films streamt (geen transcoding).
Misschien in de toekomst wat eenvoudige (firewall en downloadtaken). Ik denk erover om FreeNAS met ZFS te draaien.
Ik heb me laten overtuigen door:
- De geheugencapaciteit van 16GB die mogelijk is en de mogelijkheid van ECC
- De grote hoeveelheid SATA aansluitingen op dit bord (6x SATA3)
- De zuinigheid van de CPU (10W TDP) met toch nog genoeg reserve.
Alternatieven die ik heb bekeken, zoals J1900 of met de Pentium N3700 hebben allemaal max 8 GB mem, ondersteunen geen ECC, en hebben 2 SATA aansluitingen.
Wat me nog tegenvalt is de totale kosten. Hebben jullie nog ideeen?
3.18 kWp ZW, 2.76 kWp NO, 510Wp ZW (schuur)
Het is nog wat slordig met kabels en zo maar alles werkt behalve de schijven lijken niet gevonden te willen worden... Toch hoor ik ze wel even ... Ik heb ze op verschillende plekken aangesloten maar geen sjoege... zal wel iets over 't hoofd zien. Mocht iemand een tip hebben, altijd fijn :-D.
Moet ik die LSI controller nog flashen naar IT mode? (https://forums.freenas.or...4s-to-p16-lsi-2308.36890/ las ik er bijvoorbeeld over maar nog geen idee of ik dat moet doen en waarom ik dat zou willen?)
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1231 V3 Boxed | € 261,51 | € 261,51 |
1 | ASRock E3C224D4I-14S | € 277,50 | € 277,50 |
3 | WD Green HDD, 4TB | € 138,50 | € 415,50 |
1 | Fractal Design Define R5 Zwart | € 101,95 | € 101,95 |
1 | Kingston ValueRAM KVR16E11K4/32 | € 238,50 | € 238,50 |
1 | Cooler Master V Series V550 - 80+ Gold | € 96,95 | € 96,95 |
Bekijk collectie Importeer producten | Totaal | € 1.391,91 |
[/quote]
[ Voor 4% gewijzigd door WTM op 23-12-2015 22:57 ]
Als je wilt besparen kan je voor 8GB RAM gaan en PCI-E kaarten gebruiken voor meer SATA aansluitingen.Kets_One schreef op woensdag 23 december 2015 @ 22:27:
Wat me nog tegenvalt is de totale kosten. Hebben jullie nog ideeen?
Die 16GB eis is leuk maar wel een punt waar je het meeste op kan besparen.
Anders Asus P9D-X met G4400?
[ Voor 4% gewijzigd door Tsurany op 23-12-2015 23:08 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
M'n harddisks, WD Greens, worden niet gezien zodra ze via de 'sata naar sas-kabel' aangesloten zitten. Wel op een losse sata poort (ik heb alle 3 die schijven getest, die worden dus via die andere route wel gezien.
Ik verdenk de sas naar sata kabel, dat die rot is maar ook de andere identieke kabel die erbij zat geeft hetzelfde ongewenste effect. De hd los aangesloten op de enkele sata poort die deed het wel (voeding zo gelaten en alleen de sata stekkertjes geprobeerd). Er zijn 3 sas-poorten (2 horen bij de LSI controller en de andere hoort bij de chipset controller. Op geen van de sas poorten krijg ik een sata schijf aan de praat / leesbaar in de bios / als boot optie etc.
Ik heb ook via FAQ's gekeken wat ik in de uefi/bios nog moest aanpassen. Ik krijg de LSI controller wel zichtbaar maar als ik verder ga kijken zie ik 0 physical disks verbonden....
Ik ga nu maar slapen, wie weet komt het antwoord vanzelf in de droommachine binnen ;-) (maar sta open voor jullie suggesties :-))
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1231 V3 Boxed | € 261,51 | € 261,51 |
1 | ASRock E3C224D4I-14S | € 277,50 | € 277,50 |
3 | WD Green HDD, 4TB | € 138,50 | € 415,50 |
1 | Fractal Design Define R5 Zwart | € 101,95 | € 101,95 |
1 | Kingston ValueRAM KVR16E11K4/32 | € 238,50 | € 238,50 |
1 | Cooler Master V Series V550 - 80+ Gold | € 96,95 | € 96,95 |
Bekijk collectie Importeer producten | Totaal | € 1.391,91 |
Je weet dat er 2 types SAS fanout cables zijn? Los daarvan, word je controller in het OS wel herkend? (lspci/dmesg/lsmod etc)WTM schreef op donderdag 24 december 2015 @ 03:33:
Helaas gaat 't leven van mij als freenas bouwer niet over rozen. Hieronder wat er inzit (alleen voeding is een V650 ipv).
M'n harddisks, WD Greens, worden niet gezien zodra ze via de 'sata naar sas-kabel' aangesloten zitten. Wel op een losse sata poort (ik heb alle 3 die schijven getest, die worden dus via die andere route wel gezien.
Ik verdenk de sas naar sata kabel, dat die rot is maar ook de andere identieke kabel die erbij zat geeft hetzelfde ongewenste effect. De hd los aangesloten op de enkele sata poort die deed het wel (voeding zo gelaten en alleen de sata stekkertjes geprobeerd). Er zijn 3 sas-poorten (2 horen bij de LSI controller en de andere hoort bij de chipset controller. Op geen van de sas poorten krijg ik een sata schijf aan de praat / leesbaar in de bios / als boot optie etc.
Ik heb ook via FAQ's gekeken wat ik in de uefi/bios nog moest aanpassen. Ik krijg de LSI controller wel zichtbaar maar als ik verder ga kijken zie ik 0 physical disks verbonden....
Ik ga nu maar slapen, wie weet komt het antwoord vanzelf in de droommachine binnen ;-) (maar sta open voor jullie suggesties :-))
# Product Prijs Subtotaal 1 Intel Xeon E3-1231 V3 Boxed € 261,51 € 261,51 1 ASRock E3C224D4I-14S € 277,50 € 277,50 3 WD Green HDD, 4TB € 138,50 € 415,50 1 Fractal Design Define R5 Zwart € 101,95 € 101,95 1 Kingston ValueRAM KVR16E11K4/32 € 238,50 € 238,50 1 Cooler Master V Series V550 - 80+ Gold € 96,95 € 96,95 Bekijk collectie
Importeer productenTotaal € 1.391,91
Verder is het (volgens mij) nog steeds raadzaam de idle timer van die greens uit/lang te zetten om de cycles te limiteren
Er zijn 2 verschillende soorten, je hebt Forward breakout en Reverse breakout, jij gaat waarschijnlijk van moederbord (HBA kaart sas aansluiting) naar SATA, dan moet je Forward breakout cable hebben.WTM schreef op donderdag 24 december 2015 @ 03:33:
Helaas gaat 't leven van mij als freenas bouwer niet over rozen. Hieronder wat er inzit (alleen voeding is een V650 ipv).
M'n harddisks, WD Greens, worden niet gezien zodra ze via de 'sata naar sas-kabel' aangesloten zitten. Wel op een losse sata poort (ik heb alle 3 die schijven getest, die worden dus via die andere route wel gezien.
Ik verdenk de sas naar sata kabel, dat die rot is maar ook de andere identieke kabel die erbij zat geeft hetzelfde ongewenste effect. De hd los aangesloten op de enkele sata poort die deed het wel (voeding zo gelaten en alleen de sata stekkertjes geprobeerd). Er zijn 3 sas-poorten (2 horen bij de LSI controller en de andere hoort bij de chipset controller. Op geen van de sas poorten krijg ik een sata schijf aan de praat / leesbaar in de bios / als boot optie etc.
Ik heb ook via FAQ's gekeken wat ik in de uefi/bios nog moest aanpassen. Ik krijg de LSI controller wel zichtbaar maar als ik verder ga kijken zie ik 0 physical disks verbonden....
Ik ga nu maar slapen, wie weet komt het antwoord vanzelf in de droommachine binnen ;-) (maar sta open voor jullie suggesties :-))
# Product Prijs Subtotaal 1 Intel Xeon E3-1231 V3 Boxed € 261,51 € 261,51 1 ASRock E3C224D4I-14S € 277,50 € 277,50 3 WD Green HDD, 4TB € 138,50 € 415,50 1 Fractal Design Define R5 Zwart € 101,95 € 101,95 1 Kingston ValueRAM KVR16E11K4/32 € 238,50 € 238,50 1 Cooler Master V Series V550 - 80+ Gold € 96,95 € 96,95 Bekijk collectie
Importeer productenTotaal € 1.391,91
Als je van SATA naar een SAS backplane gaat heb je Reverse breakout cables nodig.
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850
Verwijderd
De kosten zijn juist lager, omdat je geen speciale TLER-schijven nodig hebt en geen dure RAID controller, wat in jouw situatie wel vereist is.Shunt schreef op woensdag 23 december 2015 @ 13:52:
Omdat het de extra kosten die het mee neemt voor mij niet waard is.
Systeem dat aanzienlijk meer geheugen nodig gaat hebben en ik zal meer disks moeten kopen.
Je hebt ook niet 'meer geheugen' nodig. 64 megabyte is voldoende om ZFS te gebruiken. De performance zal dan wel slechter zijn versus een legacy filesystem, maar dit is echt een mythe die veel genoemd wordt. ZFS gebruikt minder geheugen dan andere filesystems zoals FAT16, FAT32, NTFS, UFS, Ext2, enzovoorts.
Enig punt is wel dat omdat je mogelijkheden tot expansion beperkt zijn, je meer schijven in één keer moet kopen. Dus elke keer 4 - 8 schijven tegelijk. Dat is wel een punt. Staat tegenover dat je liever je geld aan schijven uitgeeft dan aan 'overhead' zoals een dure controller, een battery backup unit en duurdere schijven omdat je TLER nodig hebt.
Dat klopt opzich wel, daarom is ECC op de client ook belangrijk. Maar bedenk dat je de integriteit wel kunt controleren. En eenmaal in de handen van ZFS kun je de integriteit ook altijd bewaken door de errordetectie. Dus snapshots maken en je data is voor altijd beschermd. Met ZFS send/receive kun je veilig backups maken. Elke corruptie zal ooit ontdekt worden.Zoals ik het begrepen heb heeft dit in mijn situatie alsnog niet veel nut. Als de files corrupt raken zal dit niet gebeuren door de NAS maar door de client systems / laptop / media center / pc's / tablets.
Als je clients vervolgens bestanden gaan wijzigen en daarbij corruptie voorkomt, heb je altijd nog de oudere versies van die bestanden dankzij de snapshots. Kortom, er is zeker toegevoegde waarde bij ZFS.
Vraag maar aan wat mensen met een ZFS NAS of ze ooit checksum errors hebben gezien die ZFS heeft gecorrigeerd. Heel veel mensen hebben dit vroeg of laat toch wel gehad. Dus dat betekent ook dat je baat hebt bij de bescherming die ZFS biedt.De kans dat mijn NAS een file corrupt maakt door hem aan te raken is volgens mij zo klein dat het voor mij verwaarloosbaar is.
Dat is niet waar. J1900 ondersteunt 16GiB. Veel moederbordfabrikanten zeggen inderdaad 8GiB. Dat is simpelweg onjuist al mijn J1900 bordjes draaien hier met twee reepjes van 8GiB. Inderdaad wel non-ECC dat is dus de grootste plus van een Avoton (C2550). Ook dat 2 SATA is niet helemaal waar want vaak worden er extra ASMedia-chipjes aangebracht. ASRock doet dat zodat je 4 SATA hebt en SuperMicro heeft een J1900 bord met 6x SATA. Beide bordjes heb ik in gebruik en die SuperMicro X10SBA is mijn hoofd NAS die altijd aanstaat. Prima ding met DC-DC onboard. Wel iets duurder dan andere J1900 bordjes.Kets_One schreef op woensdag 23 december 2015 @ 22:27:
Alternatieven die ik heb bekeken, zoals J1900 of met de Pentium N3700 hebben allemaal max 8 GB mem, ondersteunen geen ECC, en hebben 2 SATA aansluitingen.
Je betaalt nu best wel de hoofdprijs voor Avoton, terwijl dat hedendaags niet zoveel waar voor je geld biedt. Een duur systeem, maar niet veel performance en niet zoveel features. Met de IPMI controller ook helemaal niet zo zuinig. Het zijn allemaal afwegingen, maar een J1900 systeem zou veel goedkoper en ook zuiniger zijn, met als voornaamste verlies de mogelijkheid tot ECC RAM. Ik zelf raad vooral een keuze tussen J1900 en een veel krachtiger systeem aan, op basis van een Core i5 bijvoorbeeld. Daar tussenin is de prijs-kwaliteit verhouding gewoon veel slechter.
Er zitten maar twee kabels bij die passen op de sas aansluiting, dat moeten toch de goede zijn?! Aan die kabel zit 1 sas aansluiting (die gaat met een 'klik' in de aansluiting) en dat loopt naar 4 s-ata aansluitingen 0,1,2,3.
LSI 2308: 8 x SAS2 6Gbps ( from 2x mini SAS 8087 connector )
Die schijven zijn goed, want op de 'echte' s-ata aansluiting werken ze stuk voor stuk. (Voeding is dus ook goed). De onboard LSI 2308 controller kan toch niet stuk zijn? Maar beide mini sas connector naar sata kunnen ook niet stuk zijn, wel heel toevallig.....
Somme vraag misschien?
Als je in de BIOS kunt van de controller zie je daar schijven?
Wie zegt dat het twee verschillende zijn?WTM schreef op donderdag 24 december 2015 @ 09:50:
Das inderdaad leuk ;-). maar van de twee die er bijgeleverd zijn werkt geen van beide..... ?
Ik zou hoe dan ook even in je OS kijken of je de controller zelf uberhaubt ziet (lspci / dmesg enz)
Ik heb er wel twijfels bij, want op de intel controller werkt het via sata direct wel maar op de intel controller via die sas naar sata kabel niet. Op de LSI controller herkent het die geen enkele schijf.
[ Voor 29% gewijzigd door _-= Erikje =-_ op 24-12-2015 10:30 ]
Wat zou ik nog meer moeten nakijken?
Dank voor alle hulp en meedenken :-)
[ Voor 11% gewijzigd door WTM op 24-12-2015 10:34 ]
[ Voor 172% gewijzigd door _-= Erikje =-_ op 24-12-2015 10:38 ]
In de manual staat die bij nummer 13.WTM schreef op donderdag 24 december 2015 @ 10:37:
die in de manual onder nummer 21 staat (maar die andere twee sas poorten, zelfde verhaal)
Daarnaast kun je in het bios naar Storage Coniguration gaan, daar LSI controller op enabled zetten (ipv auto) en Bootable LSI Controller op enabled, dan krijg je iig het LSI option rom (waar je ook nog eea in kan stellen/controleren)
In de bios staat het volgens mij aan ik kan de LSI alleen op auto zetten of disabled. Niet op enabled.
De LSI option rom heb ik gevonden maar daar zie ik ook bij disks 0 staan ?
/edit: ik heb ook naar Freenas geboot maar daar zie ik ook geen schijven
[ Voor 11% gewijzigd door WTM op 24-12-2015 10:47 ]
Dat freenas geen schijven ziet is logisch als de bekabeling het issue is, wat wel handig is is kijken of freenas je controller gezien heeft (dus op de prompt even lspci intypen, daar zou iig iets van LSI tussen moeten staan dan)
Als het option rom al geen schijven ziet gaat je OS ze never nooit niet zien iig. Ritje naar de PC boer voor een goede fanout kabel?
[ Voor 78% gewijzigd door _-= Erikje =-_ op 24-12-2015 10:49 ]
Voldoende om het te draaien ja maar om de zelfde prestaties te halen en van alle functies gebruik te kunnen maken is volgens mij het advies tussen de 8 en de 16gb als ik mij niet vergis. Dit is geen grote koste post maar het is er wel eentje.Verwijderd schreef op donderdag 24 december 2015 @ 09:08:
[...]
De kosten zijn juist lager, omdat je geen speciale TLER-schijven nodig hebt en geen dure RAID controller, wat in jouw situatie wel vereist is.
Je hebt ook niet 'meer geheugen' nodig. 64 megabyte is voldoende om ZFS te gebruiken. De performance zal dan wel slechter zijn versus een legacy filesystem, maar dit is echt een mythe die veel genoemd wordt. ZFS gebruikt minder geheugen dan andere filesystems zoals FAT16, FAT32, NTFS, UFS, Ext2, enzovoorts.
En dit is nu het hele punt ik heb al een aantal disks en ik kan het financieel gewoon niet verantwoorden om nu in eens 10 nieuwe disks te kopen of 8 voor de zelfde storage. Eventueel zou ik natuurlijk kunnen smokkelen met het bouwen door even geen parity disks te plaatsen. Maar dan blijf ik tegen een kosten plaatje van 6 nieuwe disks vs 3 nieuwe zitten.Enig punt is wel dat omdat je mogelijkheden tot expansion beperkt zijn, je meer schijven in één keer moet kopen. Dus elke keer 4 - 8 schijven tegelijk. Dat is wel een punt. Staat tegenover dat je liever je geld aan schijven uitgeeft dan aan 'overhead' zoals een dure controller, een battery backup unit en duurdere schijven omdat je TLER nodig hebt.
Verder heb ik geen nieuwe dure controller nodig. ik heb hier nog een zooi sas 3 controllers liggen waar mooi 8 disks per stuk op kunnen. Die zou ik dus mooi kunnen gebruiken in een software raid opstelling.
Enige kosten die ik dan nog heb zijn die van het nieuwe systeem (mobo, cpu, geheugen, PSU en kast) Die kosten heb ik ongeacht of ik nu voor ZFS of voor RAID 6 zou gaan.
Ik weet het niet hoor maar ik ga niet al mijn hardware in huis vervangen door systemen die ECC hebben. Verder heb ik nog geen laptops, telefoons of tablets gezien met ECC geheugen. Ik snap dat als je honderd procent zekerheid wilt hebben je dit moet hebben. Alleen het gaat hier om huis tuin en keuken data niet om intellectual property rotzooi of medische gegevens.Dat klopt opzich wel, daarom is ECC op de client ook belangrijk. Maar bedenk dat je de integriteit wel kunt controleren. En eenmaal in de handen van ZFS kun je de integriteit ook altijd bewaken door de errordetectie. Dus snapshots maken en je data is voor altijd beschermd. Met ZFS send/receive kun je veilig backups maken. Elke corruptie zal ooit ontdekt worden.
Als je clients vervolgens bestanden gaan wijzigen en daarbij corruptie voorkomt, heb je altijd nog de oudere versies van die bestanden dankzij de snapshots. Kortom, er is zeker toegevoegde waarde bij ZFS.
Dat geloof ik gelijk en dat is absoluut een mooi voordeel van ZFS maar de kosten wegen het gewoon niet op tegen de baten voor mij persoonlijk zodra ik greenfield opnieuw zou beginnen zou ik zo voor ZFS kiezen maar dat gaat nu gewoon niet. Op het werk zou ik ook graag voor alles de beste oplossing neer willen zetten. Maar ik heb daar ook geleerd de beste mogelijke optie te benutten die het beste past binnen budget, eisen en huidige situatie. En ik kan je verklappen dat is nagenoeg nooit de beste / leukste optie.Vraag maar aan wat mensen met een ZFS NAS of ze ooit checksum errors hebben gezien die ZFS heeft gecorrigeerd. Heel veel mensen hebben dit vroeg of laat toch wel gehad. Dus dat betekent ook dat je baat hebt bij de bescherming die ZFS biedt.
Tenzij iemand 15tb storage wil delen met mij zodat ik greenfield kan beginnen
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
Dit geeft lspci
00:1c.0 PCI bridge: Intel Corporation 8 Series/C220 Series Chipset Family PCI Ex
press Root Port #1 (rev d5)
00:1c.2 PCI bridge: Intel Corporation 8 Series/C220 Series Chipset Family PCI Ex
press Root Port #3 (rev d5)
00:1c.3 PCI bridge: Intel Corporation 8 Series/C220 Series Chipset Family PCI Ex
press Root Port #4 (rev d5)
00:1c.7 PCI bridge: Intel Corporation 8 Series/C220 Series Chipset Family PCI Ex
press Root Port #8 (rev d5)
00:1d.0 USB controller: Intel Corporation 8 Series/C220 Series Chipset Family US
B EHCI #1 (rev 05)
00:1f.0 ISA bridge: Intel Corporation C224 Series Chipset Family Server Standard
SKU LPC Controller (rev 05)
00:1f.3 SMBus: Intel Corporation 8 Series/C220 Series Chipset Family SMBus Contr
oller (rev 05)
02:00.0 Serial Attached SCSI controller: LSI Logic / Symbios Logic SAS2308 PCI-E
xpress Fusion-MPT SAS-2 (rev 05)
04:00.0 Ethernet controller: Intel Corporation I210 Gigabit Network Connection (
rev 03)
05:00.0 Ethernet controller: Intel Corporation I210 Gigabit Network Connection (
rev 03)
06:00.0 PCI bridge: ASPEED Technology, Inc. AST1150 PCI-to-PCI Bridge (rev 02)
07:00.0 VGA compatible controller: ASPEED Technology, Inc. ASPEED Graphics Famil
y (rev 21)
[root@freenas ~]# c
Nee, je hebt waarschijnlijk 2 reverse breakout kabels terwijl je een forward breakout nodig hebtWTM schreef op donderdag 24 december 2015 @ 10:53:
maar zouden beiden kabels kapot zijn!?
Daar is ie iigDit geeft lspci
02:00.0 Serial Attached SCSI controller: LSI Logic / Symbios Logic SAS2308 PCI-E
xpress Fusion-MPT SAS-2 (rev 05)
Wat je nodig hebt is:
Mini SAS (SFF-8087) to 4 SATA Cable (forward breakout)
Maar wat doet die reverse breakout kabel dan? waar zou die nuttig voor zijn?
Suggesties, nee ik kom uit Utrecht en ben totaal niet bekend in Amsterdam
Zou zoiets goed zijn? https://www.afuture.nl/productview.php?productID=256352
Het ziet er echt hetzelfde uit als mijn kabels, hoe kan ik checken wat voor'n kabels ik hier heb? Echt niets aan te zien?
https://www.afuture.nl/productview.php?productID=76403
je kan er weinig aan checken aangezien de connectoren 1:1 hetzelfde zijn, alleen de pinout verschilt. Van die adaptec kan ik zo 123 niet vinden welke kant dat op is. Maar als je die vraag aan hun stelt kunnen ze je dat vast wel vertellen
[ Voor 14% gewijzigd door _-= Erikje =-_ op 24-12-2015 11:14 ]
Ik ga kijken wat het dichtste bij is. Ik heb m'n zinnen gezet om te spelen met dit systeem kom ik niet verder ... grrr !! :-D Wel tof van je dat je zo meedenkt, anders had ik niet geweten waar het te zoeken.
pricewatch: 3Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M
En als je in arnhem of omg woont, kan je ook wel bij mij even 1tje komen lenen.
[ Voor 17% gewijzigd door rikadoo op 24-12-2015 11:57 ]
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850
Verwijderd
8GiB is vier tientjes. Maar je hebt echt niet persé 8GiB nodig voor goede prestaties. Sowieso heeft ZFS heel andere performance figures dan andere filesystems. Zo is de random write snelheid vele malen hoger doordat random writes als sequential worden weggeschreven. Ook is de caching intelligenter zodat metadata en random reads vaker door de ARC cache worden opgevangen. Daar staat tegenover dat de sequential write performance bij ZFS vaak wel lager is en ook gevoelig is voor de RAM grootte. Bij legacy filesystems is dit niet zo; met 64MiB RAM schrijf je even snel als met 64GiB RAM.Shunt schreef op donderdag 24 december 2015 @ 10:52:
Voldoende om het te draaien ja maar om de zelfde prestaties te halen en van alle functies gebruik te kunnen maken is volgens mij het advies tussen de 8 en de 16gb als ik mij niet vergis. Dit is geen grote koste post maar het is er wel eentje.
Toch vind ik dit argument, wat kennelijk vastgeroest is want ik hoor het heel vaak, complete bullshit. Je kunt ZFS NAS prima met minder RAM geheugen draaien. Voor gigabit in elk geval. En voor 4GiB praten we over twee tientjes. Dus waar praten we over?
Ik draai ZFS op mijn Geode LX met 1GiB geheugen. Voor modernere systemen is het wel leuk om veel RAM te hebben, zoals 16GiB op mijn J1900 systeempjes. Niet omdat het moet, maar omdat het leuk is. ZFS kan de RAM heel goed gebruiken. Maar dat is heel wat anders dan nodig hebben.
Dezelfde prijs ongeveer als met een dure controller, BBU en TLER disks. Maar dan heb je wel veel meer opslagruimte. Dus wat mij betreft een betere keuze.En dit is nu het hele punt ik heb al een aantal disks en ik kan het financieel gewoon niet verantwoorden om nu in eens 10 nieuwe disks te kopen of 8 voor de zelfde storage.
Dat kan dus niet, want je kan geen Software RAID6 gebruiken op BSD platform, en al helemaal niet met online expansion feature. Dat kan wel onder Linux md-raid volgens mij. Maar bedenk je wel dat tijdens de expansion dingen kunnen misgaan en dan kun je alle data kwijt zijn of in elk geval grote problemen hebben om nog iets van je data terug te krijgen.Verder heb ik geen nieuwe dure controller nodig. ik heb hier nog een zooi sas 3 controllers liggen waar mooi 8 disks per stuk op kunnen. Die zou ik dus mooi kunnen gebruiken in een software raid opstelling.
Wil je onder BSD platform, dan zit je vast aan een dure controller zoals Areca, aan een BBU want je wilt wel write-back of je write performance is helemaal knudde, en je hebt TLER disks nodig of ze worden uit je RAID array geschopt bij bad sectors. Dat zijn best wat kosten die je ook simpelweg aan meer schijven had kunnen uitgeven. Die optie vind ik echt veel beter.
Hoe kan ik aan deze: https://www.afuture.nl/productview.php?productID=76403 (Erikje) zien dat het forwardbreakout is?
https://www.allekabels.nl...sata-kabels/sata-sas.html
Ik moet een sas naar sata hebben of een sata naar sas ? Wat is forward breakout ? :-D
Verwijderd
Mag ik je wel verzoeken voortaan de Wijzig-knop te gebruiken om je bericht te wijzigen? Het plaatsen van meerdere berichten achter elkaar is doorgaans ongewenst. Zeker voor kleine aanvullingen. Bij enorm grote lappen tekst kan het voor de overzichtelijkheid wel wenselijk zijn om meerdere berichten te plaatsen. Maar zoals bij jou is het beter als je dit voortaan in je voorgaande bericht opneemt door deze te wijzigen.
Verwijderd
Dat is pertinente onzin. Mdadm is erg intelligent bij dat soort operaties en voert alleen kopiëeracties uit. Daarnaast wordt de voortgang bijgehouden zodat zelfs in het geval van stroomuitval de operatie gewoon hervat kan worden. Bij sommige operaties is wel een backup van één block nodig maar daarvoor is een simpele usb stick al groot zat (en als je het redundant wil doen kun je dat altijd naar een andere stick kopiëren). Bij dat soort operaties kan er wel e.e.a. fout gaan als er precies op dat moment een HDD stuk gaat, maar bij RAID 6 ben je pas data kwijt als er drie of meer schijven stuk gaan. Het growen van een mdadm array is dus zeker niet zo risicovol als jij wil doen geloven.Verwijderd schreef op donderdag 24 december 2015 @ 12:00:
[...]
Maar bedenk je wel dat tijdens de expansion dingen kunnen misgaan en dan kun je alle data kwijt zijn of in elk geval grote problemen hebben om nog iets van je data terug te krijgen.
Wie zegt dat het onder BSD moet? Ik gebruik ook liever BSD dan Linux (native welteverstaan, ik heb geen webinterface nodigVerwijderd schreef op donderdag 24 december 2015 @ 12:00:
Wil je onder BSD platform, dan zit je vast aan een dure controller zoals Areca, aan een BBU want je wilt wel write-back of je write performance is helemaal knudde, en je hebt TLER disks nodig of ze worden uit je RAID array geschopt bij bad sectors. Dat zijn best wat kosten die je ook simpelweg aan meer schijven had kunnen uitgeven. Die optie vind ik echt veel beter.
Ik merk wel een erg hoog ZFS-fanboy gehalte. ZFS is een heel mooi systeem maar het feit dat een vdev niet uit te breiden is zorgt er voor dat je bij uitbreiding altijd veel schijven moet kopen. Of je vervangt al je schijven door nieuwe, of je maakt een extra vdev aan, maar dan ben je ook weer extra schijven kwijt aan redundantie. Raid mag dan minder goed beschermen dan ZFS, het is veel flexibeler en makkelijk en veilig uit te breiden. Voor een thuisgebruiker die storage niet als hobby heeft maar wel de mogelijkheid open wil houden om uit te breiden zonder veel schijven aan te hoeven schaffen is dat een killer feature. Niet iedereen heeft de mogelijkheid of is bereid om even een paar honderd euro aan extra schijven uit te geven als het ook een stuk goedkoper kan. En laten we eerlijk zijn, raid is misschien minder veilig dan ZFS maar altijd nog heel wat beter dan een losse schijf waarbij alle data foetsie is als die schijf stuk gaat.
Het was een kapotte kabel (er zaten er twee bij, beide waren defect. What are the odds!!). We denken wel dat de kabels van het juiste formaat waren, daar dit toch een retail bordje is en dit op deze manier bij anderen wel gewerkt heeft.... (met materiaal dat geleverd word).
Dank voor alle hulp nogmaals!
Verwijderd
Aangezien jij het zo goed weet, vertel mij eens wat er gebeurt als tijdens de urenlange zo niet dagenlange restripe procedure er bad sectors optreden op meerdere disks, die de redundancy overschrijden? Of een disk failure in combinatie met bad sectors, zoals dit artikel aanhaalt: Why RAID5 stops working in 2009.Verwijderd schreef op donderdag 24 december 2015 @ 22:08:
Dat is pertinente onzin. Mdadm is erg intelligent bij dat soort operaties en voert alleen kopiëeracties uit. Daarnaast wordt de voortgang bijgehouden zodat zelfs in het geval van stroomuitval de operatie gewoon hervat kan worden.
Wat gebeurt er volgens jou in een dergelijke situatie?
Dit is een geluid wat eigenlijk te weinig gehoord wordt in dit topic. Ik ben zelf overtuigd dat zeker mensen die kleinere builds maken < 8-10 disks MDADM best kunnen overwegen. ZFS is beter qua bescherming van de integriteit van je data, maar daar betaal je dan ook voor omdat je - bij uitbreiding - dus extra parity disks moet kopen die je anders of niet nodig had, of voor data had kunnen inzetten.Verwijderd schreef op donderdag 24 december 2015 @ 22:08:
ZFS is een heel mooi systeem maar het feit dat een vdev niet uit te breiden is zorgt er voor dat je bij uitbreiding altijd veel schijven moet kopen. Of je vervangt al je schijven door nieuwe, of je maakt een extra vdev aan, maar dan ben je ook weer extra schijven kwijt aan redundantie. Raid mag dan minder goed beschermen dan ZFS, het is veel flexibeler en makkelijk en veilig uit te breiden. Voor een thuisgebruiker die storage niet als hobby heeft maar wel de mogelijkheid open wil houden om uit te breiden zonder veel schijven aan te hoeven schaffen is dat een killer feature. Niet iedereen heeft de mogelijkheid of is bereid om even een paar honderd euro aan extra schijven uit te geven als het ook een stuk goedkoper kan. En laten we eerlijk zijn, raid is misschien minder veilig dan ZFS maar altijd nog heel wat beter dan een losse schijf waarbij alle data foetsie is als die schijf stuk gaat.
De vraag is aan Wes gericht, maar ik heb helaas ook last van een mening. De kans op een URE tijdens een rebuild of een array grow actie is uiterst klein, zeker thuis.Verwijderd schreef op donderdag 24 december 2015 @ 23:37:
[...]
Aangezien jij het zo goed weet, vertel mij eens wat er gebeurt als tijdens de urenlange zo niet dagenlange restripe procedure er bad sectors optreden op meerdere disks, die de redundancy overschrijden? Of een disk failure in combinatie met bad sectors, zoals dit artikel aanhaalt: Why RAID5 stops working in 2009.
Wat gebeurt er volgens jou in een dergelijke situatie?
De 10^14 specificatie voor wat betreft UREs is een worst-case specificatie. In de praktijk zijn disks VEEL betrouwbaarder. Anders zou ik met iedere scrub van mijn data op mijn 71 TB machine lees errors moeten zien. Ik zie er nul.
Als ik zelf kijk naar het aantal scrubs dat heeft gelopen over mijn servers dan hebben mijn machines over de tijd nu 1 Petabyte aan data gelezen zonder 1 READ of CHSHUM error.
De vraag is dus veel meer wat het publiek hier wil. Veel mensen starten met 4-6 disks maximaal. En die willen disks toevoegen naarmate ze meer capaciteit nodig hebben, maar pas op het moment dat ze het nodig hebben.
Dat kan in feite niet met ZFS, je moet ofwel flink van te voren investeren, of later als je gaat uitbreiden ben je nodeloos extra geld kwijt en dan praten we over 150-300 euro extra afhankelijk van de disks die je toepast + het feit dat je minder capaciteit kwijt kunt in je server.
Alles heeft een prijs. Of je die wilt betalen moet je zelf weten. Ik draai wel ZFS. Maar ik heb ook 7 jaar zonder problemen een 20-disk RAID6 gedraaid op basis van MDADM (en zonder ECC geheugen) en dat ging goed (wel met 10^15 schijven, maar dat is ook maar een nummer wat ze er op plakken).
Resultaten in het verleden zijn geen garantie voor de toekomst.
[ Voor 41% gewijzigd door Q op 25-12-2015 00:15 ]
Verwijderd
Je betaalt ervoor vind ik niet helemaal de juiste benaming. Want je krijgt dan ook meer disks en meer opslag. Ik zie het meer dat elk systeem zijn beperkingen heeft. ZFS heeft eigenlijk maar één echte beperking en dat is het niet met kunnen uitbreiden van bestaande vdevs. Voor thuisgebruikers wel lastig, maar valt prima omheen te werken. Zodra je eenmaal de iets grotere builds pakt, is het uitbreiden met 6 - 10 disks tegelijk ook prima te doen. Voor de kleinere builds is dit inderdaad wel een beperking die bijvoorbeeld mdadm niet heeft. Maar om daar nu alle voordelen van ZFS voor op te geven is wel heel draconisch. Voor mij begint veilige opslag met ZFS. Er zullen vast betere systemen komen in de (verre) toekomst, maar voorlopig is dit hét systeem om je data mee op te slaan.Q schreef op donderdag 24 december 2015 @ 23:56:
Dit is een geluid wat eigenlijk te weinig gehoord wordt in dit topic. Ik ben zelf overtuigd dat zeker mensen die kleinere builds maken < 8-10 disks MDADM best kunnen overwegen. ZFS is beter qua bescherming van de integriteit van je data, maar daar betaal je dan ook voor omdat je - bij uitbreiding - dus extra parity disks moet kopen die je anders of niet nodig had, of voor data had kunnen inzetten.
10^-14 uBER betekent gemiddeld één bad sector per disk per dag, bij 100% duty cycle. Dat laatste is bij consumenten zelden het geval. Dus zeg ergens tussen eens per dag en eens per paar maanden. Dat valt toch zeker in de bandbreedte der mogelijkheden. Kijk bijvoorbeeld even in het grote SMART topic daar komen bad sectors aan de lopende band voorbij. Op ongeveer de helft van mijn disks en de systemen die ik voor kennissen heb gebouwd, komen ook bad sectors voor. Daar ben je gewoon immuun voor bij ZFS maar bij legacy RAID kan dit een groot probleem worden. Al helemaal als je aan het uitbreiden bent.De kans op een URE tijdens een rebuild of een array grow actie is uiterst klein, zeker thuis. De 10^14 specificatie voor wat betreft UREs is een worst-case specificatie. In de praktijk zijn disks VEEL betrouwbaarder.
Je hebt zeker wel een goed punt als je zegt dat de uBER in de praktijk veel beter kan zijn. Maar ook 10^-15 is niet veilig genoeg.
Dus? Het klinkt mij erg in de oren als de verhalen van een oma van 99 die heel haar leven heeft gerookt. Welke conclusie wil je daaraan verbinden? Dat het onzin is dat roken ongezond is? Leuk dat jij tot nu toe weinig last hebt gehad van uBER, maar dat betekent niet dat het probleem niet bestaat.Als ik zelf kijk naar het aantal scrubs dat heeft gelopen over mijn servers dan hebben mijn machines over de tijd nu 1 Petabyte aan data gelezen zonder 1 READ of CHSHUM error.
Ik denk dat de meeste mensen een betrouwbaar opslagsysteem willen met de minste restricties. ZFS heeft één belangrijke restrictie voor thuisgebruikers, maar de overige systemen hebben een heleboel tekortkomingen. Het is dus een afweging wat je belangrijker vindt.De vraag is dus veel meer wat het publiek hier wil.
Het kunnen uitbreiden per disk zou inderdaad leuk geweest zijn. Maar aangezien er geen goed alternatief is voor ZFS (nee Btrfs en ReFS zijn dat lang nog niet) is dat niet aan de orde. Dus wat meer disks en voorruitplannen is dan het beste wat je kunt doen. Om zoveel geld gaat het niet want je kunt de goedkoopste disks gebruiken. En als ik zie hoe duur de systemen zijn die regelmatig voor simpele builds voorbij komen, denk ik dat het bezuinigen op andere onderdelen logischer is zodat je het geld meer in de disks kunt steken. Daar is het tenslotte allemaal om te doen, de rest is in feite allemaal 'overhead'.
Daarmee lijkt je toch min of meer te zeggen dat hoewel jij er gelukkig vanaf bent gekomen met je 10^-15 disks en legacy RAID, het uiteindelijk toch wel fijn is dat je het ZFS tijdperk zonder kleerscheuren hebt weten te halen. Maar door dan nu maar mdadm aan te raden denk ik wel dat je je dient te beseffen dat anderen niet zo gelukkig hoeven te zijn als jij. Zeker als ze dagenlang gaan rebuilden hou ik mijn hart vast of dat allemaal goed gaat. En bedenk dat mensen die gewaarschuwd zijn en uiteindelijk toch het noodlot treffen, over het algemeen hiermee niet te koop lopen.Resultaten in het verleden zijn geen garantie voor de toekomst.
Better safe than sorry - zorg dat je data het onveilige tijdperk van het begin van de 21e eeuw overleeft. Backups is leuk, maar backups van een legacy filesystem biedt geen goede zekerheid. Backups met een 3e generatie filesystem zorgt voor iets van een begin van zekerheid.
ZFS is gewoon niet gratis en dat is iets wat mensen zich moeten realiseren. Of ze die prijs willen betalen moeten zij zelf bepalen.Verwijderd schreef op vrijdag 25 december 2015 @ 10:05:
[...]
Je betaalt ervoor vind ik niet helemaal de juiste benaming. Want je krijgt dan ook meer disks en meer opslag.
ZFS kost voor de meeste mensen op de korte of lange termijn extra geld ten opzichte van legacy oplossingen.
- Of je koopt de storage die je nodig denkt te hebben voor de komende 5 jaar upfront = extra geld
- Of over 3 jaar moet je een VDEV toevoegen en gooi je 1 a 2 disks aan parity weg = extra geld
Kies maar.
Dat is wat 'absolute' data integriteit en betere beschikbaarheid kost.
Als je nu geld moet uitgeven voor iets wat je de komende 3-5 jaar niet nodig hebt dan ben je dus onnodig geld aan het uitgeven. Dat is een paar honderd euro die je anders in je zak had kunnen hebben.
Ik heb enorm veel tijd gestoken in het begrijpen van ZFS en de risico's er om heen. Ik denk dat de risico's waar ZFS tegen beschermt zo klein zijn dat zeker in een thuis situatie je niet onverantwoord bezig bent als je GEEN ZFS draait.Voor de kleinere builds is dit inderdaad wel een beperking die bijvoorbeeld mdadm niet heeft. Maar om daar nu alle voordelen van ZFS voor op te geven is wel heel draconisch. Voor mij begint veilige opslag met ZFS. Er zullen vast betere systemen komen in de (verre) toekomst, maar voorlopig is dit hét systeem om je data mee op te slaan.
Als je er voor kiest om Windows + Hardware RAID / Storage Spaces of Linux + MDADM te gebruiken, dan vind ik dat geen onverantwoorde keuze.
We hoeven niet een indruk te wekken dat als je geen ZFS draait dat je dan enorme risico's loopt.
Je loopt zeker risico, maar dat risico is erg klein.
Het effect van een bad sector is voor reguliere RAID hetzelfde als dat een disk gewoon helemaal uitvalt. Stel je draait RAID5, dan is dat dus het effect van een double disk failure = data weg.10^-14 uBER betekent gemiddeld één bad sector per disk per dag, bij 100% duty cycle. Dat laatste is bij consumenten zelden het geval. Dus zeg ergens tussen eens per dag en eens per paar maanden. Dat valt toch zeker in de bandbreedte der mogelijkheden. Kijk bijvoorbeeld even in het grote SMART topic daar komen bad sectors aan de lopende band voorbij. Op ongeveer de helft van mijn disks en de systemen die ik voor kennissen heb gebouwd, komen ook bad sectors voor. Daar ben je gewoon immuun voor bij ZFS maar bij legacy RAID kan dit een groot probleem worden. Al helemaal als je aan het uitbreiden bent.
ZFS kan om die bad sector heen werken en dan heb je de rest van je data nog.
Maar de kans dat je thuis in deze situatie terecht komt, is zeer klein. Zeker als je gewoon RAID6 draait, wat sowieso wel een aanrader is vanaf zeg 6 disks omdat je dan de uitval van 2 disks kunt hebben.
Geen ZFS draaien ofwel Hardware RAID / MDADM / Storage Spaces gebruiken is analoog aan roken.Dus? Het klinkt mij erg in de oren als de verhalen van een oma van 99 die heel haar leven heeft gerookt. Welke conclusie wil je daaraan verbinden? Dat het onzin is dat roken ongezond is? Leuk dat jij tot nu toe weinig last hebt gehad van uBER, maar dat betekent niet dat het probleem niet bestaat.
Subtiel hoor CiPHER.
Met dat laatste ben ik het eens.Ik denk dat de meeste mensen een betrouwbaar opslagsysteem willen met de minste restricties. ZFS heeft één belangrijke restrictie voor thuisgebruikers, maar de overige systemen hebben een heleboel tekortkomingen. Het is dus een afweging wat je belangrijker vindt.
Ik denk zelf dat de ernst van die tekortkomingen wel mee valt en ik vind zelf ook dat het ZFS "team" hier vaak overdrijft.
En het bezuinigen op die andere onderdelen is natuurlijk een subtiele hint naar onder andere het weglaten van ECC geheugen.Het kunnen uitbreiden per disk zou inderdaad leuk geweest zijn. Maar aangezien er geen goed alternatief is voor ZFS (nee Btrfs en ReFS zijn dat lang nog niet) is dat niet aan de orde. Dus wat meer disks en voorruitplannen is dan het beste wat je kunt doen. Om zoveel geld gaat het niet want je kunt de goedkoopste disks gebruiken. En als ik zie hoe duur de systemen zijn die regelmatig voor simpele builds voorbij komen, denk ik dat het bezuinigen op andere onderdelen logischer is zodat je het geld meer in de disks kunt steken. Daar is het tenslotte allemaal om te doen, de rest is in feite allemaal 'overhead'.
Maar als je dan toch zonder ECC geheugen draait, dan kun je evengoed nog 150-300 euro besparen aan disks door ook gewoon legacy RAID te draaien.
Het gaat allemaal over risico's en de kosten om ze af te dekken.
Machines zonder ZFS en zonder ECC geheugen staan bekend onder onderandere deze namen:
- Synology
- Qnap
- Buffalo
- Netgear
Nee, ik probeer niet te zegen dat ik er 'gelukkig' goed van af ben gekomen. Het laat zien dat het prima kan gaan. Ondanks alle risico's waar ZFS en ECC tegen beschermt.Daarmee lijkt je toch min of meer te zeggen dat hoewel jij er gelukkig vanaf bent gekomen met je 10^-15 disks en legacy RAID, het uiteindelijk toch wel fijn is dat je het ZFS tijdperk zonder kleerscheuren hebt weten te halen. Maar door dan nu maar mdadm aan te raden denk ik wel dat je je dient te beseffen dat anderen niet zo gelukkig hoeven te zijn als jij. Zeker als ze dagenlang gaan rebuilden hou ik mijn hart vast of dat allemaal goed gaat. En bedenk dat mensen die gewaarschuwd zijn en uiteindelijk toch het noodlot treffen, over het algemeen hiermee niet te koop lopen.
Ik probeer eerlijk te zijn. Ik kan geen garanties afgeven dat het bij de lezer ook goed gaat. Iedereen moet zelf de risico's afwegen.
Je praat over dagen lang rebuilden maar dat is ook weer overdrijven.
Mijn 18 TB NAS rebuilde de array in 5 uur op basis van 1 TB disks. Dus met 4 TB disks zou je op 20 uur komen, zeg een dag, niet dagen.
En besef dat ook legacy RAID zoals MDADM scrubs doet. MDADM kan geen data corruptie detecteren zoals ZFS, maar zo 'triggert' MDADM wel eventuele bad sectors, zodat actie ondernomen kan worden.
Een disk met bad sectors moet je ten alle tijden gewoon vervangen (als het kan via garantie).
Een dergelijke disk is stuk en daar moet je niet mee verder draaien.
Ik weet dat het kan met ZFS maar waarom zou je?
En wat betreft het noodlot en daarmee niet te koop lopen: dat is wat mij betreft 100% speculatie en bangmakerij. Als ik dat argument ooit zelf heb gebruikt dan mag je me er op pakken.root@server:/etc/cron.d# cat mdadm
#
# cron.d/mdadm -- schedules periodic redundancy checks of MD devices
#
# Copyright © martin f. krafft <madduck@madduck.net>
# distributed under the terms of the Artistic Licence 2.0
#
# By default, run at 00:57 on every Sunday, but do nothing unless the day of
# the month is less than or equal to 7. Thus, only run on the first Sunday of
# each month. crontab(5) sucks, unfortunately, in this regard; therefore this
# hack (see #380425).
57 0 * * 0 root if [ -x /usr/share/mdadm/checkarray ] && [ $(date +\%d) -le 7 ]; then /usr/share/mdadm/checkarray --cron --all --idle --quiet; fi
"Onveilige tijdperk .... overleeft" is precies zo'n theatrale overdrijving waar ik mij persoonlijk aan stoor.Better safe than sorry - zorg dat je data het onveilige tijdperk van het begin van de 21e eeuw overleeft. Backups is leuk, maar backups van een legacy filesystem biedt geen goede zekerheid. Backups met een 3e generatie filesystem zorgt voor iets van een begin van zekerheid.
Daarmee schets je een vertekend beeld naar de bezoekers hierzo.
Met zo'n theatrale uitspraak creeer je een indruk dat het levensgevaarlijk is om GEEN ZFS toe te passen.
Dat vind ik een onjuiste en ongenuanceerde voorstelling van zaken. Het is helemaal niet zo zwart-wit.
Merry Christmas
Verwijderd
Als het zo is dat je bij ZFS meer disks per keer moet kopen, dan heb je wel degelijk profijt van de extra opslag. Je hoeft minder vaak extra disks te kopen omdat je al wat op de toekomst hebt voorbereid. Je zou hooguit kunnen zeggen dat de kosten van een ZFS NAS in het begin hoger zijn en met andere oplossingen je die meer kunt spreiden naar de toekomst. Dat zou wel een juiste voorstelling van zaken zijn.
Verder noem je het toevoegen van pariteit disks 'weggooien' - dat vind ik ook echt kul want hoeveel disks wil je in je RAID5 of RAID6 array proppen? Bij ZFS blijft de bescherming op peil omdat je ook extra parity disks koopt. Dus elke keer een 6-disk RAID-Z2 betekent 33% overhead en dat blijft gelijk naar mate je uitbreidt. Bij 10 disks - zo'n beetje de sweet spot - zakt de overhead naar 20% bij dubbele pariteit, maar dan moet je dus wel meer disks per keer kopen. Dat is de afweging die je hebt.
Verder is het ook zo dat de manier van uitbreiden bij ZFS helemaal veilig is en ook binnen een seconde klaar is. Het is heus niet alleen maar negatief. De manier hoe ZFS uitbreidt is eigenlijk juist heel goed. Voor Enterprise de enige juiste methode. Dat omspitten van data is voor Enterprise echt not-done. Het zijn vrijwel alleen thuisgebruikers die dat willen.
Je zegt verder dat mensen niet onverantwoord bezig zijn als ze voor hun thuis NAS geen ZFS draaien. Dat is een redelijk argument. Maar dan vraag ik me toch af; waarom draai jij zelf dan ZFS? Blijf dan bij het systeem wat jij kennelijk zoveel beter vindt met de mogelijkheid van per-disk uitbreiden. Dat uBER gezeik is allemaal kul of althans jij bent kennelijk immuun voor het risico. Je bagatelliseert het hele probleem, maar draait 'stiekem' zelf wel ZFS. Het komt allemaal niet heel geloofwaardig over eigenlijk.
Je zegt verder nog een heleboel dingen waar ik het totaal niet mee eens ben. Zoals: als je geen ECC draait, kun je beter helemaal geen ZFS draaien, als je disks één klein lullig bad sectortje hebben, gelijk als defect beschouwen. Allemaal dat soort meningen mag je natuurlijk hebben, maar dat is wel de reden dat sommige mensen ZFS maar links laten liggen, terwijl ze wel heel veel baat zouden hebben bij goede bescherming. Dat is heel erg jammer omdat een ZFS NAS van slechts 150 euro ze enorm veel waarde kan bieden en veel zekerheid voor hun gegevens.
Legacy oplossingen hebben nog wel enkele voordelen boven ZFS, maar die zijn eigenlijk vrij marginaal en weegt niet op tegen het risico dat mensen hun persoonlijke gegevens verliezen. En dat hoeft maar één keer te gebeuren en je data is voorgoed kwijt. Velen kunnen daarover meepraten. Legacy storage is onbetrouwbaar en als je data het tot nu toe heeft overleeft kun je maar beter zo snel mogelijk moderne opslag gebruiken. Zoveel mensen hebben al gegevens verloren aan legacy RAID - daar kan ik toch echt over meepraten want ik heb behoorlijk wat mensen geholpen met hun door bad sectors gefaalde RAID arrays. Dat risico is echt niet theoretisch ofzo.
Hoe ik er over denk is eigenlijk vrij simpel: al die legacy meuk is van een ouder tijdperk. Toen was het normaal dat dingen op hun bek gingen. Nu is het begin van een nieuw tijdperk waarbij het normaal is dat intelligente filesystems iets van bescherming bieden. ZFS is daarbij het eerste bruikbare systeem, maar velen zullen volgen. Het is geen religie, het is gewoon common sense dat je in die stroming meegaat.
/me wenst al jullie data een behouden kerst
Wat ik dan ook zoek is een oplossing welke laag in verbruik is als hij niet gebruikt wordt (lees: standby), maar toch nog de kracht biedt om een filesysteem aan te kunnen zoals ZFS in RAIDZ2. Het ideaalste zou zijn dat de drives hierbij hot-swappable zijn mocht er een van de schijven kapot gaan, maar natuurlijk hoop ik dat dit niet nodig hoeft te zijn.
Helaas biedt de ProLiant die eerder in het topic vermeld was (pricewatch: HP Proliant MicroServer Gen8 G1610T) maar 4 bays aan (naast een limit van 12TB aan opslag). Een desktop case is dan weer in de meeste gevallen groot, iets wat voor mij niet wenselijk is.
Overigens ben ik niet onbekend in de Linux wereld, al enige tijd heb ik mijn Windows installatie gedag gezegd en draai ik inmiddels Arch als mijn dagdagelijkse OS.
Rare vogel in spe
Even niets...
Je geeft een veel te nauwe kijk op ZFS. Ja natuurlijk ZFS is gratis omdat het open source is. Maar dat is niet het hele verhaal.Verwijderd schreef op vrijdag 25 december 2015 @ 12:49:
Natuurlijk is ZFS wel gratis. Dat het een beperking heeft moet je niet verwarren met aanschafprijs. Want je kunt het net zo goed omdraaien: mdadm en andere legacy storage is superduur, want je hebt 10^-16 uBER disks nodig. Dat argument zou ik nog iets beter vinden, omdat je verder niets hebt aan een disk met een betere uBER. Je betaalt je blauw, maar je krijgt er niet meer opslag voor terug.
De implementatie is precies waar alles om draait. En met ZFS zullen veel mensen een prijs moeten betalen in harde euros die er niet zou zijn als ze een legacy RAID oplossing zouden gebruiken.
Ook MDADM heeft een prijs, maar niet in termen van euro's in je hand.
De prijs is dat je een risico loopt. Als dat risico zich nooit voordoet heb je een paar honderd euro bespaard. Doet het zich wel voor dan ben je mogelijk data kwijt.
Dat risico is klein, zeker thuis. Hoe klein of groot is moeilijk te zeggen. Mensen mogen zelf bepalen of ze het willen lopen.
Maar dat schrijf ik toch ook?Als het zo is dat je bij ZFS meer disks per keer moet kopen, dan heb je wel degelijk profijt van de extra opslag. Je hoeft minder vaak extra disks te kopen omdat je al wat op de toekomst hebt voorbereid. Je zou hooguit kunnen zeggen dat de kosten van een ZFS NAS in het begin hoger zijn en met andere oplossingen je die meer kunt spreiden naar de toekomst. Dat zou wel een juiste voorstelling van zaken zijn.
Het gaat niet om percentages maar gewoon om harde euro's.Verder noem je het toevoegen van pariteit disks 'weggooien' - dat vind ik ook echt kul want hoeveel disks wil je in je RAID5 of RAID6 array proppen? Bij ZFS blijft de bescherming op peil omdat je ook extra parity disks koopt. Dus elke keer een 6-disk RAID-Z2 betekent 33% overhead en dat blijft gelijk naar mate je uitbreidt. Bij 10 disks - zo'n beetje de sweet spot - zakt de overhead naar 20% bij dubbele pariteit, maar dan moet je dus wel meer disks per keer kopen. Dat is de afweging die je hebt.
Hoeveel euro houdt ik op mijn bankrekening?
4 schijven vs 2 schijven kwijt zijn aan pariteit is dus gewoon de aanschafprijs van twee harde schijven 'weggooien'. Ik noem dat 'weggooien' omdat ik die extra bescherming voor thuis overkill vind.
Dan praten we over 100-200 euro per schijf afhankelijk van de grootte, dus totaal 200-400 euro aan geld wat je uitgeeft, maar waar je niets voor terug krijgt dat echt waardevol is.
En voor thuis vind ik een 12-disk RAIDZ2 of RAID6 veilig zat.
De manier van uitbreiden van een pool in ZFS is niet relevant en al helemaal niet voor thuis. Het leidt alleen maar af van het feit dat als je naar het grotere plaatje kijkt, ZFS gewoon geld kost.Verder is het ook zo dat de manier van uitbreiden bij ZFS helemaal veilig is en ook binnen een seconde klaar is. Het is heus niet alleen maar negatief.
Dus daarom zit deze fijne feature nu al wel in BTRFS bedoel je?De manier hoe ZFS uitbreidt is eigenlijk juist heel goed. Voor Enterprise de enige juiste methode. Dat omspitten van data is voor Enterprise echt not-done. Het zijn vrijwel alleen thuisgebruikers die dat willen.
Besef je dat zodra BTRFS ooit (hopelijk voor ons pensioen) een keer af is, dat er dan in mijn ogen geen reden meer is om mensen thuis ZFS te adviseren juist om de genoemde beperking?
Zover is het nog niet, BTRFS gaat traag, RAID met parity is nog niet betrouwbaar. Dat duurt nog wel een paar jaar. En tot die tijd is ZFS het beste wat we hebben.
Dat is een hele goede vraag. Het antwoord illustreert de manier van denken over hoe je tot je eigen DIY NAS komt.Je zegt verder dat mensen niet onverantwoord bezig zijn als ze voor hun thuis NAS geen ZFS draaien. Dat is een redelijk argument. Maar dan vraag ik me toch af; waarom draai jij zelf dan ZFS?
Ik vind grote storage leuk en mijn oude 18 TB NAS zat vol. Ik wilde dus een 24-disk chassis vullen met 4 TB schijven om weer even vooruit te kunnen.
Voor mij is dus het groeien van een array zoals met MDADM kan helemaal niet relevant. Ik koop alles in een keer, maar daar betaalde ik dus letterlijk voor. ZFS kost mijn in deze context niets extra ten opzichte van MDADM. Dus de keuze voor ZFS wordt voor mij makkelijker.
Kleine zijstap: destijds met mijn 20-disk 18 TB NAS heb ik weldegelijk de grow feature gebruikt van MDADM om haasje over te doen met mijn disks om zonder data verlies van 10 disks naar 20 disks te groeien.
Verder heb ik de persoonlijke afweging gemaakt dat ik vooral de feature interessant vind die mij informeert of er ergens data corruptie is opgetreden. Maar nu komt het. 95% van de data op mijn NAS is media. ZFS is eigenlijk voor mij niet eens zo heel relevant.
Ik was echter gewoon geïnteresseerd in ZFS en ik was erg benieuwd wat ik zou gaan zien met ZFS qua data corruptie, juist vanwege alle verhalen omtrent ZFS.
Met 24 disks in een chassis kon ik mij wel voorstellen dat ik dan meer risico zou lopen, dus waarom niet ZFS nemen dan? Met een kleinere array zou ik mogelijk een andere keuze hebben gemaakt.
Ik heb bijvoorbeeld ook bewust de keuze gemaakt om met een 18 + 6 disk RAIDZ2 te draaien, wat niet standaard is, maar ik vond dat in mijn situatie wel een geaccepteerd risico. Gelukkig kun je tegenwoordig met ZFS gewoon 2 x 12 disk RAIDZ2 draaien, stuk makkelijker, maar dat terzijde.
Ook heb ik bewust de keuze gemaakt om extra geld uit te geven aan betere componenten. Niet de goedkoopste disks, maar specifiek HGST vanwege de goede betrouwbaarheidsstatistieken.
Dat ZFS ook mij kan redden bij een bad sector vond ik niet zo relevant, ik ga waarschijnlijk ook hard op mijn bek want ik ben de enige hier die zijn M1015 niet naar IT mode heeft geflashed (ik draai wel op AHCI passthrough). De ordinaire reden was dat het flashen mij niet lukte en ik had geen zin om er meer tijd aan te besteden.
Ik kies er voor om dat risico te accepteren, ik denk dat dit risico erg klein is.
Zoals aangegeven was per-disk uitbreiden helemaal niet relevant voor mij. Eigenlijk had MDADM mij niet zoveel te bieden, behalve dan een wat rationelere RAID layout.Blijf dan bij het systeem wat jij kennelijk zoveel beter vindt met de mogelijkheid van per-disk uitbreiden. Dat uBER gezeik is allemaal kul of althans jij bent kennelijk immuun voor het risico. Je bagatelliseert het hele probleem, maar draait 'stiekem' zelf wel ZFS. Het komt allemaal niet heel geloofwaardig over eigenlijk.
Het feit dat ik persoonlijk in mijn specifieke situatie zelf wel voor ZFS heb gekozen maakt mij toch niet ongeloofwaardig of hypocriet?
Mijn situatie en budget is niet dat van anderen. Het gaat er om dat mensen op basis van de juiste informatie zelf een keuze maken. Ik laat hierboven zien hoe ik tot mijn keuzes kwam.
De grap is dat ik trouwens hierboven juist aantoon dat ik ook kwetsbaar ben voor het uBER risico omdat ik mijn controllers niet naar IT-mode heb geflashed. Who knows wat er gebeurt bij een uBER.
Dus ik leef ook zelf naar wat ik preek, hetzij deels onbedoeld.
Het enige wat ZFS echt doet voor mij ten opzichte van MDADM is dat het data corruptie aanwijst. Nul tot nu toe.
En dat is waarom ik ZFS waardeer: meten is weten. Met MDADM weet je het eigenlijk gewoon niet, net als met je eigen desktop/laptop.
Het meten heeft tot nu toe wel aangetoond dat ZFS mij tot nu toe niets heeft gebracht behalve het feit dat ik nu weet dat het tot nu toe niets heeft gebracht.
Maar dat is ook een reden om voor ZFS te kiezen
Die discussie ben ik hier bewust niet begonnen en die ga ik hier niet aan, ik verwees er alleen indirect naar.Je zegt verder nog een heleboel dingen waar ik het totaal niet mee eens ben. Zoals: als je geen ECC draait, kun je beter helemaal geen ZFS draaien
Als jij je druk maakt om het welzijn van mensen die misschien een budget hebben van 150 euro, dan vraag ik mij erg af waarom je ze dan niet verwijst naar een HP Proliant Microserver Gen8., als je disks één klein lullig bad sectortje hebben, gelijk als defect beschouwen. Allemaal dat soort meningen mag je natuurlijk hebben, maar dat is wel de reden dat sommige mensen ZFS maar links laten liggen, terwijl ze wel heel veel baat zouden hebben bij goede bescherming. Dat is heel erg jammer omdat een ZFS NAS van slechts 150 euro ze enorm veel waarde kan bieden en veel zekerheid voor hun gegevens.
Want voor 150 euro ben je er niet, dat is alleen de prijs van het moederboard + CPU en geheugen. Daar moet nog een kast en voeding bij en misschien wat klein grut. Dan ga je snel over de 200 euro heen.
De huidige HP Proliant Microserver Gen8 wordt nu standaard geleverd met 4 GB geheugen, waarvan jij duidelijk hebt beargumenteerd dat dit voor de meeste situaties, zeker thuis, genoeg is. Dat ding kost 230 euro.
Zo'n server is in mijn beleving te prefereren boven zelfbouw als het past binnen je wensen. Degelijke machine, hot-swap, ECC geheugen, allemaal voordelen. De belangrijkste beperking is het aantal disks wat je er in kwijt kunt: 4 stuks.
Om een eerlijk plaatje te maken: de HP is niet zo zuinig als je met zelfbouw kunt realiseren, het ding zal op jaarbasis minimaal 20 euro duurder zijn qua stroom verbruik. Het is dus een beetje de vraag waar je prioriteiten liggen.
Zelf heb ik er nogal moeite mee om te snappen waarom we om ergens weer een paar tientjes te besparen, onze data gaan toevertrouwen aan het goedkoopste van het goedkoopste qua hardware.
Kwaliteit en betrouwbaarheid heeft een prijs.
Weer een paragraaf met een in mijn ogen overdreven uitspraak. Ik proef nu een beetje dat je mensen bang probeert te maken.Legacy oplossingen hebben nog wel enkele voordelen boven ZFS, maar die zijn eigenlijk vrij marginaal en weegt niet op tegen het risico dat mensen hun persoonlijke gegevens verliezen. En dat hoeft maar één keer te gebeuren en je data is voorgoed kwijt. Velen kunnen daarover meepraten. Legacy storage is onbetrouwbaar en als je data het tot nu toe heeft overleeft kun je maar beter zo snel mogelijk moderne opslag gebruiken. Zoveel mensen hebben al gegevens verloren aan legacy RAID - daar kan ik toch echt over meepraten want ik heb behoorlijk wat mensen geholpen met hun door bad sectors gefaalde RAID arrays. Dat risico is echt niet theoretisch ofzo.
Het kern probleem wat je hier vooral illustreert is dat mensen hun backups vaak niet goed geregeld hebben. Dat staat los van de discussie over ZFS vs legacy.
Veel mensen kunnen in die context beter cloud backup kopen in plaats van geld stoppen in een NAS als ze moeten kiezen.
Oh, zo te zien is het limiet 16TB, niet 12TB zoals ik eerder schreef. Dan haal ik het helaas nog steeds niet met 4x6TB, naast dat ik dan geen 5e HDD kan plaatsen er in.FireDrunk schreef op vrijdag 25 december 2015 @ 13:21:
Ik heb gewoon 4TB disks in mijn HP MicroServer zitten. Werkt prima (in AHCI mode).
Rare vogel in spe
Er kunnen zeker wel 6 schijven in als je de bovenste twee bays gebruikt. Met een extra controller en wat creativiteit kun je er denk ik wel 8 in kwijt.
De kast is groter, je verliest de hot-swap bays. De CPU is wat sneller.
(36.82 x17.5 x 47.52 cm)
pricewatch: HP Proliant ML10 v2 (814483-421)
Edit: ik lees dat je een desktop kast weer te groot vindt. Ik vrees dat je dan toch echt zelfbouw moet gaan doen met zoiets als deze kast, maar die kast doet al 160 euro.
pricewatch: Silverstone DS380
De vraag is dus een beetje wat je budget is en wat je wilt bereiken.
[ Voor 60% gewijzigd door Q op 25-12-2015 18:15 ]
Ik verwacht namelijk dat het limiet met de RAID functies te maken heeft, en niet met AHCI modus.
Goede kans dat alles daar prima werkt.
Even niets...
Kom CiPHER, je weet wat ze bedoelen, je betaalt er wel voor ja en je krijgt het idd ook, maar het is veel geld ineens vs rustig groeien. Als ik met een BMW 5 wil rijden ja dan betaal ik er ook voor maar de bottom line is dat het ineens een heel grote investering is tegenover wanneer dat ik begin met een Polo en de Polo verkoop, een Golf koop, de Golf verkoop, een Passat koop, de passat verkoop en een 5-reeks koop. Ben ik in the long run meer geld kwijt? Kan goed zijn, maar het heeft minder "zeer gedaan" om tot die 5-reeks te geraken.Verwijderd schreef op vrijdag 25 december 2015 @ 10:05:
[...]
Je betaalt ervoor vind ik niet helemaal de juiste benaming.
Ik kan meer dan goed genoeg begrijpen dat veel mensen idd willen groeien ipv op de groei al kopen. En dat is en blijft gewoon een ruk-nadeel van ZFS.
"Heeeey euhm schat, ik projecteer dat we over een paar jaar ongeveer 30TB aan data zullen hebben dus ik ga nu even een 1000 EUR aan disks uitgeven zodat we films en series kunnen opslaan met de foto's van de familie bla bla bla, goeie?"
vs
"Hey schatje, dit jaar mag je me een 4TB disk à 100 EUR voor kerst cadeau doen, kan ik de NAS uitbreiden, kunnen we weer wat films en series stockeren"
Drie keer raden wat je het makkelijkst verkocht krijgt.
Dat ligt er aan, jij blijft zweren bij die dataveiligheid van ZFS, ik begrijp je daar in, ik vind het ook belangrijk maar als ik mijn scrubs nu zie en die van Q, dan moet je ook gewoon inzien dat het allemaal wel meevalt, jaja ik weet het met MDAM ga je het nooit geweten hebben maar de field tests laten ook wel zien dat het allemaal niet zo erg is als de statistiek wil laten garanderen of zichzelf indekken. Jaja het is allemaal weer geen valide steekproef (ik hoor je al aankomen) maar qua buikgevoel (jaja, buikgevoel) ben ik het met Q eens dat de cijfers er wel allemaal zijn maar dat de realiteit veel beter meevalt. Van alle mensen die QNAP'jes en Synology'tjes hebben thuis heb ik bv. nog maar één horroverhaal gehoord (jaja steekproef niet valide enz enz...) en ik zie ze nochtans vaak opduiken bij vrienden, kennissen of familie.Want je krijgt dan ook meer disks en meer opslag. Ik zie het meer dat elk systeem zijn beperkingen heeft. ZFS heeft eigenlijk maar één echte beperking en dat is het niet met kunnen uitbreiden van bestaande vdevs. Voor thuisgebruikers wel lastig, maar valt prima omheen te werken. Zodra je eenmaal de iets grotere builds pakt, is het uitbreiden met 6 - 10 disks tegelijk ook prima te doen. Voor de kleinere builds is dit inderdaad wel een beperking die bijvoorbeeld mdadm niet heeft. Maar om daar nu alle voordelen van ZFS voor op te geven is wel heel draconisch.
EDIT:
Ik geef je wel gelijk met dat uitbreiden, bij mijn QNAP moet ik toegeven dat ik bijzonder bijzonder bijzonder angstvallig aan het wachten was tot de array gerebuilded was, met ZFS heb ik echt veel meer gemoedsrust, dat is een feit, maar ik heb er dan ook wel een smak geld voor mogen neertellen.Voor mij begint veilige opslag met ZFS. Er zullen vast betere systemen komen in de (verre) toekomst, maar voorlopig is dit hét systeem om je data mee op te slaan als je kan leven met het feit dat je zwaar op voorhand moet gaan inkopen qua disks of moet workarounden door VDEV's toe te voegen bij voorkeur met hetzelfde aantal en pariteitsniveau als de vorige VDEV's en dat dat dan inefficienter is. Of dat je een forkliftupgrade moet doen door een nieuwe build of set disks aan te schaffen om je data naar te migreren
[...]
10^-14 uBER betekent gemiddeld één bad sector per disk per dag, bij 100% duty cycle. Dat laatste is bij consumenten zelden het geval. Dus zeg ergens tussen eens per dag en eens per paar maanden. Dat valt toch zeker in de bandbreedte der mogelijkheden. Kijk bijvoorbeeld even in het grote SMART topic daar komen bad sectors aan de lopende band voorbij. Op ongeveer de helft van mijn disks en de systemen die ik voor kennissen heb gebouwd, komen ook bad sectors voor. Daar ben je gewoon immuun voor bij ZFS maar bij legacy RAID kan dit een groot probleem worden (maar in de realiteit komt men dit ook bij thuis-systemen heel weinig tegen). Al helemaal als je aan het uitbreiden bent.
Je hebt zeker wel een goed punt als je zegt dat de uBER in de praktijk veel beter kan zijn. Maar ook 10^-15 is niet veilig genoeg.
[...]
Dus? Het klinkt mij erg in de oren als de verhalen van een oma van 99 die heel haar leven heeft gerookt. Welke conclusie wil je daaraan verbinden? Dat het onzin is dat roken ongezond is? Leuk dat jij tot nu toe weinig last hebt gehad van uBER, maar dat betekent niet dat het probleem niet bestaat.
[...]
Ik denk dat de meeste mensen een betrouwbaar opslagsysteem willen met de minste restricties. ZFS heeft één belangrijke restrictie voor thuisgebruikers, maar de overige systemen hebben een heleboel tekortkomingen. Het is dus een afweging wat je belangrijker vindt.
Het kunnen uitbreiden per disk zou inderdaad leuk geweest zijn. Maar aangezien er geen goed alternatief is voor ZFS (nee Btrfs en ReFS zijn dat lang nog niet) is dat niet aan de orde. Dus wat meer disks en voorruitplannen is dan het beste wat je kunt doen. Om zoveel geld gaat het niet want je kunt de goedkoopste disks gebruiken.
Met dataverlies? Ik zou dat net WEL doen dan, mensen die gelukkig zijn met een oplossing of product hoor je net het minst, als het mis gaat dan hoor je het het vaakst. Of lees jij vaak topics die mensen gestart zijn omdat ze zo gelukkig zijn met een product? Voorbeeldje: auto's.En als ik zie hoe duur de systemen zijn die regelmatig voor simpele builds voorbij komen, denk ik dat het bezuinigen op andere onderdelen logischer is zodat je het geld meer in de disks kunt steken. Daar is het tenslotte allemaal om te doen, de rest is in feite allemaal 'overhead'.
[...]
Daarmee lijkt je toch min of meer te zeggen dat hoewel jij er gelukkig vanaf bent gekomen met je 10^-15 disks en legacy RAID, het uiteindelijk toch wel fijn is dat je het ZFS tijdperk zonder kleerscheuren hebt weten te halen. Maar door dan nu maar mdadm aan te raden denk ik wel dat je je dient te beseffen dat anderen niet zo gelukkig hoeven te zijn als jij. Zeker als ze dagenlang gaan rebuilden hou ik mijn hart vast of dat allemaal goed gaat. En bedenk dat mensen die gewaarschuwd zijn en uiteindelijk toch het noodlot treffen, over het algemeen hiermee niet te koop lopen.
Better safe than sorry - zorg dat je data het onveilige tijdperk van het begin van de 21e eeuw overleeft. Backups is leuk, maar backups van een legacy filesystem biedt geen goede zekerheid. Backups met een 3e generatie filesystem zorgt voor iets van een begin van zekerheid.
[ Voor 8% gewijzigd door HyperBart op 25-12-2015 20:42 ]
Dat is inderdaad jammer aan die Gen8, de vorige generatie kon je in de ODD bay nog een disk wegmoffelen (N40L).Xesxen schreef op vrijdag 25 december 2015 @ 12:51:
Ik zit al enige tijd te kijken naar een mooie, compacte, zuinige setup om ZFS (of equivalent) op te gaan draaien. Op het moment beschik ik over een enkele WD RED 6TB, maar mijn plan is om een 5-drive RAIDZ2 setup te maken (waardoor ik effectief op ~18TB uit kom).
Wat ik dan ook zoek is een oplossing welke laag in verbruik is als hij niet gebruikt wordt (lees: standby), maar toch nog de kracht biedt om een filesysteem aan te kunnen zoals ZFS in RAIDZ2. Het ideaalste zou zijn dat de drives hierbij hot-swappable zijn mocht er een van de schijven kapot gaan, maar natuurlijk hoop ik dat dit niet nodig hoeft te zijn.
Helaas biedt de ProLiant die eerder in het topic vermeld was (pricewatch: HP Proliant MicroServer Gen8 G1610T) maar 4 bays aan (naast een limit van 12TB aan opslag). Een desktop case is dan weer in de meeste gevallen groot, iets wat voor mij niet wenselijk is.
Overigens ben ik niet onbekend in de Linux wereld, al enige tijd heb ik mijn Windows installatie gedag gezegd en draai ik inmiddels Arch als mijn dagdagelijkse OS.
Wil je echt echt echt RAIDZ2 draaien? Met 5 disks is het net optimaal om RAIDZ te draaien en vind ik de afweging risico vs nadelen goed uitkomen hoor... Maar de disks zijn dan wel best groot, dat wel om RAIDZ te te draaien

Met jouw eis ben je eigenlijk veroordeeld tot een grotere kast (bv die Fractal Node 304 of een maatje groter, ken het model even niet) of een desktop kast...
[ Voor 7% gewijzigd door HyperBart op 25-12-2015 20:52 ]
Naast het feit dat grotere disks een hogere kans hebben op fouten, wil ik voorkomen dat ik met een degraded array zonder parity kom te zitten. Dan moet ik toch echt een RAIDZ2 draaien wil ik dat voor elkaar krijgen.HyperBart schreef op vrijdag 25 december 2015 @ 20:50:
[...]
Wil je echt echt echt RAIDZ2 draaien? Met 5 disks is het net optimaal om RAIDZ te draaien en vind ik de afweging risico vs nadelen goed uitkomen hoor... Maar de disks zijn dan wel best groot, dat wel om RAIDZ te te draaien
Die Silverstone kast is geweldig, waarom ben ik die nog niet tegen gekomen...Q schreef op vrijdag 25 december 2015 @ 18:00:
Edit: ik lees dat je een desktop kast weer te groot vindt. Ik vrees dat je dan toch echt zelfbouw moet gaan doen met zoiets als deze kast, maar die kast doet al 160 euro.
pricewatch: Silverstone DS380
De vraag is dus een beetje wat je budget is en wat je wilt bereiken.
Overigens heb ik het idee dat mini-DTX moederborden exotisch zijn. Om wat leukere snelheden te halen wil ik graag (later) een Infiniband controller er in duwen voor hogere snelheden tussen mijn PC en de NAS. Tevens heb ik zeer waarschijnlijk een HBA nodig om de disks aan te kunnen sluiten. Een enkele PCI-e slot voldoet dan jammer genoeg niet, en mini-DTX borden zijn ook niet te vinden.... tsja...
Ik heb op het moment nog geen budget in gedachten, maar aangezien de schijven alleen al op ~€1250 uit komt, kan een degelijke kast/moederbord/HBA ook nog wel bij
Rare vogel in spe
Of je kiest de derde optie en gaat voor BtrFS, dat nu echt productie rijp begint te worden.Q schreef op vrijdag 25 december 2015 @ 11:34:
ZFS is gewoon niet gratis en dat is iets wat mensen zich moeten realiseren. Of ze die prijs willen betalen moeten zij zelf bepalen.
ZFS kost voor de meeste mensen op de korte of lange termijn extra geld ten opzichte van legacy oplossingen.
- Of je koopt de storage die je nodig denkt te hebben voor de komende 5 jaar upfront = extra geld
- Of over 3 jaar moet je een VDEV toevoegen en gooi je 1 a 2 disks aan parity weg = extra geld
Kies maar.
Dat is wat 'absolute' data integriteit en betere beschikbaarheid kost.
Als je nu geld moet uitgeven voor iets wat je de komende 3-5 jaar niet nodig hebt dan ben je dus onnodig geld aan het uitgeven. Dat is een paar honderd euro die je anders in je zak had kunnen hebben.
Het ziet er nu naar uit dat R5/6 tegen productie klaar aan zit, alleen is een UPS wel zeer aan te bevelen, heb in mijn test systeem (10x 8TB in R6 BtrFS), verscheidende (+20 tests) disk failures getest gedaan waar ik een of twee disks los heb gekoppeld, een srink rebuild heb gedaan met negen of acht disks, en daarna weer een volledige rebuild met 10 disks, en het gaat tot nu nog steeds goed.RAID56: Status
From 3.19, the recovery and rebuild code was integrated. This brings the implementation to the point where it should be usable for most purposes. Since this is new code, you should expect it to stabilize over the next couple of kernel releases.
The one missing piece, from a reliability point of view, is that it is still vulnerable to the parity RAID "write hole", where a partial write as a result of a power failure may result in inconsistent parity data.If you'd like to learn btrfs raid5/6 and rebuilds by example (based on kernel 3.14), you can look atMarc MERLIN's page about btrfs raid 5/6..
- Parity may be inconsistent after a crash (the "write hole")
- No support for discard? (possibly -- needs confirmation with cmason)
- The algorithm uses as many devices as are available: No support for a fixed-width stripe (see note, below)
En van de documentatie die ik tot nu toe heb gelezen zit de betrouwbaarheid dicht tussen hardware NTFS R5/6, en ZFS RAIDZ1/RAIDZ2.
En BtrFS geeft je het beste van twee werelden, een file systeem dat OCE onderstreund, zodat je pas disk hoeft toe te voegen wanneer nodig, geen dure controllers, gratis file systeem.
Enige nadeel, het is op het moment wat minder betrouwbaar dan ZFS, maar daar komt steeds meer verandering in, met elke update van het BtrFS file systeem, dat op het moment qua R5/6 nu heel dicht tegen productie aan zit te komen, en zo als het er nu uit ziet binnen een jaar echt productie rijp zal zijn.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.