Even niets...
* Pantagruel geeft er de voorkeur aan om toch even een tobo en een 17" LCD aan te sluiten en binnen handbereik te zijn. (zit niet te wachten op een verandering in MAC adres vd ipmi nic en alle bijbekomende problemen)FireDrunk schreef op maandag 23 februari 2015 @ 21:41:
Een BIOS update vereist een systeem dat kan booten, dus een CPU die werkt.
Je kan via IPMI wel je bios updaten, maar of het verstandig is...
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Je kunt de idle instellingen uitlezen met de WDIDLE.exe dus kun je zelf even controlleren of dat nodig isMr_x007 schreef op dinsdag 24 februari 2015 @ 12:27:
Moet er bij de laatste WD Green schijven (WD30EZRX of WD40EZRX) nog steeds de head-park instellingen met WDIDLE aangepast worden bij gebruik in nas of is dat bij deze serie niet nodig?
Anoniem: 15758
Bij mijn WD40EZRX was het wel nodig; bij mijn WD60EZRX (6TB) weer niet. Kan ook gewoon liggen aan het feit dat laatstgenoemde nieuwere firmware heeft en het is mogelijk dat andere modelen die inmiddels ook hebben. Bijzonder ook is dat de nieuwe WD60EZRX geen APM meer ondersteunt om de headparking uit te schakelen.Mr_x007 schreef op dinsdag 24 februari 2015 @ 12:27:
Moet er bij de laatste WD Green schijven (WD30EZRX of WD40EZRX) nog steeds de head-park instellingen met WDIDLE aangepast worden bij gebruik in nas of is dat bij deze serie niet nodig?
Ik ben hier momenteel enkele tests aan't uitvoeren voor een VM storage via iSCSI en ik krijg bij het kopieren van een +/- 40GB file een sterke drop in snelheid na 20 à 30% op FreeBSD based servers.
Op server 1 ging dit van 100-110MBps naar <10MBps en VM's op de iSCSI werden totaal onwerkbaar.
Op server 2 ging dit van 100-110MBps naar 40/50MBps dit was een pure testopstelling zonder VM's.
Server 2 was een meer optimale implementatie (RAID1 SSD rechtstreeks op chipset), vandaar dat die beter loopt.
Op een windows server kreeg ik via iSCSI een 100MBps constant zonder drop.
En via SMB op server 2 ging het ook aan 90MBps zonder problemen.
En wat draai je?IceTeaGX schreef op dinsdag 24 februari 2015 @ 15:55:
Is er een probleem met iSCSI op FreeBSD, of mis ik hier ergens een setting?
Ik ben hier momenteel enkele tests aan't uitvoeren voor een VM storage via iSCSI en ik krijg bij het kopieren van een +/- 40GB file een sterke drop in snelheid na 20 à 30% op FreeBSD based servers.
Op server 1 ging dit van 100-110MBps naar <10MBps en VM's op de iSCSI werden totaal onwerkbaar.
Op server 2 ging dit van 100-110MBps naar 40/50MBps dit was een pure testopstelling zonder VM's.
Server 2 was een meer optimale implementatie (RAID1 SSD rechtstreeks op chipset), vandaar dat die beter loopt.
Op een windows server kreeg ik via iSCSI een 100MBps constant zonder drop.
En via SMB op server 2 ging het ook aan 90MBps zonder problemen.
Ik heb FreeNAS en ZFSGuru getest. Op verschillende hardware platformen en met verschillende schijf configuraties. De drop is er altijd, alleen is de ernst ervan verschillend.matty___ schreef op dinsdag 24 februari 2015 @ 16:21:En wat draai je?
En het moet werken op een windows 2012r2 hyper-V setup.
Je zou altijd nog een laatste stable build van native FreeBSD kunnen proberen. Wellicht ligt het ook aan tcp instellingen oidIceTeaGX schreef op dinsdag 24 februari 2015 @ 16:26:
[...]
Ik heb FreeNAS en ZFSGuru getest. Op verschillende hardware platformen en met verschillende schijf configuraties. De drop is er altijd, alleen is de ernst ervan verschillend.
En het moet werken op een windows 2012r2 hyper-V setup.
Ik kan op zich prima voor de installatie een beeldscherm aansluiten, dat was ook de bedoeling. Ik zou echter graag gewoon de nieuwe processor i3 4330 gebruiken dan de iets oudere i3 4130. Ik vind het namelijk zonde om voor hetzelfde geld een oudere processor te gebruiken. Maar als ik het goed begrijp is een BIOS update noodzakelijk is en dat ik die alleen kan uitvoeren met de oudere processor. Beetje jammer, maar als het niet anders is, dan heb ik geen keus. Of ik moet op zoek naar een nieuwer vergelijkbaar moederbord.Pantagruel schreef op dinsdag 24 februari 2015 @ 11:22:
[...]
* Pantagruel geeft er de voorkeur aan om toch even een tobo en een 17" LCD aan te sluiten en binnen handbereik te zijn. (zit niet te wachten op een verandering in MAC adres vd ipmi nic en alle bijbekomende problemen)
Wellicht kun je bij shop waar je t bord aanschaft wat regelen mbt de bios flash of dat ze checken dat t werkt, bij webwinkels is dat wellicht niet mogelijk (vragen staat altijd vrij). Of je moet een behulpzame tweaker in de buurt vinden van wie je een compatible cpu mag gebruiken om de bios update mee te doen.robvanpraat schreef op dinsdag 24 februari 2015 @ 21:02:
[...]
Ik kan op zich prima voor de installatie een beeldscherm aansluiten, dat was ook de bedoeling. Ik zou echter graag gewoon de nieuwe processor i3 4330 gebruiken dan de iets oudere i3 4130. Ik vind het namelijk zonde om voor hetzelfde geld een oudere processor te gebruiken. Maar als ik het goed begrijp is een BIOS update noodzakelijk is en dat ik die alleen kan uitvoeren met de oudere processor. Beetje jammer, maar als het niet anders is, dan heb ik geen keus. Of ik moet op zoek naar een nieuwer vergelijkbaar moederbord.
Of beide cpu's aanschaffen en na een geslaagde flash de i3-4130 retourneren onder t retour recht (ietwat oneigenlijk gebruik moet ik bekennen)
[ Voor 7% gewijzigd door Pantagruel op 24-02-2015 21:18 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Volgens ASRock kan een BIOS update wel via IPMI, zie pagina 25. Maar er staat niet bij of er een (compatibele) CPU geïnstalleerd moet zijn.robvanpraat schreef op dinsdag 24 februari 2015 @ 21:02:
Ik kan op zich prima voor de installatie een beeldscherm aansluiten, dat was ook de bedoeling. Ik zou echter graag gewoon de nieuwe processor i3 4330 gebruiken dan de iets oudere i3 4130. Ik vind het namelijk zonde om voor hetzelfde geld een oudere processor te gebruiken. Maar als ik het goed begrijp is een BIOS update noodzakelijk is en dat ik die alleen kan uitvoeren met de oudere processor. Beetje jammer, maar als het niet anders is, dan heb ik geen keus. Of ik moet op zoek naar een nieuwer vergelijkbaar moederbord.
PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W
Aangezien je t BIOS in moet (vlgs de screenshots uit de handleiding van t mobo op pag. 52) zul je RAM en een werkende CPU geïnstalleerd moeten hebben. Ziet er verder wel fancy uit mbv USB redirect als input een flash uit voeren.nMad schreef op dinsdag 24 februari 2015 @ 22:47:
[...]
Volgens ASRock kan een BIOS update wel via IPMI, zie pagina 25. Maar er staat niet bij of er een (compatibele) CPU geïnstalleerd moet zijn.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Zo heb ik wel eens DELL iDRAC (de enterprise variant van die IPMI dingen) gebricked...
Even niets...
[ Voor 5% gewijzigd door nMad op 25-02-2015 08:57 ]
PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W

Ik ben ondertussen een Linux iso aan het afhalen maar gaat nogal traag ivm met mijn verbinding hier.
Zit in het zipje van de firmware.
Even niets...
[ Voor 111% gewijzigd door SanderH_ op 25-02-2015 13:08 ]
Even niets...
1
| No LSI SAS adapters found |
Kut.
Kan dat zijn omdat hij het SAS adres niet meer kan terugvinden? Ik heb nochtans volgend argument gebruikt zodat hij het SAS adres juist niet zou verwijderen:
sas2flash -o -e 6 -f 6gbpsas.fw
- "MegaCli.exe -AdpAllInfo -aAll -ApplogFile AdaptersInfo1.txt" (SAS Adres achterhalen)
- "MegaRec.exe -readsbr 0 orig.sbr" (originele controller sbr opslaan, just in case)
- "MegaRec -writesbr 0 empty.bin"
- "MegaRec -cleanflash 0" (vorige 2 stappen cleanen de complete controller)
- PC compleet afsluiten, daarna weer aanzetten
-"sas2flsh.exe -l Flashlog.txt -o -f 6gbpsas.fw" (flash dell IT firmware)
-"sas2flsh.exe -l Flashlog.txt -o -f 2118it.bin" (flash lsi P7 IT firmware, kies yes bij waarschuwing verkeerde fabrikant)
-"sas2flsh.exe -l Flashlog.txt -o -f 2118it.bin" (flash lsi P19 IT firmware)
-"sas2flsh.exe -o -sasadd 500605bxxxxxxxxx" (vervang xxxxxxxxx door je echte sas adres, zie stap 1)
Al deze stappen moeten uitgevoerd worden in freedos of iets vergelijkbaars. Ik heb zelf via rufus een simpele bootable USB stick gemaakt. Werkt waarschijnlijk niet op UEFI moederbord.
Moet trouwens 2118p7.bin zijn denk ik?
Bij sommige kaarten moest ik tussendoor rebooten om de kaart 'leeg' op te laten starten.
Wat toelie dus al zegt, poweroff, en daarna pas nieuwe firmware flashen. Anders houdt de kaart zijn PCI:ID enzo vast.
[ Voor 26% gewijzigd door FireDrunk op 25-02-2015 14:33 ]
Even niets...
sas2flsh.exe -o -f 2118P7.bin" volgende error:
1
| ERROR: Cannot flash IT Firmware over IR fimware |
Ligt blijkbaar aan één van de bestanden die ik gebruik die "te nieuw" is volgens deze post
Ik probeer het wel ff met die oudere files.
EDIT: Hallelujah

En ja, SAS-adres terug gewijzigd naar het originele. Bedankt voor de hulp FireDrunk & toelie
[ Voor 17% gewijzigd door SanderH_ op 25-02-2015 15:09 ]
Zouden enkele misschien mij wat advies kunnen geven op het gebied van een zelfgebouwde ZFS server? Na het lezen van het ZFS topic heb ik een aantal onderdelen samengesteld die naar mijn idee voldoen voor een instap server voor ZFS.
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1226 v3 Boxed | € 236,18 | € 236,18 |
1 | Supermicro X10SLM-F | € 186,05 | € 186,05 |
5 | WD Green WD20EZRX | € 79,50 | € 397,50 |
1 | Kingston ValueRAM KVR16LR11S4K4/32 | € 282,- | € 282,- |
Bekijk collectie Importeer producten | Totaal | € 1.101,73 |
Nu draai ik zelf een unRAID server maar ik begin deze niet helemaal meer te vertrouwen, op het gebied van ontwikkeling van het OS en de manier waarop data veilig word gesteld en aangezien ik toch extra ruimte nodig heb wil ik een 2de nieuwe 'hoofd' server bouwen voor het opslaan van films, muziek en familie foto's.
Als OS ben ik er nog niet helemaal uit welke het 'beste' is voor een beginnende ZFS gebruiker als mij zelf. Persoonlijk vind ik een gemakkelijke WebUI de beste uitkomst wat naar mijn weten me al gauw brengt bij oplossingen als NAS4Free en FreeNAS.
Hopelijk kan iemand mij wat advies geven met wat ik het beste zou kunnen aanschaffen of op het gebied van OS mogelijkheden.
Alvast bedankt!
-Rexel
Daarnaast is 32GB voor jouw situatie overkill. 16GB is al serieus genoeg.
Bedankt voor je reactie!GioStyle schreef op woensdag 25 februari 2015 @ 20:36:
Wil je perse ECC? Zo niet, dan kan je een stuk goedkoper uit zijn qua moederbord. En gaat je server alleen maar data serveren? Dan kan je ook af met een Celeron/Pentium. Scheelt je ook flink geld.
Daarnaast is 32GB voor jouw situatie overkill. 16GB is al serieus genoeg.
Ik heb specifiek voor het ECC geheugen gekozen om het gedeelte van bitrot tegen te gegaan, had als ik het goed heb op het forum van FreeNAS hier overgelezen dat het daarom zeer aangeraden word om ECC geheugen te gebruiken.
Omdat naar mijn idee ZFS erg hongerig is voor RAM had ik hier voor wat extra's gepakt. als jullie denken dat ik met 16GB ook mee uit te voeten kan pak ik 16GB:)
Anoniem: 15758
Het word niet een ESXi box met hoop gevirtualiseerd, zou het wel het fijnste vinden natuurlijk dat ik mijn data opslag en andere zaken wat gescheiden kan houden.
Ik zal eens kijken wat de goedkopere alternatieven zijn en deze daarna hier posten:)
Ik ben meteen aan de slag gegaan en heb hier het resultaat. Wat vinden jullie van zo iets? Heb dit keer ook meer consumer producten gekozen.
# | Product | Prijs | Subtotaal |
1 | Intel Core i3-4150 Boxed | € 104,95 | € 104,95 |
1 | Asus Z87-PLUS | € 101,18 | € 101,18 |
1 | Crucial CT2K8G3ERSLD4160B | € 163,35 | € 163,35 |
Bekijk collectie Importeer producten | Totaal | € 369,48 |
[ Voor 61% gewijzigd door Rexel op 25-02-2015 21:40 ]
Technisch gezien is het ook mogelijk om ECC te doen met een Celeron of Pentium processor, maar die zijn wat slechter in Plex streams.
Ik denk dat je met die E3 voor de combinatie van ZFS, ECC en PLEX best aardig zit...
Tis veel geld, maar dan heb je er wel weer een paar jaar plezier van.
Even niets...
Dom van mij moederbord ondersteund inderdaad volgende de asus site geen ECC geheugenFireDrunk schreef op woensdag 25 februari 2015 @ 21:42:
Dit systeem heeft dan weer geen ECC, dat is natuurlijk wel een flink verschil.
Technisch gezien is het ook mogelijk om ECC te doen met een Celeron of Pentium processor, maar die zijn wat slechter in Plex streams.
Ik denk dat je met die E3 voor de combinatie van ZFS, ECC en PLEX best aardig zit...
Tis veel geld, maar dan heb je er wel weer een paar jaar plezier van.

Het is ook zeker een server die ik nog aantal jaar wil houden en niet over 2 jaar weer ga vervangen bv.
Met nieuwe moederboad en wat ander geheugen:
# | Product | Prijs | Subtotaal |
1 | Intel Core i3-4150 Boxed | € 104,95 | € 104,95 |
1 | ASRock Asrock E3C224-V+ | € 164,50 | € 164,50 |
1 | Crucial CT2KIT102472BD160B | € 169,- | € 169,- |
Bekijk collectie Importeer producten | Totaal | € 438,45 |
FireDrunk schreef op woensdag 25 februari 2015 @ 21:42:
Ik denk dat je met die E3 voor de combinatie van ZFS, ECC en PLEX best aardig zit...
Tis veel geld, maar dan heb je er wel weer een paar jaar plezier van.

Data en andere zaken scheiden lukt ook wel enigszins met de plugins die (bijvoorbeeld) FreeNAS aanbiedt, in een jail is het ook enigszins gescheiden en je kunt zelf kiezen wat een jail / plugin aankan
Ik heb dan wel gekozen voor ESXi (ook op een Xeon + SuperMicro-bordje) maar ik gebruik de plugins van FreeNAS nog steeds, heel simpele en makkelijke manier om aan Plex / OwnCloud / Transmission / sabnzbd te komen; stuk voor stuk hebben ze met storage te maken dus waarom het wiel opnieuw uitvinden?
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Ik heb 1220 cpu's en in servers met 5 en 10 hdds en de cpu load is erg laag met 40-50 mbps maximaal naar een afspeler sturen..
Ze krijgen het alleen iets drukker als ik met 10GE data ga moven.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Scheelt natuurlijk wel aardig wat in verbruik en lawaai, of niet?
Maar voor transcoden met Plex is meer MHz wel handigjacovn schreef op woensdag 25 februari 2015 @ 21:58:
Voor alleen data ophoesten naar 1 client volstaat de goedkoopste xeon ook wel.
Ligt het trouwens aan mij of is de 'kolom' cores/threads verdwenen uit de drop-down-list van de pricewatch?
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Heb nu een server in opbouw, met 3x140 mm fanwall en een 90 mm fan op een noctua cpu koeler en de cpu haalt de 30 graden niet eens. Maar ja hij doet ook nog niet veel.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Het is trouwens ook beter om geheugen te nemen met alleen ECC, en geen Registered modules, daar die een beduidend langere toegangstijd hebben.Rexel schreef op woensdag 25 februari 2015 @ 20:46:
Ik heb specifiek voor het ECC geheugen gekozen om het gedeelte van bitrot tegen te gegaan, had als ik het goed heb op het forum van FreeNAS hier overgelezen dat het daarom zeer aangeraden word om ECC geheugen te gebruiken.
Ik zou beginnen met 2x Kingston 8GB ECC 1.6GHz , heb je meer geheugen echt nodig kan je er altijd nog twee bij prikken, maar dat betwijfel ik.Omdat naar mijn idee ZFS erg hongerig is voor RAM had ik hier voor wat extra's gepakt. als jullie denken dat ik met 16GB ook mee uit te voeten kan pak ik 16GB:)
Persoonlijk vind ik ECC de 100~200 euro extra niet waard, daar het imho (meningen verschillen), maar beperkt extra bescherming geeft voor veel extra geld, bij een op zich simpele thuis server, met voornamelijk video's.
Voor zwaar belaste (bedrijfs)systemen is er zeker wel nut, daar de kans op error's dan toe neemt, en ook de gevolgen er van.
Daarnaast is zelfs ZFS RAIDZ3 geen alternatief voor een backup, en onvervangbare persoonlijke bestanden moet je minstens een back-up van maken, en bij voorkeur ook een extra off-site backup, een goed back-up plan is zeker aan te bevelen.
Persoonlijk draai ik op een onder geklokte i7-4790K, die meestal op 2.2GHz draait, voor de beste IPW, daar ik helemaal geen haast heb met de (re-)encoding van mijn films en series.
Maar als ik een flinke back-log heb, zo als laatst toen ik alle 25 Bond filmen op BR aan het encoden was, heb ik hem op 4.8GHz gezet, om lekker snel op te schieten, maar dat scheelt wel 90W in verbruik, waar ik op 2.2GHz ongeveer 8W meer verbruik dan IDLE.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Rexel,Rexel schreef op woensdag 25 februari 2015 @ 20:26:
Nu draai ik zelf een unRAID server maar ik begin deze niet helemaal meer te vertrouwen, op het gebied van ontwikkeling van het OS en de manier waarop data veilig word gesteld en aangezien ik toch extra ruimte nodig heb wil ik een 2de nieuwe 'hoofd' server bouwen voor het opslaan van films, muziek en familie foto's.
Als OS ben ik er nog niet helemaal uit welke het 'beste' is voor een beginnende ZFS gebruiker als mij zelf. Persoonlijk vind ik een gemakkelijke WebUI de beste uitkomst wat naar mijn weten me al gauw brengt bij oplossingen als NAS4Free en FreeNAS.
Ik kom ook van unraid af, en ben over gegaan naar ZFSguru.
Het enige wat ik mis is fanspeed script wat goed werkte op unraid.
Voor de rest ben ik erg blij dat ik er vanaf ben. Niets dan ellende met unraid. 32 bit OS, ontwikkelaar die weinig feedback geeft. bij zfsguru al niet veel beter, maar we hebben hier local support
Je moet wel vooruit plannen met ZFS, simpel uitbreiden met 1 hdd erbij zoals bij unraid kan niet meer.
Success met de overgang.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Nee inderdaad, ik ben er van bewust dat een ZFS RAID geen alternatief is voor een backup. heb daarom belangrijke foto's en documenten dan ook gebrand op DVD en ook opgeslagen via cloudoplossingen.player-x schreef op woensdag 25 februari 2015 @ 22:27:
[...]
Het is trouwens ook beter om geheugen te nemen met alleen ECC, en geen Registered modules, daar die een beduidend langere toegangstijd hebben.
[...]
Ik zou beginnen met 2x Kingston 8GB ECC 1.6GHz , heb je meer geheugen echt nodig kan je er altijd nog twee bij prikken, maar dat betwijfel ik.
Persoonlijk vind ik ECC de 100~200 euro extra niet waard, daar het imho (meningen verschillen), maar beperkt extra bescherming geeft voor veel extra geld, bij een op zich simpele thuis server, met voornamelijk video's.
Voor zwaar belaste (bedrijfs)systemen is er zeker wel nut, daar de kans op error's dan toe neemt, en ook de gevolgen er van.
Daarnaast is zelfs ZFS RAIDZ3 geen alternatief voor een backup, en onvervangbare persoonlijke bestanden moet je minstens een back-up van maken, en bij voorkeur ook een extra off-site backup, een goed back-up plan is zeker aan te bevelen.
Persoonlijk draai ik op een onder geklokte i7-4790K, die meestal op 2.2GHz draait, voor de beste IPW, daar ik helemaal geen haast heb met de (re-)encoding van mijn films en series.
Maar als ik een flinke back-log heb, zo als laatst toen ik alle 25 Bond filmen op BR aan het encoden was, heb ik hem op 4.8GHz gezet, om lekker snel op te schieten, maar dat scheelt wel 90W in verbruik, waar ik op 2.2GHz ongeveer 8W meer verbruik dan IDLE.
Ik heb op het moment een i7-920 draaien en het systeem verstookt ongeveer 90-100W idle. wat ik nogal veel aan de hoge kant vond. vandaar dat ik ook een nieuwe generatie wilde en een willicht iets minder overkill CPU gekozen heb naar mijn gevoel.
Het localsupport mis ik dan weer. persoonlijk denk ik dat ZFSGuru dan niet de juiste oplossing voor mij zal zijn en ga ik toch voor b.v. FreeNAS of NAS4Free achtige oplossingen.jacovn schreef op woensdag 25 februari 2015 @ 22:46:
[...]
Rexel,
Ik kom ook van unraid af, en ben over gegaan naar ZFSguru.
Het enige wat ik mis is fanspeed script wat goed werkte op unraid.
Voor de rest ben ik erg blij dat ik er vanaf ben. Niets dan ellende met unraid. 32 bit OS, ontwikkelaar die weinig feedback geeft. bij zfsguru al niet veel beter, maar we hebben hier local support
Je moet wel vooruit plannen met ZFS, simpel uitbreiden met 1 hdd erbij zoals bij unraid kan niet meer.
Success met de overgang.
Is ook absolute waar, ik heb zelf alleen af en toe nog wel eens de neiging om dingen uit te willen proberen en dan is virtualisatie weer een mooie oplossing dat is meer tenzijde, de voornaamste functie van de server zal opslag blijven.Paul schreef op woensdag 25 februari 2015 @ 21:56:
[...]
En als je wilt gaan virtualiseren dan heb je al een setup die VT-d doet en relatief veel geheugen aankan
Data en andere zaken scheiden lukt ook wel enigszins met de plugins die (bijvoorbeeld) FreeNAS aanbiedt, in een jail is het ook enigszins gescheiden en je kunt zelf kiezen wat een jail / plugin aankan
Ik heb dan wel gekozen voor ESXi (ook op een Xeon + SuperMicro-bordje) maar ik gebruik de plugins van FreeNAS nog steeds, heel simpele en makkelijke manier om aan Plex / OwnCloud / Transmission / sabnzbd te komen; stuk voor stuk hebben ze met storage te maken dus waarom het wiel opnieuw uitvinden?
Alweer bedankt voor de goeie reactie, Top!
-Rexel
Altijd slim, de houdbaarheid van dvd's is ook niet t je van het.Rexel schreef op donderdag 26 februari 2015 @ 15:32:
[...]
Nee inderdaad, ik ben er van bewust dat een ZFS RAID geen alternatief is voor een backup. heb daarom belangrijke foto's en documenten dan ook gebrand op DVD en ook opgeslagen via cloudoplossingen.
Zal t verbruik vermoedelijk wel ten goede komen.Ik heb op het moment een i7-920 draaien en het systeem verstookt ongeveer 90-100W idle. wat ik nogal veel aan de hoge kant vond. vandaar dat ik ook een nieuwe generatie wilde en een willicht iets minder overkill CPU gekozen heb naar mijn gevoel.
Met 'local support' doelt men op de aanwezigheid van Cipher, FireDrunk en CurlyMo die zich geregeld in t grote ZFS topic laten geldenHet localsupport mis ik dan weer. persoonlijk denk ik dat ZFSGuru dan niet de juiste oplossing voor mij zal zijn en ga ik toch voor b.v. FreeNAS of NAS4Free achtige oplossingen.
Een ZFS storage server kun je ook virtualiseren, maar wellicht is het slimmer om niet alles tegelijk te willen.Is ook absolute waar, ik heb zelf alleen af en toe nog wel eens de neiging om dingen uit te willen proberen en dan is virtualisatie weer een mooie oplossing dat is meer tenzijde, de voornaamste functie van de server zal opslag blijven.
Alweer bedankt voor de goeie reactie, Top!
-Rexel
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Heb nu op zich alles redelijk netjes gescheiden voor thuisgebruik, met FreeNAS bare metal op een server en alle extra functies in jails. Die pc begint echter echt te oud te worden (zie inventaris), al draait het voorlopig nog wel (zelfs een 720p transcoden in Plex/Media Browser lukt) even door.
Ik wil sowieso ECC-geheugen, dus een Celeron, i3 of Xeon. Denk dat het de Xeon gaat worden ivm. het kunnen virtualiseren van enkele Windows machines, om dat ook weer eens aan te raken

Oh haha dan blijft het nogsteeds wel in de race, Ik ga het ook niet allemaal tegelijkertijd doen, eerst een stabiele ZFS oplossing en wellicht dan in de toekomst een deel of alles virtualiseren.Pantagruel schreef op donderdag 26 februari 2015 @ 16:19:
Met 'local support' doelt men op de aanwezigheid van Cipher, FireDrunk en CurlyMo die zich geregeld in t grote ZFS topic laten gelden
[...]
Een ZFS storage server kun je ook virtualiseren, maar wellicht is het slimmer om niet alles tegelijk te willen.
Unraid was haast altijd huilen van ellende. Uiteindelijk wilde ik te veel denk ik. Pre clear op een hdd, dus 4 tegelijk: crash van systeem na xx uur. 2 TB moven naar systeem met een chache drive: Snelheid tussen de 90 MB/sec en 3MB/sec (vooral het laatste)
Het lag uiteindelijk aan de combinatie van supermicro moederbord en te veel ram (32 bit os) kwam ik op het forum achter.
En toe gezeik bij het doorverkopen van de bootsticks met unraid licentie met de developer, die geen toestemming gaf om de licentie over te schrijven.
Ik zal het altijd en overal iedereen afraden.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
In eerste instantie vooral om mee rommelen om te kijken hoe ZFS werkt. En om later mijn media op te zetten.
Zijn er nog dingen waar ik qua hardware rekening mee moet houden als ik voor bovenstaande setup ga? Ik had trouwens in mijn huidige server dat een ibm serveraid 1115 niet wilde booten, uiteindelijk aan de praat gekregen door een contactje op de kaart af te plakken. Blijkbaar werken die kaarten vaak standaard niet op 'normale' moederborden.
Er zijn twee stromingen, ook hier, persoonlijk denk ik dat ECC zwaar is over overrated, ja het is een plus, maar alleen voor systemen die gebruikt worden voor absoluut kritieke data.RobinMM schreef op donderdag 26 februari 2015 @ 21:15:
Als ik Player-x en Cipher goed begrijp is ECC niet echt nodig als het (vooral) voor opslag van media content gaat.
Een imho beste analogie zou zijn, ZFS voegde gordels en een airbag toe aan het file systeem, vergeleken met NTFS, ECC voegt daar nog eens zij-airbags aan toe, of dat je dat 100~300 euro waard is, is aan je zelf, ik vind het persoonlijk behoorlijk overdreven voor een home video server.
Bouw je een bedrijfsserver, dan zou ik zeker ECC gebruiken, daar dan de in verhouding geringe meer prijs voor bedrijven niet opweegt tegen over data corruptie, daar een bit flip daar vaker grotere potentiële gevolgen hebben bij bedrijfsdata, daarnaast verblijft er langduriger veel cache data in geheugen als er bv een database op ZFS draait.
Voor een systeem met voornamelijk video files is een bit flip niet echt een probleem, daar het meestal zal lijden tot een kleine korte kleur of beeld verstoring zal lijden of zo.
En er is een helle simpele argument dat het belang van ECC voor thuis gebruik onderuit haalt, zelfs bij bedrijven wordt er geen ECC gebruikt in desktops, terwijl de data die opgeslagen wordt op het ZFS systeem, 99% meer tijd in dat type NON-ECC geheugen en het NTFS file systeem wordt gehouden en bewerkt, dan tijdens de korte tijd dat het door het ECC geheugen gaat van je/de server gaat tijdens verwerking voor opslag.
Imho is non-ECC ZFS is vele malen veiliger voor data integriteit, dan welke ext4 of NTSF file systeem van een NAS of server met ECC, daar ZFS zich zelf controleert.
Denk dat deze auto analogie redelijk op gaat.
- FAT - een jaren 60 auto zonder gordels.
- NTFS & ext4 - een jaren 70 auto met een heup gordeltje
- ZFS - een moderne auto met ABS, 3 punts gordel en airbags.
- ZFS + ECC - voegt daar nog eens zij impact airbags aan toe.
Maar er is ook een groep die denkt dat ik totaal ongelijk heb, en ze zouden gelijk kunnen hebben, daar er nergens zover ik weet echt degelijk onderzoek is gedaan met harde bewijzen, die onomstreden aantonen de nut van wel of geen ECC geheugen.
[ Voor 3% gewijzigd door player-x op 27-02-2015 10:45 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Rijdt prima, maar op een dag blijft het gaspedaal hangen
BtrFS wordt zeer waarschijnlijk mijn volgende file systeem, daar er weinig meer mis is met BtrFS, non-raid is nu productie stable, en raid 5 en 6 beginnen nu ook gewoon betrouwbaar te worden sinds de laatste update.Thralas schreef op donderdag 26 februari 2015 @ 23:46:
Je vergeet de Toyota in het verhaal: btrfs.
Rijdt prima, maar op een dag blijft het gaspedaal hangen
We zijn inmiddels bij v3.19 aanbeland met BtrFS.
https://lkml.org/lkml/2014/12/12/630
En het intresante van het meer moderne BtrFS, dat die OCE ondersteund, ik zit dan ook met smart te wachten totdat raid 5 en 6 echt stabiel is onder BtrFS, en het is opeens dichter bij dan de meeste denken.
Gewoon beginnen met een 3 disk R6 array van bv 10TB disk, en elke keer als je ruimte te kort komt er een bij pluggen en een re-size doen.
Scheelt een hoop in je begin investering, en je hebt ook nog eens het voordeel van prijsdaling over tijd.
En hoop dat er een 8 of nog beter een 10TB versie van deze HGST Deskstar NAS schijf er is dan.
Heb nog 9TB ruimte in mijn array, en dan moet ik echt beginnen aan het bouwen van een nieuwe array..
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Als je het zo brengt klinkt het gebruik van ECC geheugen wat overbodig in een thuis situatie en wellicht dat het dan voor mij waarbij ik voornamelijk films opsla niet direct van essentieel belang is om het te gebruiken., ik heb even gekeken het scheelt ongeveer 60 - 70 euro tussen Non-ECC en ECC geheugen.player-x schreef op donderdag 26 februari 2015 @ 23:03:
[...]
Er zijn twee stromingen, ook hier, persoonlijk denk ik dat ECC zwaar is over overrated, ja het is een plus, maar alleen voor systemen die gebruikt worden voor absoluut kritieke data.
En imho is de gebruikte analogie overdreven, en er letterlijk nergens harde cijfers zijn die die stelling echt ondersteunen, en het meer een klok klepel verhaal is.
Een imho betere analogie zou zijn, ZFS voegde gordels en een airbag toe aan het file systeem, vergeleken met NTFS, ECC voegt daar nog eens zij-airbags aan toe, of dat je dat 2~300 euro waard is, is aan je zelf, ik vind het persoonlijk behoorlijk overdreven voor een home video server.
Bouw je een bedrijfsserver, dan zou ik zeker ECC gebruiken, daar dan de in verhouding geringe meer prijs voor bedrijven niet opweegt tegen over data corruptie, daar een bit flip daar vaker grotere potentiële gevolgen hebben bij bedrijfsdata, daarnaast verblijft er langduriger veel cache data in geheugen als er bv een database op ZFS draait.
Voor een systeem met voornamelijk video files is een bit flip niet echt een probleem, daar het meestal zal lijden tot een kleine korte kleur of beeld verstoring zal lijden of zo.
En er is een helle simpele argument dat het belang van ECC voor thuis gebruik onderuit haalt, zelfs bij bedrijven wordt er geen ECC gebruikt in desktops, terwijl de data die opgeslagen wordt op het ZFS systeem, 99% meer tijd in dat type NON-ECC geheugen en het NTFS file systeem wordt gehouden en bewerkt, dan tijdens de korte tijd dat het door het ECC geheugen gaat van je/de server gaat tijdens verwerking voor opslag.
Imho is non-ECC ZFS is vele malen veiliger voor data integriteit, dan welke ext4 of NTSF file systeem van een NAS of server met ECC, daar ZFS zich zelf controleert.
Denk dat deze auto analogie redelijk op gaat.Hoewel vaak auto vergelijkingen, vaak de plank redelijk mis slaan, denk ik dat het een redelijke analogie is.
- FAT - een jaren 60 auto zonder gordels.
- NTFS & ext4 - een jaren 70 auto met een heup gordeltje
- ZFS - een moderne auto met ABS, 3 punts gordel en airbags.
- ZFS + ECC - voegt daar nog eens zij impact airbags aan toe.
Maar er is ook een groep die denkt dat ik totaal ongelijk heb, en ze zouden gelijk kunnen hebben, daar er nergens zover ik weet echt degelijk onderzoek is gedaan met harde bewijzen, die onomstreden aantonen de nut van wel of geen ECC geheugen.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850
Als je een uefi optie in je bios hebt gaat die methode het handigst, althans dat is mijn mening.
[ Voor 3% gewijzigd door jacovn op 27-02-2015 18:27 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Heb idd een UEFI optie in de BIOS, moet ik dan gewoon in UEFI booten?jacovn schreef op vrijdag 27 februari 2015 @ 18:26:
Ik zou p19 nemen, p20 is de laatste maar heb iets gelezen over issues.
Als je een uefi optie in je bios hebt gaat die methode het handigst, althans dat is mijn mening.
En dan deze controller de laatste firmware P19 UEFI?
http://www.lsi.com/produc...sas-9211-8i.aspx#tab/tab4
sas2flash.efi -o -c x -f 2118it.bin -b mptsas2.rom
Ik heb nu sas2flash.efi en 2118it.bin en mptsas2.rom gedownload, Is die laatste noodzakelijk?
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850
Als je de kaart, zoals de meeste, gewoon als dummy controller gaat gebruiken is het niet echt nodig en zorgt het gewoon voor enkele seconden vertraging. Onlangs zelf een H310 geflasht en daar ook geen .ROM bestanden gebruikt. Werkt perfect.
Deze pdf was trouwens wel nuttig.
[ Voor 20% gewijzigd door SanderH_ op 27-02-2015 19:29 ]
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850
Dit is wat ZFS de das om zal doen voor thuisgebruik.player-x schreef op vrijdag 27 februari 2015 @ 00:20:
Gewoon beginnen met een 3 disk R6 array van bv 10TB disk, en elke keer als je ruimte te kort komt er een bij pluggen en een re-size doen.
Ik krijg dit onder UEFI, zonder dat ik er nog iets aan gedaan heb...
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850
Wat krijg je als je in DOS megarec -adplist ingeeft?
Ik ga morgen even kijken voor je. Vriendin had de nas nodig waarmee ik naar UEFI geboot was.SanderH_ schreef op vrijdag 27 februari 2015 @ 20:51:
Alle megarec & megacli commands heb ik in de gewone DOS gedaan en alles met sas2flash etc in UEFI.
Wat krijg je als je in DOS megarec -adplist ingeeft?
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850
Het is gelukt, Heb in DOS de firmware verwijderd, vervolgens de firmware geflasht in UEFI (P19) en het SAS adress toegevoegd.SanderH_ schreef op vrijdag 27 februari 2015 @ 20:51:
Alle megarec & megacli commands heb ik in de gewone DOS gedaan en alles met sas2flash etc in UEFI.
Wat krijg je als je in DOS megarec -adplist ingeeft?

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850

[ Voor 3% gewijzigd door SanderH_ op 28-02-2015 12:50 ]
Second that.Q schreef op vrijdag 27 februari 2015 @ 20:38:
[...]
Dit is wat ZFS de das om zal doen voor thuisgebruik.
Voor de gemiddelde thuis gebruiker is de investering die te samen gaat met 10 stuks hdd's doorgaans te veel van t goede. (10 stuks 4 TiB kost al snel €1450).
Btrfs biedt de optie om idd met een 3 disk R5 array te beginnen en dan in stappen je array te vergroten en uit eindelijk over te gaan naareen R6 array als je voldoende disks hebt. Iedere maand €145 voor een disk klinkt een stuk minder pijnlijk.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Momenteel reeds aangeschaft:
- Fractal Design Node 804 kast (veel plaats voor schijven en een goede airflow)
- Een 360W 80Plus Gold voeding
- Intel Core i3 4150, 3,5Ghz LGA 1150.
Wat ik op het oog heb is een SuperMicro X10SL7-F moederbordje. Veel SATA en SAS verbindingen, relatief zuinig, ondersteuning voor "staggered spin-up". Als nog iemand een goed alternatief weet, zeker welkom.
ECC geheugen nog niet echt op het oog en ik heb ook nog niet echt zicht op welke harde schijven.
Ik zou als configuratie gaan voor FreeNAS met ZFS. Ik denk dat ik voor 8 schijven van 3TB zou gaan (dus ook 32GB ram dan als ik de "regel" 1GB/TB volg).
Nadeel: investeringskost (maar echt verloren geld is dit niet)
Voordeel: eindelijk ruimte om mijn DVD en Bluraycollectie te digitaliseren + nog wat bestanden van videoprojecten. Eindelijk al mijn losse schijven weg waar ik nu nog steeds mee werk en met de Flex plugin kan ik er ineens overal aan in het correcte formaat.
Dus volop bezig met me wat in te lezen in het grote ZFS-topic en hier
Zojuist 5 dozen met 4 stuks hgst 7k4000 gekregen. Uitstekende prijs voor betaald denk ik.
Moet de serials nog op garantie checken.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Die 'regel' is voor productie systemen, niet voor een thuis NAS. Voor thuis is 8 GB zat als je verder geen gekke dingen op de machine draait.MClaeys schreef op zaterdag 28 februari 2015 @ 17:39:
Ik ben ook eens begonnen aan een NAS.
ECC geheugen nog niet echt op het oog en ik heb ook nog niet echt zicht op welke harde schijven.
Ik zou als configuratie gaan voor FreeNAS met ZFS. Ik denk dat ik voor 8 schijven van 3TB zou gaan (dus ook 32GB ram dan als ik de "regel" 1GB/TB volg).
Ik hoop nog steeds dat de OpenZFS ontwikkelaars van zulk een klasse blijken te zijn dat ze het uitbreiden van RAIDZ vdevs mogelijk maken, maar het is vast geen eenvoudige klus.Q schreef op vrijdag 27 februari 2015 @ 20:38:
[...]
Dit is wat ZFS de das om zal doen voor thuisgebruik.
Met een Plex plugin (in een aparte jail) zou ik in dit geval voor 16GB gaan, agz deze jail een aantal GB geheugen gebruikt.Q schreef op zaterdag 28 februari 2015 @ 18:53:
Die 'regel' is voor productie systemen, niet voor een thuis NAS. Voor thuis is 8 GB zat als je verder geen gekke dingen op de machine draait.
PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W
Het nadeel van de eerste zijn is dat je het simpel moet houden, vandaar dat Reiser FS en ZFS geen Online Capacity Expansion of zelfs Offline Capacity Expansion aanwezig is, de kans is dus zeer gering dat ZFS het ooit zal krijgen.Bigs schreef op zaterdag 28 februari 2015 @ 18:54:
Ik hoop nog steeds dat de OpenZFS ontwikkelaars van zulk een klasse blijken te zijn dat ze het uitbreiden van RAIDZ vdevs mogelijk maken, maar het is vast geen eenvoudige klus.
De reden waarom het wel in BtrFS komt, is omdat men eerst naar Reiser en ZFS hebben kunnen kijken, en er van hebben kunnen leren wat er goed en minder goed gedaan was, en omdat men van de eerste dag het in het lijstje van dingen die het file systeem zou moeten hebben.
Maar waarom wil je dat ZFS het ook krijgt?
Het is veel slimmer om op BtrFS over te stappen, want van uit een technisch oogpunt gezien is het gewoon de betere en nog moderne file systeem, niet perse veiliger, maar het zit gewoon wat slimmer in elkaar.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Bij videoprojecten en het overzetten van mijn bestaande backups is versioning en deduplicatie handig, maar ik weet niet of er dan constant zo veel nodig is.Q schreef op zaterdag 28 februari 2015 @ 18:53:
[...]
Die 'regel' is voor productie systemen, niet voor een thuis NAS. Voor thuis is 8 GB zat als je verder geen gekke dingen op de machine draait.
Anoniem: 15758
Echter, nu er geen groot bedrijf met veel resources meer aan ZFS werkt, is het wel de vraag of deze functionaliteit er gaat komen. Dat gezegd, zoals ZFS nu al is zal andere filesystems ook heel veel jaren duren voordat ze op hetzelfde niveau zitten.
Btrfs met betere expansion mogelijkheden is leuk, maar zonder een 1:1 backup is dat wel een risicovolle operatie. Stel je krijgt tussendoor bad sectors, cable errors of andere ongein, dan ben ik benieuwd of je niet een testpiloot wordt waarbij onvoorziene bugs je data kunnen mollen. Heb je wel die 1:1 backup voor je data, dan is expansion ook minder belangrijk aangezien je de array ook kunt destroyen en data overpompen. Veelal ook sneller dan een typische OCE-procedure waarbij de hardeschijven moeten seeken.
Kortom, leuk dat mensen er naar uit kijken, maar ik ben ietwat huiverig voor dit soort features waarbij enorm veel bij mis kan gaan.
Even niets...
- Ik heb 3.19 van kernel.org gecompiled.
- Daarna moest ik de highpoint driver hacken om die te laten compilen met 3.19
- vervolgens btrfs progs compilen
Ik heb inmiddels een 18 disk file system gemaakt. Daar een beetje data op gezet en toen de laatste 2 drives toegevoegd + gerebalanced. Dat werkt best makkelijk, ongeveer zoals MDADM, met minder stappen.
1
2
3
4
| root@Bunny:/storage# dd if=test.bin of=/dev/null bs=1M 100000+0 records in 100000+0 records out 104857600000 bytes (105 GB) copied, 140.494 s, 746 MB/s |
1
2
3
4
| root@Bunny:/storage# dd if=/dev/zero of=test.bin bs=1M count=100000 conv=fsync 100000+0 records in 100000+0 records out 104857600000 bytes (105 GB) copied, 218.865 s, 479 MB/s |
De oude dual-core cpu lijkt vooral bij het lezen een beetje te mager.
Ik vind de tool UI niet erg vriendelijk / overzichtelijk, maar als dit nu eens stable gaat worden, dan is btrfs met RAID6 echt super. Je begint met een kleine array, van mijn part 4 drives RAID6 en naar behoefte prik je bij. Met MDADM kan het al maar nu ook met een next-gen file system.
Waarom 3.19 kernel?
Je kunt gewoon een drive uit de array 'deleten' en dan gaat btrfs dus gewoon eerst de data rebalancen en dan kun je de drive gewoon los trekken. Dat is toch wel erg gaaf.Status
From 3.19, the recovery and rebuild code was integrated. This brings the implementation to the point where it should be usable for most purposes. Since this is new code, you should expect it to stabilize over the next couple of kernel releases.
The one missing piece, from a reliability point of view, is that it is still vulnerable to the parity RAID "write hole", where a partial write as a result of a power failure may result in inconsistent parity data.
Parity may be inconsistent after a crash (the "write hole")
No support for discard? (possibly -- needs confirmation with cmason)
The algorithm uses as many devices as are available: No support for a fixed-width stripe (see note, below)
[ Voor 68% gewijzigd door Q op 01-03-2015 01:02 ]
Ik kan het mis hebben maar er is nu echt een flinke push om BtrFS de standaard file systeem van Linux te maken, en daar zitten best wel een aantal grote namen tussen.Anoniem: 15758 schreef op zaterdag 28 februari 2015 @ 22:16:
Dat gezegd, zoals ZFS nu al is zal andere filesystems ook heel veel jaren duren voordat ze op hetzelfde niveau zitten.
- Fujitsu
- Fusion-IO
- Intel
- Linux Foundation
- Netgear
- Novell/SUSE
- Oracle
- Red Hat
- STRATO AG
Vooral Fujitsu heeft op het moment een of meerdere slimme koppen aan het werk voor BtrFS, heeft de laatste tijd veel werk in R5/6 en OCE gestoken.
In ieder geval nog steeds een stuk veiliger dan wanneer ik dat nu een OCE doe op een NTSF riad 6 array.Btrfs met betere expansion mogelijkheden is leuk, maar zonder een 1:1 backup is dat wel een risicovolle operatie.
Zou de parity dat niet gewoon moeten opvangen.Stel je krijgt tussendoor bad sectors, cable errors of andere ongein, dan ben ik benieuwd of je niet een testpiloot wordt waarbij onvoorziene bugs je data kunnen mollen.
Want volgens mij heeft FireDrunk gelijk, het zou nouwelijks onveiliger moeten zijn dan gewone disk operaties.
Of mis ik hier iets hoe BtrFS fundamenteel werkt?FireDrunk schreef op zondag 01 maart 2015 @ 00:25:
BTRFS' rewrites en rebalances zijn (als het goed is) ook veilig en werken ook volgens het copy on write mechanisme... Het is dus niet veiliger of onveiliger dan gewone IO.
-
Dat zou in een keer de kosten van je array verdubbelen, dat zou juist voor thuis gebruikers het doel van OCE onder BtrFS in zijn geheel nutteloos maken, als je een array hebt zo als ik van 50TB, wil je niet nog eens 2500 euro extra uitgeven om 100% veilig te zijnHeb je wel die 1:1 backup voor je data, dan is expansion ook minder belangrijk aangezien je de array ook kunt destroyen en data overpompen. Veelal ook sneller dan een typische OCE-procedure waarbij de hardeschijven moeten seeken.
Tja het is of het risico nemen, of serieus extra geld investeren in extra disks, denk dat als het blijkt dat OCE onder BtrFS redelijk veilig blijkt, dat de meeste mensen voor optie 1 kiezen, ik iig wel.Kortom, leuk dat mensen er naar uit kijken, maar ik ben ietwat huiverig voor dit soort features waarbij enorm veel bij mis kan gaan.
En als het echt veilig blijkt, dan denk ik dat cloud bedrijven vooral voor clouds in eigen beheer OCE ook best prettig zullen vinden om hun investering uit te kunnen spreiden.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Anoniem: 59888
Bij de ontwikkeling van de eerste versie van ZFS werd BPR als noodzakelijk gezien op de lange termijn. We zijn inmiddels op dat punt aangekomen zonder BPR, en het blijkt niet strikt noodzakelijk te zijn, zonder gaat ook prima.Anoniem: 15758 schreef op zaterdag 28 februari 2015 @ 22:16:
Single disk expansion voor ZFS leunt op de BPR functionaliteit - Block Pointer Rewrite. Deze functionaliteit was al voorzien voordat de 1e versie van ZFS uitkwam. Nog sterker: het werd als cruciaal gezien aangezien BPR ook nodig is voor defragmentatie en andere features.
Echter, nu er geen groot bedrijf met veel resources meer aan ZFS werkt, is het wel de vraag of deze functionaliteit er gaat komen. Dat gezegd, zoals ZFS nu al is zal andere filesystems ook heel veel jaren duren voordat ze op hetzelfde niveau zitten.
BPR was altijd al een groot project, zonder financiering van SUN wordt dat heel erg moeilijk. Tel daarbij op dat alle features die de afgelopen jaren zijn toegevoegd BPR heel moeilijk zo niet onmogelijk maken en je hebt het over een enorm project waarvoor de financiering ontbreekt. Kortom, de kans dat dat er ooit nog van gaat komen is nihil.
Er is inderdaad een risico, maar je laat het nu klinken alsof het allemaal volledig onbekend terrein is. Dat is ook weer niet zo, mdadm kan het al sinds 2004 (raid 1) en 2006 (raid 5). Natuurlijk is btrfs geen mdadm maar het is dus ook weer geen volledig pionierswerk. Hoe je dat veilig kunt doen met een zo klein mogelijke kans op dataverlies is een opgelost probleem. Die theorie hoef je dus niet zelf te bedenken. Uiteraard is de toepassing op en implementatie in btrfs makkelijker gezegd dan gedaan, maar het feit dat men het niet allemaal zelf hoeft te bedenken scheelt een hoop. Een auto-ontwerper hoeft ook niet meer na te denken of de wielen vierkant of driehoekig moeten worden.Anoniem: 15758 schreef op zaterdag 28 februari 2015 @ 22:16:
Btrfs met betere expansion mogelijkheden is leuk, maar zonder een 1:1 backup is dat wel een risicovolle operatie. Stel je krijgt tussendoor bad sectors, cable errors of andere ongein, dan ben ik benieuwd of je niet een testpiloot wordt waarbij onvoorziene bugs je data kunnen mollen. Heb je wel die 1:1 backup voor je data, dan is expansion ook minder belangrijk aangezien je de array ook kunt destroyen en data overpompen. Veelal ook sneller dan een typische OCE-procedure waarbij de hardeschijven moeten seeken.
Kortom, leuk dat mensen er naar uit kijken, maar ik ben ietwat huiverig voor dit soort features waarbij enorm veel bij mis kan gaan.
Vergeeet ZFS dedup. Snapshots oid vragen niet zoveel / geen ram naar mijn weten. Het is wat je zelf wilt uitgeven. In mijn 71 TB nasje heb ik 'maar' 16 GB zitten. Relatief niet in verhouding maar voor de toepassing meer dan zat.MClaeys schreef op zaterdag 28 februari 2015 @ 22:05:
[...]
Bij videoprojecten en het overzetten van mijn bestaande backups is versioning en deduplicatie handig, maar ik weet niet of er dan constant zo veel nodig is.
Er is wat mij betreft wel een issue met BTRFS.
De mensen die betaald worden om aan BTRFS te werken hebben geen enkele interesse om verder dan RAID6 te gaan. Waar ZFS RAID50/60 doet en triple parity, zal BTRFS deze features niet krijgen!
http://blog.ronnyegner-co...btrfs-and-mdadm-dec-2014/
De partijen die BTRFS sponsoren maken gebruik van distributed file systems, die dus relatief kleinere storage per node nodig hebben, dus < 20 drives. Dat is best jammer.
[ Voor 35% gewijzigd door Q op 01-03-2015 11:06 ]
Alle fatsoenlijke RAID controllers kunnen live arrays uitbreiden of zelfs migreren naar een ander RAID niveau. Er is geen reden waarom ZFS dat niet zou kunnen; zo moeilijk is het truukje kennelijk niet.player-x schreef op zaterdag 28 februari 2015 @ 21:31:
[...]
Het nadeel van de eerste zijn is dat je het simpel moet houden, vandaar dat Reiser FS en ZFS geen Online Capacity Expansion of zelfs Offline Capacity Expansion aanwezig is, de kans is dus zeer gering dat ZFS het ooit zal krijgen.
De reden waarom het wel in BtrFS komt, is omdat men eerst naar Reiser en ZFS hebben kunnen kijken, en er van hebben kunnen leren wat er goed en minder goed gedaan was, en omdat men van de eerste dag het in het lijstje van dingen die het file systeem zou moeten hebben.
Maar waarom wil je dat ZFS het ook krijgt?
Het is veel slimmer om op BtrFS over te stappen, want van uit een technisch oogpunt gezien is het gewoon de betere en nog moderne file systeem, niet perse veiliger, maar het zit gewoon wat slimmer in elkaar.
BtrFS is naar mijn idee nog steeds niet stabiel genoeg om mijn data aan toe te vertrouwen, terwijl ZFS inmiddels een behoorlijke staat van dienst heeft.
Dus wat jij zegt is dat ZFS het zelfde is als FAT en NTSF, ja het zijn beide file systemen, maar daar houd de vergelijking dan wel zo een beetje op.Bigs schreef op zondag 01 maart 2015 @ 13:48:
Alle fatsoenlijke RAID controllers kunnen live arrays uitbreiden of zelfs migreren naar een ander RAID niveau. Er is geen reden waarom ZFS dat niet zou kunnen; zo moeilijk is het truukje kennelijk niet.
Dat is het zelfde als zeggen, omdat oude monteur goed oude auto kan repareren, hij dat ook kan bij moderne auto's vol met computers.



BtrFS is nu stabiel voor dagelijks gebruik, en BtrFS RAID 5/6 is nu echt Beta, en begint ook stabiel te worden, niet dat ik de 50TB van mijn server aan een Beta filesysteem toe vertrouw, maar het begint te komen, en denk dat het eerder maanden dan jaren is voor dat BtrFS raid 5/6 productie rijp is.BtrFS is naar mijn idee nog steeds niet stabiel genoeg om mijn data aan toe te vertrouwen, terwijl ZFS inmiddels een behoorlijke staat van dienst heeft.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Hoewel ik je frustratie snap, is hij onterecht.Bigs schreef op zondag 01 maart 2015 @ 13:48:
[...]
Alle fatsoenlijke RAID controllers kunnen live arrays uitbreiden of zelfs migreren naar een ander RAID niveau. Er is geen reden waarom ZFS dat niet zou kunnen; zo moeilijk is het truukje kennelijk niet.
Vergelijk het met het volgende:
Als je een grote doos van 1 m3 met blokken van 20 cm3 hebt, is het verplaatsen van 1 blok van 20 cm3 een eitje...
Maar stel je nu voor dat je een doos hebt van 20m3, met blokken van 1,2,4,7, 11 en 21 cm3 met verschillende kleuren en verschillende gewichten...
Probeer dan maar eens 'even' alle blokken te sorteren...
Even niets...
http://louwrentius.com/th...-of-cow-file-systems.html
Wat vinden jullie er van?
[ Voor 48% gewijzigd door Q op 01-03-2015 20:01 ]
Mij is altijd duidelijk geweest dat je gewoon vooruit moet plannen. Dus bijvoorbeeld 10 disc raidz2 per keer.
Dat dat niet de consumenten manier is snap ik ook wel. Ik stop mijn jaarlijkse bonus meestal in uitbreiding, maar die ruimte zal niet iedereen hebben.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Ik zeg helemaal niet dat ZFS hetzelfde is als FAT en NTSF (sic). ZFS neemt juist taken van de volume manager en RAID controller over en zou daarom live 'RAID' migraties gewoon moeten kunnen ondersteunen.player-x schreef op zondag 01 maart 2015 @ 18:36:
[...]
Dus wat jij zegt is dat ZFS het zelfde is als FAT en NTSF, ja het zijn beide file systemen, maar daar houd de vergelijking dan wel zo een beetje op.
Dat is het zelfde als zeggen, omdat oude monteur goed oude auto kan repareren, hij dat ook kan bij moderne auto's vol met computers. [afbeelding][afbeelding][afbeelding] -![]()
Juist, Beta. Dus nog geen vervanger voor ZFS wat al jaren productiekwaliteit is. Bedankt voor het bevestigen van m'n punt.BtrFS is nu stabiel voor dagelijks gebruik, en BtrFS RAID 5/6 is nu echt Beta, en begint ook stabiel te worden, niet dat ik de 50TB van mijn server aan een Beta filesysteem toe vertrouw, maar het begint te komen, en denk dat het eerder maanden dan jaren is voor dat BtrFS raid 5/6 productie rijp is.
Zit iets in, toch zou het door de CoW opbouw van ZFS goed mogelijk moeten zijn. Zo vind ik het ook vreemd dat het rebalancen van vdevs (na het toevoegen van extra vdevs) nog niet mogelijk is zonder send/recv actie (AFAIK). Dit zijn dingen die in andere systemen gewoon standaard zijn. Maar je hebt gelijk, met verschillende dingen door elkaar gemengd wordt het wel een stuk ingewikkelder.FireDrunk schreef op zondag 01 maart 2015 @ 19:13:
[...]
Hoewel ik je frustratie snap, is hij onterecht.
Vergelijk het met het volgende:
Als je een grote doos van 1 m3 met blokken van 20 cm3 hebt, is het verplaatsen van 1 blok van 20 cm3 een eitje...
Maar stel je nu voor dat je een doos hebt van 20m3, met blokken van 1,2,4,7, 11 en 21 cm3 met verschillende kleuren en verschillende gewichten...
Probeer dan maar eens 'even' alle blokken te sorteren...
De frustratie zit dus meer in het nét niet compleet/perfect zijn van ZFS.
[ Voor 9% gewijzigd door Bigs op 01-03-2015 21:35 ]
De online uitbreiding zou voor mij ook een welkome feature zijn, maar ik snap wel waarom ze dat niet zomaar maken... Halverwege zo'n operatie een power loss is echt lastig opvangen hoor... Dan moet zo'n systeem na reboot weer verder gaan...
Even niets...
Bedankt, maar waarom werkt online grow/schrink niet voor jou?BartNL schreef op zondag 01 maart 2015 @ 20:25:
vind het knap en goed leesbaar opgeschreven. Blijft wel een persoonlijke mening want zelf zie ik het onmisbare voordeel van online expansion niet. Voor mij blijft het uitblijven van support door Apple of in mijn geval vooral Microsoft het grootste obstakel.
Mijn klaagzang ff naar hacker news gepost, staat op de frontpage.
[ Voor 7% gewijzigd door Q op 01-03-2015 21:16 ]
True. Heb m'n antwoord nog wat genuanceerdFireDrunk schreef op zondag 01 maart 2015 @ 20:55:
Klopt, sommige features zie ik ook graag terug. Defragmentatie (soort van rebalancen) bijvoorbeeld... Daar zit ik nu heel erg tegenaan te hikken... Mijn array is vol geweest, en is nu wel weer wat leger, maar traag als dikke stront in vergelijking met toen ik hem net maakte (150-200MB/s met 4*4TB). In een beetje slecht geval zit ik < 150MB/s. Niet problematisch maar wel vervelend.
De online uitbreiding zou voor mij ook een welkome feature zijn, maar ik snap wel waarom ze dat niet zomaar maken... Halverwege zo'n operatie een power loss is echt lastig opvangen hoor... Dan moet zo'n systeem na reboot weer verder gaan...
Het is niet alleen consumenten, de meeste kleinere bedrijven met een beperkt budget hebben ook liever een file systeem dat gewoon mee kan groeien, zolang het maar veilig is.jacovn schreef op zondag 01 maart 2015 @ 20:36:
Mij is altijd duidelijk geweest dat je gewoon vooruit moet plannen. Dus bijvoorbeeld 10 disc raidz2 per keer.
Dat dat niet de consumenten manier is snap ik ook wel.
Ik en mijn vrouw verdienen samen ruim meer dan genoeg, we wonen in Noorwegen op familie land, in een huis dat is afbetaalt, en de hardware die ik voor de server koop wordt gedeeld met nog 3 andere gezinnen (familie), die ook op mijn netwerk zitten.Ik stop mijn jaarlijkse bonus meestal in uitbreiding, maar die ruimte zal niet iedereen hebben.
Dat wil niet zeggen dat ik graag geld verspil, als het een stuk goedkoper kan, want HDDs worden gemiddeld 30~40% goedkoper over de levensduur van mijn array, plus ik kan de investering uitspreiden, wat voor de meeste mensen ook een flinke plus is.
Prima er is niks mis met conservatief blijven met je file systeem, maar 3~4 maanden van het moment dat ook R5/6 van BtrFS in de Linux kernel komt, en ik geen problemen hoor ga ik over op BtrFS R6.Bigs schreef op zondag 01 maart 2015 @ 20:45:
Juist, Beta. Dus nog geen vervanger voor ZFS wat al jaren productiekwaliteit is. Bedankt voor het bevestigen van m'n punt.
En ik bevestig van verre je punt, ik zeg gewoon wat ik al eerder zij, BtrFS is klaar voor gebruik, BtrFS R5/6 is waarschijnlijk binnen afzienbare tijd klaar voor gebruik, en mijn vriend, een echte geek, mede hoofd server IT van alle ziekenhuizen in Noorwegen, zegt ook dat R5/6 eindelijk echt stabiel begint te worden, hoelang voor het productie klaar is weet hij niet zeker, maar hij vermoed binnen een jaar.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Als ik hier al deze ZFS/BtrFS "tirades" lees krijg ik steeds meer zin om mijn ZFS build nog wat langer in de koelkast te steken en gewoon af te wachten tot 1 van de 2 echt op punt staat.
Zeker aangezien ik niet in 1 klap 10+ schijven wil kopen maar graag geleidelijk meer capaciteit voorzie naar gelang dit nodig is.
[ Voor 12% gewijzigd door SanderH_ op 01-03-2015 22:07 ]
mogelijk ervaar je dat zo omdat je veel opslag hebt? Ik heb dezelfde insteek, wanneer ik ruimte te kort kom zet er een nieuwe raid set naast. Ben vanwege migratie en risicobeheersing sowieso niet van één hele grote pool aan schijven.jacovn schreef op zondag 01 maart 2015 @ 20:36:
Mij is altijd duidelijk geweest dat je gewoon vooruit moet plannen. Dus bijvoorbeeld 10 disc raidz2 per keer.
Dat dat niet de consumenten manier is snap ik ook wel.
Voor test systemen, die je regelmatig veranderd ga je niet al te veel werk stekken in het netjes bundelen van kabels, maar ze zijn wel allemaal ge labelt.
Is ook de reden dat ik op BtrFS wacht, en hoop dat deze schijf HGST Deskstar NAS ook in 10TB versies te koop zijn, en dan neem ik er daar 4 van.Als ik hier al deze ZFS/BtrFS "tirades" lees krijg ik steeds meer zin om mijn ZFS build nog wat langer in de koelkast te steken en gewoon af te wachten tot 1 van de 2 echt op punt staat.
Waarom geen 3, omdat het dan de tijd verdubbelt voordat ik een OCE moet doen, wat de software nog wat extra tijd geeft om nog wat stabieler te worden (of te bewijzen dat het stabieler is) voor ik een OCE doe.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Voor veel DIY NAS bouwers zou BTRFS daarvoor perfect zijn. Want die gaan niet voor zieke builds zoals die van mij, die houden het redelijk en dan hoef je niet naar multiple arrays te grijpen.
@Player-x holy shit what is dat voor een rommeltje

[ Voor 10% gewijzigd door Q op 01-03-2015 22:39 ]
Dat is juist een 'springplank' die bij ZFS nooit aan de orde geweest is...
Even niets...
Ik vind het voor een test systeem behoorlijk netjes, heb veel ergere foto's gezien, kijk maar eens goed, de kabels zijn nog steeds goed overzichtelijk, en dit is trouwens een behoorlijk oude foto die ik nog had.Q schreef op zondag 01 maart 2015 @ 22:37:
@Player-x holy shit what is dat voor een rommeltjeHopelijk dat het werk wat netter is Wel hoop leuk speelgoed
Hij heeft tegenwoordig nog vier rack's bij staan, waarvan drie lege, die gebruikt worden om nieuwe hardware in te testen, een hele rack met stuk of 15 servers met elk twee of drie van deze Quad Port Gbit Server Adapter type kaarten er in, om real world netwerk load te simuleren, en er nu bundels kabels naar de switches en servers gaan om ze te kunnen stressen op verschillende manieren.
Omdat hij zoveel werkt, heeft hij van zijn garage een server/netwerk test ruimte gemaakt, omdat dagen van 10~12 uur normaal voor hem zijn, vooral als hij aan het testen is, maar daar naast ook wel zijn kids en vrouw gewoon wil zien, is hij van meer thuis gaan werken, en heeft zelfs vaak een stel van zijn minions over de vloer om hem daar te helpen.
Laatst toen ik bij hem op bezoek was had hij bijna voor een miljoen aan nieuwe hardware in zijn test ruimte, dat hij aan het testen was voordat het life gaat, wat trouwens een leuke bijkomstigheid is, is dat de server ruimte zijn eigen stroom aansluiting heeft betaalt door werk, en dat hij de rest warmte gebruikt om zijn huis te verwarmen.
[ Voor 38% gewijzigd door player-x op 02-03-2015 13:11 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Als je een M1015 of andere adapter met een LSI2008 chipset bij plaatst is dat niet getest en niet gesupport door Supermicro.
Ik heb zowel de onboard 2308 als de m1015 naar p19 geflashed (wat issues met beide adapters te gebruiken dus de m1015 maar in een andere pc geflashed)
Als je dus zo beide adapters actief hebt zie je bij boot (alleen) de bios van de m1015 opstarten, en je kunt met de ctrl-c combinatie dan normaal de 2 lsi adapters bekijken.
Helaas zag ik alleen de m1015 en niet de onboard 2308.
In freebsd waren vervolgens wel normaal alle aangesloten discs er, dus ook die op de 2308.
Aangezien je de bios alleen nodig hebt als je wilt booten van een poort op een controller zou de oplossing die ik in een topic op het freenas forum gevonden heb zijn om van beide controllers het bios uit te schakelen. Zie: https://forums.freenas.or...detection-problems.21118/
Ik heb er maar voor gekozen om alleen de bios van de m1015 te verwijderen.
En dan kom je in het ctrl-c menu van de 2308 en kun je wel beide adapters zien en benaderen en configureren.
Dit lijkt me wel handig om staggered spin up etc te kunnen configureren.
In de x10sl7-f bios heb ik wel de pci-e versie voor het 16x slot (8x electrisch) naar 2.0 gezet (staat standaard op auto, en volgens de bovenstaande freenas link wordt de kaart niet altijd als een 2.0 kaart herkend en ingesteld)
Wellicht handig voor iemand ooit..
[ Voor 8% gewijzigd door jacovn op 03-03-2015 02:01 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Dat het ergens anders nog een grotere puin zooi kan zijn maakt dit nog niet minder rommelig. Maar hij heeft wel een situatie waar iedere IT-nerd van kan dromen. Lekker betaald spelen met nieuwe spulletjes, fantastisch hoor!player-x schreef op zondag 01 maart 2015 @ 23:35:
[...]
Ik vind het voor een test systeem behoorlijk netjes, heb veel ergere foto's gezien, kijk maar eens goed, de kabels zijn nog steeds goed overzichtelijk, en dit is trouwens een behoorlijk oude foto die ik nog had.
Hij heeft tegenwoordig nog vier rack's bij staan, waarvan drie lege, die gebruikt worden om nieuwe hardware in te testen, een hele rack met stuk of 15 servers met elk twee of drie van deze Quad Port Gbit Server Adapter type kaarten er in, om real world netwerk load te simuleren, en er nu bundels kabels naar de switches en servers gaan om ze te kunnen stressen op verschillende manieren.
Omdat hij zoveel werkt, heeft hij van zijn garage een server/netwerk test ruimte gemaakt, omdat dagen van 10~12 uur normaal voor hem zijn, vooral als hij aan het testen is, maar daar naast ook wel zijn kids en vrouw gewoon wil zien, is hij van meer thuis gaan werken, en heeft zelfs vaak een stel van zijn minions over de vloer om hem daar te helpen.![]()
Laatst toen ik bij hem op bezoek was had hij bijna voor een miljoen aan nieuwe hardware in zijn test ruimte, dat hij aan het testen was voordat het life gaat, wat trouwens een leuke bijkomstigheid is, is dat de server ruimte zijn eigen stroom aansluiting heeft betaalt door werk, en dat hij de rest warmte gebruikt om zijn huis te verwarmen.
Voor mijn gevoel moet RAIDZ2 afdoende zijn maar ik baseer dit op absoluut niets ...
Maar goed, mijn mening
Even niets...
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.