Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-07 20:45
Een BIOS update vereist een systeem dat kan booten, dus een CPU die werkt.

Je kan via IPMI wel je bios updaten, maar of het verstandig is... :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 20-07 14:23

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op maandag 23 februari 2015 @ 21:41:
Een BIOS update vereist een systeem dat kan booten, dus een CPU die werkt.

Je kan via IPMI wel je bios updaten, maar of het verstandig is... :+
* Pantagruel geeft er de voorkeur aan om toch even een tobo en een 17" LCD aan te sluiten en binnen handbereik te zijn. (zit niet te wachten op een verandering in MAC adres vd ipmi nic en alle bijbekomende problemen)

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Mr_x007
  • Registratie: Oktober 2001
  • Laatst online: 23:46
Moet er bij de laatste WD Green schijven (WD30EZRX of WD40EZRX) nog steeds de head-park instellingen met WDIDLE aangepast worden bij gebruik in nas of is dat bij deze serie niet nodig?

Acties:
  • 0 Henk 'm!

  • g0ulash
  • Registratie: Januari 2011
  • Laatst online: 17-07 13:21
Mr_x007 schreef op dinsdag 24 februari 2015 @ 12:27:
Moet er bij de laatste WD Green schijven (WD30EZRX of WD40EZRX) nog steeds de head-park instellingen met WDIDLE aangepast worden bij gebruik in nas of is dat bij deze serie niet nodig?
Je kunt de idle instellingen uitlezen met de WDIDLE.exe dus kun je zelf even controlleren of dat nodig is :)

Acties:
  • 0 Henk 'm!

Anoniem: 15758

Mr_x007 schreef op dinsdag 24 februari 2015 @ 12:27:
Moet er bij de laatste WD Green schijven (WD30EZRX of WD40EZRX) nog steeds de head-park instellingen met WDIDLE aangepast worden bij gebruik in nas of is dat bij deze serie niet nodig?
Bij mijn WD40EZRX was het wel nodig; bij mijn WD60EZRX (6TB) weer niet. Kan ook gewoon liggen aan het feit dat laatstgenoemde nieuwere firmware heeft en het is mogelijk dat andere modelen die inmiddels ook hebben. Bijzonder ook is dat de nieuwe WD60EZRX geen APM meer ondersteunt om de headparking uit te schakelen.

Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 17-07 12:22
Is er een probleem met iSCSI op FreeBSD, of mis ik hier ergens een setting?
Ik ben hier momenteel enkele tests aan't uitvoeren voor een VM storage via iSCSI en ik krijg bij het kopieren van een +/- 40GB file een sterke drop in snelheid na 20 à 30% op FreeBSD based servers.

Op server 1 ging dit van 100-110MBps naar <10MBps en VM's op de iSCSI werden totaal onwerkbaar.
Op server 2 ging dit van 100-110MBps naar 40/50MBps dit was een pure testopstelling zonder VM's.
Server 2 was een meer optimale implementatie (RAID1 SSD rechtstreeks op chipset), vandaar dat die beter loopt.

Op een windows server kreeg ik via iSCSI een 100MBps constant zonder drop.
En via SMB op server 2 ging het ook aan 90MBps zonder problemen.

Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 01-07 15:16
IceTeaGX schreef op dinsdag 24 februari 2015 @ 15:55:
Is er een probleem met iSCSI op FreeBSD, of mis ik hier ergens een setting?
Ik ben hier momenteel enkele tests aan't uitvoeren voor een VM storage via iSCSI en ik krijg bij het kopieren van een +/- 40GB file een sterke drop in snelheid na 20 à 30% op FreeBSD based servers.

Op server 1 ging dit van 100-110MBps naar <10MBps en VM's op de iSCSI werden totaal onwerkbaar.
Op server 2 ging dit van 100-110MBps naar 40/50MBps dit was een pure testopstelling zonder VM's.
Server 2 was een meer optimale implementatie (RAID1 SSD rechtstreeks op chipset), vandaar dat die beter loopt.

Op een windows server kreeg ik via iSCSI een 100MBps constant zonder drop.
En via SMB op server 2 ging het ook aan 90MBps zonder problemen.
En wat draai je?

Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 17-07 12:22
Ik heb FreeNAS en ZFSGuru getest. Op verschillende hardware platformen en met verschillende schijf configuraties. De drop is er altijd, alleen is de ernst ervan verschillend.

En het moet werken op een windows 2012r2 hyper-V setup.

Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 01-07 15:16
IceTeaGX schreef op dinsdag 24 februari 2015 @ 16:26:
[...]

Ik heb FreeNAS en ZFSGuru getest. Op verschillende hardware platformen en met verschillende schijf configuraties. De drop is er altijd, alleen is de ernst ervan verschillend.

En het moet werken op een windows 2012r2 hyper-V setup.
Je zou altijd nog een laatste stable build van native FreeBSD kunnen proberen. Wellicht ligt het ook aan tcp instellingen oid

Acties:
  • 0 Henk 'm!

  • rob1985
  • Registratie: Juni 2003
  • Laatst online: 12-07 10:30
Pantagruel schreef op dinsdag 24 februari 2015 @ 11:22:
[...]


* Pantagruel geeft er de voorkeur aan om toch even een tobo en een 17" LCD aan te sluiten en binnen handbereik te zijn. (zit niet te wachten op een verandering in MAC adres vd ipmi nic en alle bijbekomende problemen)
Ik kan op zich prima voor de installatie een beeldscherm aansluiten, dat was ook de bedoeling. Ik zou echter graag gewoon de nieuwe processor i3 4330 gebruiken dan de iets oudere i3 4130. Ik vind het namelijk zonde om voor hetzelfde geld een oudere processor te gebruiken. Maar als ik het goed begrijp is een BIOS update noodzakelijk is en dat ik die alleen kan uitvoeren met de oudere processor. Beetje jammer, maar als het niet anders is, dan heb ik geen keus. Of ik moet op zoek naar een nieuwer vergelijkbaar moederbord.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 20-07 14:23

Pantagruel

Mijn 80486 was snel,....was!

robvanpraat schreef op dinsdag 24 februari 2015 @ 21:02:
[...]


Ik kan op zich prima voor de installatie een beeldscherm aansluiten, dat was ook de bedoeling. Ik zou echter graag gewoon de nieuwe processor i3 4330 gebruiken dan de iets oudere i3 4130. Ik vind het namelijk zonde om voor hetzelfde geld een oudere processor te gebruiken. Maar als ik het goed begrijp is een BIOS update noodzakelijk is en dat ik die alleen kan uitvoeren met de oudere processor. Beetje jammer, maar als het niet anders is, dan heb ik geen keus. Of ik moet op zoek naar een nieuwer vergelijkbaar moederbord.
Wellicht kun je bij shop waar je t bord aanschaft wat regelen mbt de bios flash of dat ze checken dat t werkt, bij webwinkels is dat wellicht niet mogelijk (vragen staat altijd vrij). Of je moet een behulpzame tweaker in de buurt vinden van wie je een compatible cpu mag gebruiken om de bios update mee te doen.

Of beide cpu's aanschaffen en na een geslaagde flash de i3-4130 retourneren onder t retour recht (ietwat oneigenlijk gebruik moet ik bekennen)

[ Voor 7% gewijzigd door Pantagruel op 24-02-2015 21:18 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • nMad
  • Registratie: Augustus 2004
  • Laatst online: 21:46
robvanpraat schreef op dinsdag 24 februari 2015 @ 21:02:
Ik kan op zich prima voor de installatie een beeldscherm aansluiten, dat was ook de bedoeling. Ik zou echter graag gewoon de nieuwe processor i3 4330 gebruiken dan de iets oudere i3 4130. Ik vind het namelijk zonde om voor hetzelfde geld een oudere processor te gebruiken. Maar als ik het goed begrijp is een BIOS update noodzakelijk is en dat ik die alleen kan uitvoeren met de oudere processor. Beetje jammer, maar als het niet anders is, dan heb ik geen keus. Of ik moet op zoek naar een nieuwer vergelijkbaar moederbord.
Volgens ASRock kan een BIOS update wel via IPMI, zie pagina 25. Maar er staat niet bij of er een (compatibele) CPU geïnstalleerd moet zijn.

PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 20-07 14:23

Pantagruel

Mijn 80486 was snel,....was!

nMad schreef op dinsdag 24 februari 2015 @ 22:47:
[...]

Volgens ASRock kan een BIOS update wel via IPMI, zie pagina 25. Maar er staat niet bij of er een (compatibele) CPU geïnstalleerd moet zijn.
Aangezien je t BIOS in moet (vlgs de screenshots uit de handleiding van t mobo op pag. 52) zul je RAM en een werkende CPU geïnstalleerd moeten hebben. Ziet er verder wel fancy uit mbv USB redirect als input een flash uit voeren.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-07 20:45
Toch best iffy... Als het BIOS ook de IPMI code update, verlies je tijdens de update dus de connectie met de USB stick...

Zo heb ik wel eens DELL iDRAC (de enterprise variant van die IPMI dingen) gebricked...

Even niets...


Acties:
  • 0 Henk 'm!

  • nMad
  • Registratie: Augustus 2004
  • Laatst online: 21:46
Ja, ik ben het helemaal met jullie eens en zou dit zelf ook nooit proberen hoor! Ik heb het zelf gewoon op de normale manier gedaan met een niet-Haswell-R CPU die ik nog had liggen.

[ Voor 5% gewijzigd door nMad op 25-02-2015 08:57 ]

PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 19:30
Bestaat er een manier om alle info te zien van een controller zonder aan de rom te komen? Ik ben mijn H310 naar IT firmware aan het flashen en ik denk dat hij ok zo moeten zijn...?

Afbeeldingslocatie: http://i.imgur.com/XpIhCwh.png

Ik ben ondertussen een Linux iso aan het afhalen maar gaat nogal traag ivm met mijn verbinding hier.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-07 20:45
sas2flash.exe kan ook onder windows alle info geven.
Zit in het zipje van de firmware.

Even niets...


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 19:30
Hmmm nope. "Unsupported 16-Bit Application"?

[ Voor 111% gewijzigd door SanderH_ op 25-02-2015 13:08 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-07 20:45
Niet de DOS versie pakken, maar de Windows x86.

Even niets...


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 19:30
code:
1
No LSI SAS adapters found


Kut.

Kan dat zijn omdat hij het SAS adres niet meer kan terugvinden? Ik heb nochtans volgend argument gebruikt zodat hij het SAS adres juist niet zou verwijderen:


sas2flash -o -e 6 -f 6gbpsas.fw

Acties:
  • 0 Henk 'm!

  • toelie
  • Registratie: December 2006
  • Laatst online: 24-11-2023
Heb de H310 zelf ook geflashed naar LSI 2911-8i IT mode. Vereist meerdere stappen en meerdere tools:

- "MegaCli.exe -AdpAllInfo -aAll -ApplogFile AdaptersInfo1.txt" (SAS Adres achterhalen)
- "MegaRec.exe -readsbr 0 orig.sbr" (originele controller sbr opslaan, just in case)
- "MegaRec -writesbr 0 empty.bin"
- "MegaRec -cleanflash 0" (vorige 2 stappen cleanen de complete controller)
- PC compleet afsluiten, daarna weer aanzetten
-"sas2flsh.exe -l Flashlog.txt -o -f 6gbpsas.fw" (flash dell IT firmware)
-"sas2flsh.exe -l Flashlog.txt -o -f 2118it.bin" (flash lsi P7 IT firmware, kies yes bij waarschuwing verkeerde fabrikant)
-"sas2flsh.exe -l Flashlog.txt -o -f 2118it.bin" (flash lsi P19 IT firmware)
-"sas2flsh.exe -o -sasadd 500605bxxxxxxxxx" (vervang xxxxxxxxx door je echte sas adres, zie stap 1)

Al deze stappen moeten uitgevoerd worden in freedos of iets vergelijkbaars. Ik heb zelf via rufus een simpele bootable USB stick gemaakt. Werkt waarschijnlijk niet op UEFI moederbord.

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 19:30
Eerste 6 stappen heb ik al doorlopen. Krijg nu echter Failed to Validate Mfg Page 2 bij stap 7.

Moet trouwens 2118p7.bin zijn denk ik?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-07 20:45
Failed to validate Mfg Page betekent volgens mij dat de kaart niet leeg genoeg is.
Bij sommige kaarten moest ik tussendoor rebooten om de kaart 'leeg' op te laten starten.

Wat toelie dus al zegt, poweroff, en daarna pas nieuwe firmware flashen. Anders houdt de kaart zijn PCI:ID enzo vast.

[ Voor 26% gewijzigd door FireDrunk op 25-02-2015 14:33 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 19:30
Ik ben gewoon opnieuw begonnen en nu krijg ik bij:

sas2flsh.exe -o -f 2118P7.bin" volgende error:

code:
1
ERROR: Cannot flash IT Firmware over IR fimware
.

Ligt blijkbaar aan één van de bestanden die ik gebruik die "te nieuw" is volgens deze post

Ik probeer het wel ff met die oudere files.

EDIT: Hallelujah >:)

Afbeeldingslocatie: http://i.imgur.com/fBfoZFz.jpg

En ja, SAS-adres terug gewijzigd naar het originele. Bedankt voor de hulp FireDrunk & toelie ;)

[ Voor 17% gewijzigd door SanderH_ op 25-02-2015 15:09 ]


Acties:
  • 0 Henk 'm!

  • Rexel
  • Registratie: Februari 2010
  • Laatst online: 18-07 14:45
Hey mede-tweakers,

Zouden enkele misschien mij wat advies kunnen geven op het gebied van een zelfgebouwde ZFS server? Na het lezen van het ZFS topic heb ik een aantal onderdelen samengesteld die naar mijn idee voldoen voor een instap server voor ZFS.

#ProductPrijsSubtotaal
1Intel Xeon E3-1226 v3 Boxed€ 236,18€ 236,18
1Supermicro X10SLM-F€ 186,05€ 186,05
5WD Green WD20EZRX€ 79,50€ 397,50
1Kingston ValueRAM KVR16LR11S4K4/32€ 282,-€ 282,-
Bekijk collectie
Importeer producten
Totaal€ 1.101,73


Nu draai ik zelf een unRAID server maar ik begin deze niet helemaal meer te vertrouwen, op het gebied van ontwikkeling van het OS en de manier waarop data veilig word gesteld en aangezien ik toch extra ruimte nodig heb wil ik een 2de nieuwe 'hoofd' server bouwen voor het opslaan van films, muziek en familie foto's.

Als OS ben ik er nog niet helemaal uit welke het 'beste' is voor een beginnende ZFS gebruiker als mij zelf. Persoonlijk vind ik een gemakkelijke WebUI de beste uitkomst wat naar mijn weten me al gauw brengt bij oplossingen als NAS4Free en FreeNAS.

Hopelijk kan iemand mij wat advies geven met wat ik het beste zou kunnen aanschaffen of op het gebied van OS mogelijkheden.

Alvast bedankt!

-Rexel

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 22:05
Wil je perse ECC? Zo niet, dan kan je een stuk goedkoper uit zijn qua moederbord. En gaat je server alleen maar data serveren? Dan kan je ook af met een Celeron/Pentium. Scheelt je ook flink geld.
Daarnaast is 32GB voor jouw situatie overkill. 16GB is al serieus genoeg.

Acties:
  • 0 Henk 'm!

  • Rexel
  • Registratie: Februari 2010
  • Laatst online: 18-07 14:45
GioStyle schreef op woensdag 25 februari 2015 @ 20:36:
Wil je perse ECC? Zo niet, dan kan je een stuk goedkoper uit zijn qua moederbord. En gaat je server alleen maar data serveren? Dan kan je ook af met een Celeron/Pentium. Scheelt je ook flink geld.
Daarnaast is 32GB voor jouw situatie overkill. 16GB is al serieus genoeg.
Bedankt voor je reactie!

Ik heb specifiek voor het ECC geheugen gekozen om het gedeelte van bitrot tegen te gegaan, had als ik het goed heb op het forum van FreeNAS hier overgelezen dat het daarom zeer aangeraden word om ECC geheugen te gebruiken.

Omdat naar mijn idee ZFS erg hongerig is voor RAM had ik hier voor wat extra's gepakt. als jullie denken dat ik met 16GB ook mee uit te voeten kan pak ik 16GB:)

Acties:
  • 0 Henk 'm!

Anoniem: 15758

Rexel, ik vind je setup veels te duur. Heb je echt zo'n bom van een CPU nodig, en echt zoveel RAM? Wordt het een full-blown ESXi box die alles doet? Dan is dat wel fijn. Maar anders kun je ook voor minder geld ECC scoren, met goedkopere hardware. Maak ook zo eens een lijstje, dan kun je het prijsverschil goed meewegen en weet je wat er te kiezen valt.

Acties:
  • 0 Henk 'm!

  • Rexel
  • Registratie: Februari 2010
  • Laatst online: 18-07 14:45
Ik heb die CPU gekozen omdat ik ook Plex draai en vaak meerdere films tegelijkertijd moet transcode. ik heb eens wat mee gespeelt vroeger en toen was ik er wel achter gekomen dat ik het met een instap niet direct het gewenste resultaat behaalde.

Het word niet een ESXi box met hoop gevirtualiseerd, zou het wel het fijnste vinden natuurlijk dat ik mijn data opslag en andere zaken wat gescheiden kan houden.

Ik zal eens kijken wat de goedkopere alternatieven zijn en deze daarna hier posten:)

Ik ben meteen aan de slag gegaan en heb hier het resultaat. Wat vinden jullie van zo iets? Heb dit keer ook meer consumer producten gekozen.
#ProductPrijsSubtotaal
1Intel Core i3-4150 Boxed€ 104,95€ 104,95
1Asus Z87-PLUS€ 101,18€ 101,18
1Crucial CT2K8G3ERSLD4160B€ 163,35€ 163,35
Bekijk collectie
Importeer producten
Totaal€ 369,48

[ Voor 61% gewijzigd door Rexel op 25-02-2015 21:40 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-07 20:45
Dit systeem heeft dan weer geen ECC, dat is natuurlijk wel een flink verschil.
Technisch gezien is het ook mogelijk om ECC te doen met een Celeron of Pentium processor, maar die zijn wat slechter in Plex streams.

Ik denk dat je met die E3 voor de combinatie van ZFS, ECC en PLEX best aardig zit...

Tis veel geld, maar dan heb je er wel weer een paar jaar plezier van.

Even niets...


Acties:
  • 0 Henk 'm!

  • Rexel
  • Registratie: Februari 2010
  • Laatst online: 18-07 14:45
FireDrunk schreef op woensdag 25 februari 2015 @ 21:42:
Dit systeem heeft dan weer geen ECC, dat is natuurlijk wel een flink verschil.
Technisch gezien is het ook mogelijk om ECC te doen met een Celeron of Pentium processor, maar die zijn wat slechter in Plex streams.

Ik denk dat je met die E3 voor de combinatie van ZFS, ECC en PLEX best aardig zit...

Tis veel geld, maar dan heb je er wel weer een paar jaar plezier van.
Dom van mij moederbord ondersteund inderdaad volgende de asus site geen ECC geheugen :/
Het is ook zeker een server die ik nog aantal jaar wil houden en niet over 2 jaar weer ga vervangen bv.

Met nieuwe moederboad en wat ander geheugen:
#ProductPrijsSubtotaal
1Intel Core i3-4150 Boxed€ 104,95€ 104,95
1ASRock Asrock E3C224-V+€ 164,50€ 164,50
1Crucial CT2KIT102472BD160B€ 169,-€ 169,-
Bekijk collectie
Importeer producten
Totaal€ 438,45

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 20-07 12:11
FireDrunk schreef op woensdag 25 februari 2015 @ 21:42:
Ik denk dat je met die E3 voor de combinatie van ZFS, ECC en PLEX best aardig zit...

Tis veel geld, maar dan heb je er wel weer een paar jaar plezier van.
:Y En als je wilt gaan virtualiseren dan heb je al een setup die VT-d doet en relatief veel geheugen aankan :)

Data en andere zaken scheiden lukt ook wel enigszins met de plugins die (bijvoorbeeld) FreeNAS aanbiedt, in een jail is het ook enigszins gescheiden en je kunt zelf kiezen wat een jail / plugin aankan :)

Ik heb dan wel gekozen voor ESXi (ook op een Xeon + SuperMicro-bordje) maar ik gebruik de plugins van FreeNAS nog steeds, heel simpele en makkelijke manier om aan Plex / OwnCloud / Transmission / sabnzbd te komen; stuk voor stuk hebben ze met storage te maken dus waarom het wiel opnieuw uitvinden?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 19-07 12:37
Voor alleen data ophoesten naar 1 client volstaat de goedkoopste xeon ook wel.
Ik heb 1220 cpu's en in servers met 5 en 10 hdds en de cpu load is erg laag met 40-50 mbps maximaal naar een afspeler sturen..
Ze krijgen het alleen iets drukker als ik met 10GE data ga moven.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 19:30
Meh. Ik twijfel ook nog wel een beetje tussen pricewatch: ASRock C2550D4I en een "dikke" Xeon + Supermicro mobo.

Scheelt natuurlijk wel aardig wat in verbruik en lawaai, of niet?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 20-07 12:11
jacovn schreef op woensdag 25 februari 2015 @ 21:58:
Voor alleen data ophoesten naar 1 client volstaat de goedkoopste xeon ook wel.
Maar voor transcoden met Plex is meer MHz wel handig :P

Ligt het trouwens aan mij of is de 'kolom' cores/threads verdwenen uit de drop-down-list van de pricewatch?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 19-07 12:37
Als je de Xeon cpu niet vol gebruikt zal hij niet echt veel warmte produceren.
Heb nu een server in opbouw, met 3x140 mm fanwall en een 90 mm fan op een noctua cpu koeler en de cpu haalt de 30 graden niet eens. Maar ja hij doet ook nog niet veel.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 20-07 14:50
Rexel schreef op woensdag 25 februari 2015 @ 20:46:
Ik heb specifiek voor het ECC geheugen gekozen om het gedeelte van bitrot tegen te gegaan, had als ik het goed heb op het forum van FreeNAS hier overgelezen dat het daarom zeer aangeraden word om ECC geheugen te gebruiken.
Het is trouwens ook beter om geheugen te nemen met alleen ECC, en geen Registered modules, daar die een beduidend langere toegangstijd hebben.
Omdat naar mijn idee ZFS erg hongerig is voor RAM had ik hier voor wat extra's gepakt. als jullie denken dat ik met 16GB ook mee uit te voeten kan pak ik 16GB:)
Ik zou beginnen met 2x Kingston 8GB ECC 1.6GHz , heb je meer geheugen echt nodig kan je er altijd nog twee bij prikken, maar dat betwijfel ik.

Persoonlijk vind ik ECC de 100~200 euro extra niet waard, daar het imho (meningen verschillen), maar beperkt extra bescherming geeft voor veel extra geld, bij een op zich simpele thuis server, met voornamelijk video's.

Voor zwaar belaste (bedrijfs)systemen is er zeker wel nut, daar de kans op error's dan toe neemt, en ook de gevolgen er van.

Daarnaast is zelfs ZFS RAIDZ3 geen alternatief voor een backup, en onvervangbare persoonlijke bestanden moet je minstens een back-up van maken, en bij voorkeur ook een extra off-site backup, een goed back-up plan is zeker aan te bevelen.

Persoonlijk draai ik op een onder geklokte i7-4790K, die meestal op 2.2GHz draait, voor de beste IPW, daar ik helemaal geen haast heb met de (re-)encoding van mijn films en series.

Maar als ik een flinke back-log heb, zo als laatst toen ik alle 25 Bond filmen op BR aan het encoden was, heb ik hem op 4.8GHz gezet, om lekker snel op te schieten, maar dat scheelt wel 90W in verbruik, waar ik op 2.2GHz ongeveer 8W meer verbruik dan IDLE.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 19-07 12:37
Rexel schreef op woensdag 25 februari 2015 @ 20:26:

Nu draai ik zelf een unRAID server maar ik begin deze niet helemaal meer te vertrouwen, op het gebied van ontwikkeling van het OS en de manier waarop data veilig word gesteld en aangezien ik toch extra ruimte nodig heb wil ik een 2de nieuwe 'hoofd' server bouwen voor het opslaan van films, muziek en familie foto's.

Als OS ben ik er nog niet helemaal uit welke het 'beste' is voor een beginnende ZFS gebruiker als mij zelf. Persoonlijk vind ik een gemakkelijke WebUI de beste uitkomst wat naar mijn weten me al gauw brengt bij oplossingen als NAS4Free en FreeNAS.
Rexel,
Ik kom ook van unraid af, en ben over gegaan naar ZFSguru.
Het enige wat ik mis is fanspeed script wat goed werkte op unraid.

Voor de rest ben ik erg blij dat ik er vanaf ben. Niets dan ellende met unraid. 32 bit OS, ontwikkelaar die weinig feedback geeft. bij zfsguru al niet veel beter, maar we hebben hier local support ;)

Je moet wel vooruit plannen met ZFS, simpel uitbreiden met 1 hdd erbij zoals bij unraid kan niet meer.

Success met de overgang.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Rexel
  • Registratie: Februari 2010
  • Laatst online: 18-07 14:45
player-x schreef op woensdag 25 februari 2015 @ 22:27:
[...]

Het is trouwens ook beter om geheugen te nemen met alleen ECC, en geen Registered modules, daar die een beduidend langere toegangstijd hebben.


[...]

Ik zou beginnen met 2x Kingston 8GB ECC 1.6GHz , heb je meer geheugen echt nodig kan je er altijd nog twee bij prikken, maar dat betwijfel ik.

Persoonlijk vind ik ECC de 100~200 euro extra niet waard, daar het imho (meningen verschillen), maar beperkt extra bescherming geeft voor veel extra geld, bij een op zich simpele thuis server, met voornamelijk video's.

Voor zwaar belaste (bedrijfs)systemen is er zeker wel nut, daar de kans op error's dan toe neemt, en ook de gevolgen er van.

Daarnaast is zelfs ZFS RAIDZ3 geen alternatief voor een backup, en onvervangbare persoonlijke bestanden moet je minstens een back-up van maken, en bij voorkeur ook een extra off-site backup, een goed back-up plan is zeker aan te bevelen.

Persoonlijk draai ik op een onder geklokte i7-4790K, die meestal op 2.2GHz draait, voor de beste IPW, daar ik helemaal geen haast heb met de (re-)encoding van mijn films en series.

Maar als ik een flinke back-log heb, zo als laatst toen ik alle 25 Bond filmen op BR aan het encoden was, heb ik hem op 4.8GHz gezet, om lekker snel op te schieten, maar dat scheelt wel 90W in verbruik, waar ik op 2.2GHz ongeveer 8W meer verbruik dan IDLE.
Nee inderdaad, ik ben er van bewust dat een ZFS RAID geen alternatief is voor een backup. heb daarom belangrijke foto's en documenten dan ook gebrand op DVD en ook opgeslagen via cloudoplossingen.

Ik heb op het moment een i7-920 draaien en het systeem verstookt ongeveer 90-100W idle. wat ik nogal veel aan de hoge kant vond. vandaar dat ik ook een nieuwe generatie wilde en een willicht iets minder overkill CPU gekozen heb naar mijn gevoel.
jacovn schreef op woensdag 25 februari 2015 @ 22:46:
[...]

Rexel,
Ik kom ook van unraid af, en ben over gegaan naar ZFSguru.
Het enige wat ik mis is fanspeed script wat goed werkte op unraid.

Voor de rest ben ik erg blij dat ik er vanaf ben. Niets dan ellende met unraid. 32 bit OS, ontwikkelaar die weinig feedback geeft. bij zfsguru al niet veel beter, maar we hebben hier local support ;)

Je moet wel vooruit plannen met ZFS, simpel uitbreiden met 1 hdd erbij zoals bij unraid kan niet meer.

Success met de overgang.
Het localsupport mis ik dan weer. persoonlijk denk ik dat ZFSGuru dan niet de juiste oplossing voor mij zal zijn en ga ik toch voor b.v. FreeNAS of NAS4Free achtige oplossingen.
Paul schreef op woensdag 25 februari 2015 @ 21:56:
[...]
:Y En als je wilt gaan virtualiseren dan heb je al een setup die VT-d doet en relatief veel geheugen aankan :)

Data en andere zaken scheiden lukt ook wel enigszins met de plugins die (bijvoorbeeld) FreeNAS aanbiedt, in een jail is het ook enigszins gescheiden en je kunt zelf kiezen wat een jail / plugin aankan :)

Ik heb dan wel gekozen voor ESXi (ook op een Xeon + SuperMicro-bordje) maar ik gebruik de plugins van FreeNAS nog steeds, heel simpele en makkelijke manier om aan Plex / OwnCloud / Transmission / sabnzbd te komen; stuk voor stuk hebben ze met storage te maken dus waarom het wiel opnieuw uitvinden?
Is ook absolute waar, ik heb zelf alleen af en toe nog wel eens de neiging om dingen uit te willen proberen en dan is virtualisatie weer een mooie oplossing dat is meer tenzijde, de voornaamste functie van de server zal opslag blijven.

Alweer bedankt voor de goeie reactie, Top!

-Rexel

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 20-07 14:23

Pantagruel

Mijn 80486 was snel,....was!

Rexel schreef op donderdag 26 februari 2015 @ 15:32:
[...]


Nee inderdaad, ik ben er van bewust dat een ZFS RAID geen alternatief is voor een backup. heb daarom belangrijke foto's en documenten dan ook gebrand op DVD en ook opgeslagen via cloudoplossingen.
Altijd slim, de houdbaarheid van dvd's is ook niet t je van het.
Ik heb op het moment een i7-920 draaien en het systeem verstookt ongeveer 90-100W idle. wat ik nogal veel aan de hoge kant vond. vandaar dat ik ook een nieuwe generatie wilde en een willicht iets minder overkill CPU gekozen heb naar mijn gevoel.
Zal t verbruik vermoedelijk wel ten goede komen.
Het localsupport mis ik dan weer. persoonlijk denk ik dat ZFSGuru dan niet de juiste oplossing voor mij zal zijn en ga ik toch voor b.v. FreeNAS of NAS4Free achtige oplossingen.
Met 'local support' doelt men op de aanwezigheid van Cipher, FireDrunk en CurlyMo die zich geregeld in t grote ZFS topic laten gelden
Is ook absolute waar, ik heb zelf alleen af en toe nog wel eens de neiging om dingen uit te willen proberen en dan is virtualisatie weer een mooie oplossing dat is meer tenzijde, de voornaamste functie van de server zal opslag blijven.

Alweer bedankt voor de goeie reactie, Top!

-Rexel
Een ZFS storage server kun je ook virtualiseren, maar wellicht is het slimmer om niet alles tegelijk te willen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • davasch
  • Registratie: Juli 2001
  • Laatst online: 21:28
Ik zit ook met een soortgelijk dilemma te worstelen als bovenstaande posts... een i3 of toch maar gelijk een Xeon?

Heb nu op zich alles redelijk netjes gescheiden voor thuisgebruik, met FreeNAS bare metal op een server en alle extra functies in jails. Die pc begint echter echt te oud te worden (zie inventaris), al draait het voorlopig nog wel (zelfs een 720p transcoden in Plex/Media Browser lukt) even door.

Ik wil sowieso ECC-geheugen, dus een Celeron, i3 of Xeon. Denk dat het de Xeon gaat worden ivm. het kunnen virtualiseren van enkele Windows machines, om dat ook weer eens aan te raken ;). Al draait Virtualbox ook prima in een FreeNAS jail voor wat low-end gehobby. Keuzes... :X

  • Rexel
  • Registratie: Februari 2010
  • Laatst online: 18-07 14:45
Pantagruel schreef op donderdag 26 februari 2015 @ 16:19:

Met 'local support' doelt men op de aanwezigheid van Cipher, FireDrunk en CurlyMo die zich geregeld in t grote ZFS topic laten gelden


[...]


Een ZFS storage server kun je ook virtualiseren, maar wellicht is het slimmer om niet alles tegelijk te willen.
Oh haha dan blijft het nogsteeds wel in de race, Ik ga het ook niet allemaal tegelijkertijd doen, eerst een stabiele ZFS oplossing en wellicht dan in de toekomst een deel of alles virtualiseren.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 19-07 12:37
Ik heb ook alleen maar hulp nodig bij rare vragen voor freebsd/zfsguru. De basis dingen doen het allemaal altijd.

Unraid was haast altijd huilen van ellende. Uiteindelijk wilde ik te veel denk ik. Pre clear op een hdd, dus 4 tegelijk: crash van systeem na xx uur. 2 TB moven naar systeem met een chache drive: Snelheid tussen de 90 MB/sec en 3MB/sec (vooral het laatste)
Het lag uiteindelijk aan de combinatie van supermicro moederbord en te veel ram (32 bit os) kwam ik op het forum achter.
En toe gezeik bij het doorverkopen van de bootsticks met unraid licentie met de developer, die geen toestemming gaf om de licentie over te schrijven.

Ik zal het altijd en overal iedereen afraden.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • RobinMM
  • Registratie: Maart 2010
  • Laatst online: 26-06 21:56
Ik heb via tweakers een cpu upgrade voor mijn huidige Plex server gekocht, voor het tegelijk transcoderen van meerdere hd streams. Nu heb ik een i5 2300 over. Ik zit er aan te denken om een socket 1155 moederbord op te kop te tikken en deze icm met 16gb ram in te gaan zetten voor een dedicated ZFS box. Als ik Player-x en Cipher goed begrijp is ECC niet echt nodig als het (vooral) voor opslag van media content gaat. Ik heb nog een behuizing met voeding over waar ik het in kan bouwen en kan ik zo voor vrij weinig geld een leuke ZFS box neerzetten.

In eerste instantie vooral om mee rommelen om te kijken hoe ZFS werkt. En om later mijn media op te zetten.

Zijn er nog dingen waar ik qua hardware rekening mee moet houden als ik voor bovenstaande setup ga? Ik had trouwens in mijn huidige server dat een ibm serveraid 1115 niet wilde booten, uiteindelijk aan de praat gekregen door een contactje op de kaart af te plakken. Blijkbaar werken die kaarten vaak standaard niet op 'normale' moederborden.

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 20-07 14:50
RobinMM schreef op donderdag 26 februari 2015 @ 21:15:
Als ik Player-x en Cipher goed begrijp is ECC niet echt nodig als het (vooral) voor opslag van media content gaat.
Er zijn twee stromingen, ook hier, persoonlijk denk ik dat ECC zwaar is over overrated, ja het is een plus, maar alleen voor systemen die gebruikt worden voor absoluut kritieke data.

Een imho beste analogie zou zijn, ZFS voegde gordels en een airbag toe aan het file systeem, vergeleken met NTFS, ECC voegt daar nog eens zij-airbags aan toe, of dat je dat 100~300 euro waard is, is aan je zelf, ik vind het persoonlijk behoorlijk overdreven voor een home video server.

Bouw je een bedrijfsserver, dan zou ik zeker ECC gebruiken, daar dan de in verhouding geringe meer prijs voor bedrijven niet opweegt tegen over data corruptie, daar een bit flip daar vaker grotere potentiële gevolgen hebben bij bedrijfsdata, daarnaast verblijft er langduriger veel cache data in geheugen als er bv een database op ZFS draait.

Voor een systeem met voornamelijk video files is een bit flip niet echt een probleem, daar het meestal zal lijden tot een kleine korte kleur of beeld verstoring zal lijden of zo.

En er is een helle simpele argument dat het belang van ECC voor thuis gebruik onderuit haalt, zelfs bij bedrijven wordt er geen ECC gebruikt in desktops, terwijl de data die opgeslagen wordt op het ZFS systeem, 99% meer tijd in dat type NON-ECC geheugen en het NTFS file systeem wordt gehouden en bewerkt, dan tijdens de korte tijd dat het door het ECC geheugen gaat van je/de server gaat tijdens verwerking voor opslag.

Imho is non-ECC ZFS is vele malen veiliger voor data integriteit, dan welke ext4 of NTSF file systeem van een NAS of server met ECC, daar ZFS zich zelf controleert.

Denk dat deze auto analogie redelijk op gaat.
  • FAT - een jaren 60 auto zonder gordels.
  • NTFS & ext4 - een jaren 70 auto met een heup gordeltje
  • ZFS - een moderne auto met ABS, 3 punts gordel en airbags.
  • ZFS + ECC - voegt daar nog eens zij impact airbags aan toe.
Hoewel vaak auto vergelijkingen, vaak de plank redelijk mis slaan, denk ik dat het een redelijke analogie is.

Maar er is ook een groep die denkt dat ik totaal ongelijk heb, en ze zouden gelijk kunnen hebben, daar er nergens zover ik weet echt degelijk onderzoek is gedaan met harde bewijzen, die onomstreden aantonen de nut van wel of geen ECC geheugen.

[ Voor 3% gewijzigd door player-x op 27-02-2015 10:45 ]

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


  • Thralas
  • Registratie: December 2002
  • Laatst online: 16-07 08:38
Je vergeet de Toyota in het verhaal: btrfs.

Rijdt prima, maar op een dag blijft het gaspedaal hangen :+

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 20-07 14:50
Thralas schreef op donderdag 26 februari 2015 @ 23:46:
Je vergeet de Toyota in het verhaal: btrfs.

Rijdt prima, maar op een dag blijft het gaspedaal hangen :+
BtrFS wordt zeer waarschijnlijk mijn volgende file systeem, daar er weinig meer mis is met BtrFS, non-raid is nu productie stable, en raid 5 en 6 beginnen nu ook gewoon betrouwbaar te worden sinds de laatste update.

We zijn inmiddels bij v3.19 aanbeland met BtrFS.
https://lkml.org/lkml/2014/12/12/630

En het intresante van het meer moderne BtrFS, dat die OCE ondersteund, ik zit dan ook met smart te wachten totdat raid 5 en 6 echt stabiel is onder BtrFS, en het is opeens dichter bij dan de meeste denken.

Gewoon beginnen met een 3 disk R6 array van bv 10TB disk, en elke keer als je ruimte te kort komt er een bij pluggen en een re-size doen.

Scheelt een hoop in je begin investering, en je hebt ook nog eens het voordeel van prijsdaling over tijd.

En hoop dat er een 8 of nog beter een 10TB versie van deze HGST Deskstar NAS schijf er is dan.
Heb nog 9TB ruimte in mijn array, en dan moet ik echt beginnen aan het bouwen van een nieuwe array.
.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Rexel
  • Registratie: Februari 2010
  • Laatst online: 18-07 14:45
player-x schreef op donderdag 26 februari 2015 @ 23:03:
[...]

Er zijn twee stromingen, ook hier, persoonlijk denk ik dat ECC zwaar is over overrated, ja het is een plus, maar alleen voor systemen die gebruikt worden voor absoluut kritieke data.

En imho is de gebruikte analogie overdreven, en er letterlijk nergens harde cijfers zijn die die stelling echt ondersteunen, en het meer een klok klepel verhaal is.

Een imho betere analogie zou zijn, ZFS voegde gordels en een airbag toe aan het file systeem, vergeleken met NTFS, ECC voegt daar nog eens zij-airbags aan toe, of dat je dat 2~300 euro waard is, is aan je zelf, ik vind het persoonlijk behoorlijk overdreven voor een home video server.

Bouw je een bedrijfsserver, dan zou ik zeker ECC gebruiken, daar dan de in verhouding geringe meer prijs voor bedrijven niet opweegt tegen over data corruptie, daar een bit flip daar vaker grotere potentiële gevolgen hebben bij bedrijfsdata, daarnaast verblijft er langduriger veel cache data in geheugen als er bv een database op ZFS draait.

Voor een systeem met voornamelijk video files is een bit flip niet echt een probleem, daar het meestal zal lijden tot een kleine korte kleur of beeld verstoring zal lijden of zo.

En er is een helle simpele argument dat het belang van ECC voor thuis gebruik onderuit haalt, zelfs bij bedrijven wordt er geen ECC gebruikt in desktops, terwijl de data die opgeslagen wordt op het ZFS systeem, 99% meer tijd in dat type NON-ECC geheugen en het NTFS file systeem wordt gehouden en bewerkt, dan tijdens de korte tijd dat het door het ECC geheugen gaat van je/de server gaat tijdens verwerking voor opslag.

Imho is non-ECC ZFS is vele malen veiliger voor data integriteit, dan welke ext4 of NTSF file systeem van een NAS of server met ECC, daar ZFS zich zelf controleert.

Denk dat deze auto analogie redelijk op gaat.
  • FAT - een jaren 60 auto zonder gordels.
  • NTFS & ext4 - een jaren 70 auto met een heup gordeltje
  • ZFS - een moderne auto met ABS, 3 punts gordel en airbags.
  • ZFS + ECC - voegt daar nog eens zij impact airbags aan toe.
Hoewel vaak auto vergelijkingen, vaak de plank redelijk mis slaan, denk ik dat het een redelijke analogie is.

Maar er is ook een groep die denkt dat ik totaal ongelijk heb, en ze zouden gelijk kunnen hebben, daar er nergens zover ik weet echt degelijk onderzoek is gedaan met harde bewijzen, die onomstreden aantonen de nut van wel of geen ECC geheugen.
Als je het zo brengt klinkt het gebruik van ECC geheugen wat overbodig in een thuis situatie en wellicht dat het dan voor mij waarbij ik voornamelijk films opsla niet direct van essentieel belang is om het te gebruiken., ik heb even gekeken het scheelt ongeveer 60 - 70 euro tussen Non-ECC en ECC geheugen.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 19-07 12:37
Duurder mainboard nodig meestal met voor intel een Cxx chipset.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
Ik heb een MegaRAID 9240-8i SAS (IBM M1015) kaartje op de kop getikt, nu hoef ik al die HW raid enzo niet nu lees ik overal in IT modus zetten zodat het een simpel doorgeefluikje is. Weet iemand zo welke ik kan gebruiken hiervoor? (Laatste Firmware?)

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 19-07 12:37
Ik zou p19 nemen, p20 is de laatste maar heb iets gelezen over issues.
Als je een uefi optie in je bios hebt gaat die methode het handigst, althans dat is mijn mening.

[ Voor 3% gewijzigd door jacovn op 27-02-2015 18:27 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
jacovn schreef op vrijdag 27 februari 2015 @ 18:26:
Ik zou p19 nemen, p20 is de laatste maar heb iets gelezen over issues.
Als je een uefi optie in je bios hebt gaat die methode het handigst, althans dat is mijn mening.
Heb idd een UEFI optie in de BIOS, moet ik dan gewoon in UEFI booten?

En dan deze controller de laatste firmware P19 UEFI?

http://www.lsi.com/produc...sas-9211-8i.aspx#tab/tab4

sas2flash.efi -o -c x -f 2118it.bin -b mptsas2.rom

Ik heb nu sas2flash.efi en 2118it.bin en mptsas2.rom gedownload, Is die laatste noodzakelijk?

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 19:30
Dat .ROM bestand is zogezegd de BIOS van de controller waardoor je bij het booten wat details kan zien voor zover ik weet. Kan je trouwens ook met sas2flash -list als je éénmaal klaar bent.

Als je de kaart, zoals de meeste, gewoon als dummy controller gaat gebruiken is het niet echt nodig en zorgt het gewoon voor enkele seconden vertraging. Onlangs zelf een H310 geflasht en daar ook geen .ROM bestanden gebruikt. Werkt perfect.

Deze pdf was trouwens wel nuttig.

[ Voor 20% gewijzigd door SanderH_ op 27-02-2015 19:29 ]


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
In uefi krijg ik No LSI SAS Adapters were found :(

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 19:30

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:51
player-x schreef op vrijdag 27 februari 2015 @ 00:20:


Gewoon beginnen met een 3 disk R6 array van bv 10TB disk, en elke keer als je ruimte te kort komt er een bij pluggen en een re-size doen.
Dit is wat ZFS de das om zal doen voor thuisgebruik.

Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
Ik krijg dit onder UEFI, zonder dat ik er nog iets aan gedaan heb...

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 19:30
Alle megarec & megacli commands heb ik in de gewone DOS gedaan en alles met sas2flash etc in UEFI.

Wat krijg je als je in DOS megarec -adplist ingeeft?

Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
SanderH_ schreef op vrijdag 27 februari 2015 @ 20:51:
Alle megarec & megacli commands heb ik in de gewone DOS gedaan en alles met sas2flash etc in UEFI.

Wat krijg je als je in DOS megarec -adplist ingeeft?
Ik ga morgen even kijken voor je. Vriendin had de nas nodig waarmee ik naar UEFI geboot was.

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
SanderH_ schreef op vrijdag 27 februari 2015 @ 20:51:
Alle megarec & megacli commands heb ik in de gewone DOS gedaan en alles met sas2flash etc in UEFI.

Wat krijg je als je in DOS megarec -adplist ingeeft?
Het is gelukt, Heb in DOS de firmware verwijderd, vervolgens de firmware geflasht in UEFI (P19) en het SAS adress toegevoegd.

Afbeeldingslocatie: http://s30.postimg.org/p8x0xauzl/IMG_20150228_121038.jpg

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 19:30
Afbeeldingslocatie: http://i2.kym-cdn.com/entries/icons/original/000/012/982/post-19715-Brent-Rambo-gif-thumbs-up-imgu-L3yP.gif

[ Voor 3% gewijzigd door SanderH_ op 28-02-2015 12:50 ]


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 20-07 14:23

Pantagruel

Mijn 80486 was snel,....was!

Q schreef op vrijdag 27 februari 2015 @ 20:38:
[...]


Dit is wat ZFS de das om zal doen voor thuisgebruik.
Second that.

Voor de gemiddelde thuis gebruiker is de investering die te samen gaat met 10 stuks hdd's doorgaans te veel van t goede. (10 stuks 4 TiB kost al snel €1450).
Btrfs biedt de optie om idd met een 3 disk R5 array te beginnen en dan in stappen je array te vergroten en uit eindelijk over te gaan naareen R6 array als je voldoende disks hebt. Iedere maand €145 voor een disk klinkt een stuk minder pijnlijk.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • MClaeys
  • Registratie: Januari 2010
  • Laatst online: 04-06 16:58
Ik ben ook eens begonnen aan een NAS. Een projectje waar ik eigenlijk al zeer lang aan wou beginnen maar nooit echt de tijd en budget voor had.
Momenteel reeds aangeschaft:
- Fractal Design Node 804 kast (veel plaats voor schijven en een goede airflow)
- Een 360W 80Plus Gold voeding
- Intel Core i3 4150, 3,5Ghz LGA 1150.

Wat ik op het oog heb is een SuperMicro X10SL7-F moederbordje. Veel SATA en SAS verbindingen, relatief zuinig, ondersteuning voor "staggered spin-up". Als nog iemand een goed alternatief weet, zeker welkom.

ECC geheugen nog niet echt op het oog en ik heb ook nog niet echt zicht op welke harde schijven.
Ik zou als configuratie gaan voor FreeNAS met ZFS. Ik denk dat ik voor 8 schijven van 3TB zou gaan (dus ook 32GB ram dan als ik de "regel" 1GB/TB volg).

Nadeel: investeringskost (maar echt verloren geld is dit niet)
Voordeel: eindelijk ruimte om mijn DVD en Bluraycollectie te digitaliseren + nog wat bestanden van videoprojecten. Eindelijk al mijn losse schijven weg waar ik nu nog steeds mee werk en met de Flex plugin kan ik er ineens overal aan in het correcte formaat.

Dus volop bezig met me wat in te lezen in het grote ZFS-topic en hier :)

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 19-07 12:37
Ik ben niet doorsnee denk ik :)
Zojuist 5 dozen met 4 stuks hgst 7k4000 gekregen. Uitstekende prijs voor betaald denk ik.
Moet de serials nog op garantie checken.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:51
MClaeys schreef op zaterdag 28 februari 2015 @ 17:39:
Ik ben ook eens begonnen aan een NAS.
ECC geheugen nog niet echt op het oog en ik heb ook nog niet echt zicht op welke harde schijven.
Ik zou als configuratie gaan voor FreeNAS met ZFS. Ik denk dat ik voor 8 schijven van 3TB zou gaan (dus ook 32GB ram dan als ik de "regel" 1GB/TB volg).
Die 'regel' is voor productie systemen, niet voor een thuis NAS. Voor thuis is 8 GB zat als je verder geen gekke dingen op de machine draait.

Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
Q schreef op vrijdag 27 februari 2015 @ 20:38:
[...]


Dit is wat ZFS de das om zal doen voor thuisgebruik.
Ik hoop nog steeds dat de OpenZFS ontwikkelaars van zulk een klasse blijken te zijn dat ze het uitbreiden van RAIDZ vdevs mogelijk maken, maar het is vast geen eenvoudige klus.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:51
Ik denk dat het technisch voor grote issues zorgt, want anders hadden ze het er wel ingestopt inmiddels, denk ik zo.

Acties:
  • 0 Henk 'm!

  • nMad
  • Registratie: Augustus 2004
  • Laatst online: 21:46
Q schreef op zaterdag 28 februari 2015 @ 18:53:
Die 'regel' is voor productie systemen, niet voor een thuis NAS. Voor thuis is 8 GB zat als je verder geen gekke dingen op de machine draait.
Met een Plex plugin (in een aparte jail) zou ik in dit geval voor 16GB gaan, agz deze jail een aantal GB geheugen gebruikt.

PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 20-07 14:50
Bigs schreef op zaterdag 28 februari 2015 @ 18:54:
Ik hoop nog steeds dat de OpenZFS ontwikkelaars van zulk een klasse blijken te zijn dat ze het uitbreiden van RAIDZ vdevs mogelijk maken, maar het is vast geen eenvoudige klus.
Het nadeel van de eerste zijn is dat je het simpel moet houden, vandaar dat Reiser FS en ZFS geen Online Capacity Expansion of zelfs Offline Capacity Expansion aanwezig is, de kans is dus zeer gering dat ZFS het ooit zal krijgen.

De reden waarom het wel in BtrFS komt, is omdat men eerst naar Reiser en ZFS hebben kunnen kijken, en er van hebben kunnen leren wat er goed en minder goed gedaan was, en omdat men van de eerste dag het in het lijstje van dingen die het file systeem zou moeten hebben.

Maar waarom wil je dat ZFS het ook krijgt?
Het is veel slimmer om op BtrFS over te stappen, want van uit een technisch oogpunt gezien is het gewoon de betere en nog moderne file systeem, niet perse veiliger, maar het zit gewoon wat slimmer in elkaar.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • MClaeys
  • Registratie: Januari 2010
  • Laatst online: 04-06 16:58
Q schreef op zaterdag 28 februari 2015 @ 18:53:
[...]


Die 'regel' is voor productie systemen, niet voor een thuis NAS. Voor thuis is 8 GB zat als je verder geen gekke dingen op de machine draait.
Bij videoprojecten en het overzetten van mijn bestaande backups is versioning en deduplicatie handig, maar ik weet niet of er dan constant zo veel nodig is.

Acties:
  • 0 Henk 'm!

Anoniem: 15758

Single disk expansion voor ZFS leunt op de BPR functionaliteit - Block Pointer Rewrite. Deze functionaliteit was al voorzien voordat de 1e versie van ZFS uitkwam. Nog sterker: het werd als cruciaal gezien aangezien BPR ook nodig is voor defragmentatie en andere features.

Echter, nu er geen groot bedrijf met veel resources meer aan ZFS werkt, is het wel de vraag of deze functionaliteit er gaat komen. Dat gezegd, zoals ZFS nu al is zal andere filesystems ook heel veel jaren duren voordat ze op hetzelfde niveau zitten.

Btrfs met betere expansion mogelijkheden is leuk, maar zonder een 1:1 backup is dat wel een risicovolle operatie. Stel je krijgt tussendoor bad sectors, cable errors of andere ongein, dan ben ik benieuwd of je niet een testpiloot wordt waarbij onvoorziene bugs je data kunnen mollen. Heb je wel die 1:1 backup voor je data, dan is expansion ook minder belangrijk aangezien je de array ook kunt destroyen en data overpompen. Veelal ook sneller dan een typische OCE-procedure waarbij de hardeschijven moeten seeken.

Kortom, leuk dat mensen er naar uit kijken, maar ik ben ietwat huiverig voor dit soort features waarbij enorm veel bij mis kan gaan.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-07 20:45
BTRFS' rewrites en rebalances zijn (als het goed is) ook veilig en werken ook volgens het copy on write mechanisme... Het is dus niet veiliger of onveiliger dan gewone IO.

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:51
De een gaat zaterdag avond naar de kroeg. De ander pakt zijn oude 20-disk storage servertje die stof staat te happen en gaat aan de slag met btrfs.

- Ik heb 3.19 van kernel.org gecompiled.
- Daarna moest ik de highpoint driver hacken om die te laten compilen met 3.19
- vervolgens btrfs progs compilen

Ik heb inmiddels een 18 disk file system gemaakt. Daar een beetje data op gezet en toen de laatste 2 drives toegevoegd + gerebalanced. Dat werkt best makkelijk, ongeveer zoals MDADM, met minder stappen.

code:
1
2
3
4
root@Bunny:/storage# dd if=test.bin of=/dev/null bs=1M
100000+0 records in
100000+0 records out
104857600000 bytes (105 GB) copied, 140.494 s, 746 MB/s


code:
1
2
3
4
root@Bunny:/storage# dd if=/dev/zero of=test.bin bs=1M count=100000 conv=fsync
100000+0 records in
100000+0 records out
104857600000 bytes (105 GB) copied, 218.865 s, 479 MB/s


De oude dual-core cpu lijkt vooral bij het lezen een beetje te mager.

Ik vind de tool UI niet erg vriendelijk / overzichtelijk, maar als dit nu eens stable gaat worden, dan is btrfs met RAID6 echt super. Je begint met een kleine array, van mijn part 4 drives RAID6 en naar behoefte prik je bij. Met MDADM kan het al maar nu ook met een next-gen file system.

Waarom 3.19 kernel?
Status

From 3.19, the recovery and rebuild code was integrated. This brings the implementation to the point where it should be usable for most purposes. Since this is new code, you should expect it to stabilize over the next couple of kernel releases.
The one missing piece, from a reliability point of view, is that it is still vulnerable to the parity RAID "write hole", where a partial write as a result of a power failure may result in inconsistent parity data.
Parity may be inconsistent after a crash (the "write hole")
No support for discard? (possibly -- needs confirmation with cmason)
The algorithm uses as many devices as are available: No support for a fixed-width stripe (see note, below)
Je kunt gewoon een drive uit de array 'deleten' en dan gaat btrfs dus gewoon eerst de data rebalancen en dan kun je de drive gewoon los trekken. Dat is toch wel erg gaaf.

[ Voor 68% gewijzigd door Q op 01-03-2015 01:02 ]


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 20-07 14:50
Anoniem: 15758 schreef op zaterdag 28 februari 2015 @ 22:16:
Dat gezegd, zoals ZFS nu al is zal andere filesystems ook heel veel jaren duren voordat ze op hetzelfde niveau zitten.
Ik kan het mis hebben maar er is nu echt een flinke push om BtrFS de standaard file systeem van Linux te maken, en daar zitten best wel een aantal grote namen tussen.
  • Facebook
  • Fujitsu
  • Fusion-IO
  • Intel
  • Linux Foundation
  • Netgear
  • Novell/SUSE
  • Oracle
  • Red Hat
  • STRATO AG
Ik heb het gevoel dat men van ext4 af wil, en BtrFS als het nieuwe 'De facto' file systeem willen pushen.

Vooral Fujitsu heeft op het moment een of meerdere slimme koppen aan het werk voor BtrFS, heeft de laatste tijd veel werk in R5/6 en OCE gestoken.
Btrfs met betere expansion mogelijkheden is leuk, maar zonder een 1:1 backup is dat wel een risicovolle operatie.
In ieder geval nog steeds een stuk veiliger dan wanneer ik dat nu een OCE doe op een NTSF riad 6 array.
Stel je krijgt tussendoor bad sectors, cable errors of andere ongein, dan ben ik benieuwd of je niet een testpiloot wordt waarbij onvoorziene bugs je data kunnen mollen.
Zou de parity dat niet gewoon moeten opvangen.

Want volgens mij heeft FireDrunk gelijk, het zou nouwelijks onveiliger moeten zijn dan gewone disk operaties.
FireDrunk schreef op zondag 01 maart 2015 @ 00:25:
BTRFS' rewrites en rebalances zijn (als het goed is) ook veilig en werken ook volgens het copy on write mechanisme... Het is dus niet veiliger of onveiliger dan gewone IO.
Of mis ik hier iets hoe BtrFS fundamenteel werkt?
-
Heb je wel die 1:1 backup voor je data, dan is expansion ook minder belangrijk aangezien je de array ook kunt destroyen en data overpompen. Veelal ook sneller dan een typische OCE-procedure waarbij de hardeschijven moeten seeken.
Dat zou in een keer de kosten van je array verdubbelen, dat zou juist voor thuis gebruikers het doel van OCE onder BtrFS in zijn geheel nutteloos maken, als je een array hebt zo als ik van 50TB, wil je niet nog eens 2500 euro extra uitgeven om 100% veilig te zijn
Kortom, leuk dat mensen er naar uit kijken, maar ik ben ietwat huiverig voor dit soort features waarbij enorm veel bij mis kan gaan.
Tja het is of het risico nemen, of serieus extra geld investeren in extra disks, denk dat als het blijkt dat OCE onder BtrFS redelijk veilig blijkt, dat de meeste mensen voor optie 1 kiezen, ik iig wel.

En als het echt veilig blijkt, dan denk ik dat cloud bedrijven vooral voor clouds in eigen beheer OCE ook best prettig zullen vinden om hun investering uit te kunnen spreiden.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Anoniem: 15758 schreef op zaterdag 28 februari 2015 @ 22:16:
Single disk expansion voor ZFS leunt op de BPR functionaliteit - Block Pointer Rewrite. Deze functionaliteit was al voorzien voordat de 1e versie van ZFS uitkwam. Nog sterker: het werd als cruciaal gezien aangezien BPR ook nodig is voor defragmentatie en andere features.

Echter, nu er geen groot bedrijf met veel resources meer aan ZFS werkt, is het wel de vraag of deze functionaliteit er gaat komen. Dat gezegd, zoals ZFS nu al is zal andere filesystems ook heel veel jaren duren voordat ze op hetzelfde niveau zitten.
Bij de ontwikkeling van de eerste versie van ZFS werd BPR als noodzakelijk gezien op de lange termijn. We zijn inmiddels op dat punt aangekomen zonder BPR, en het blijkt niet strikt noodzakelijk te zijn, zonder gaat ook prima.

BPR was altijd al een groot project, zonder financiering van SUN wordt dat heel erg moeilijk. Tel daarbij op dat alle features die de afgelopen jaren zijn toegevoegd BPR heel moeilijk zo niet onmogelijk maken en je hebt het over een enorm project waarvoor de financiering ontbreekt. Kortom, de kans dat dat er ooit nog van gaat komen is nihil.
Anoniem: 15758 schreef op zaterdag 28 februari 2015 @ 22:16:
Btrfs met betere expansion mogelijkheden is leuk, maar zonder een 1:1 backup is dat wel een risicovolle operatie. Stel je krijgt tussendoor bad sectors, cable errors of andere ongein, dan ben ik benieuwd of je niet een testpiloot wordt waarbij onvoorziene bugs je data kunnen mollen. Heb je wel die 1:1 backup voor je data, dan is expansion ook minder belangrijk aangezien je de array ook kunt destroyen en data overpompen. Veelal ook sneller dan een typische OCE-procedure waarbij de hardeschijven moeten seeken.

Kortom, leuk dat mensen er naar uit kijken, maar ik ben ietwat huiverig voor dit soort features waarbij enorm veel bij mis kan gaan.
Er is inderdaad een risico, maar je laat het nu klinken alsof het allemaal volledig onbekend terrein is. Dat is ook weer niet zo, mdadm kan het al sinds 2004 (raid 1) en 2006 (raid 5). Natuurlijk is btrfs geen mdadm maar het is dus ook weer geen volledig pionierswerk. Hoe je dat veilig kunt doen met een zo klein mogelijke kans op dataverlies is een opgelost probleem. Die theorie hoef je dus niet zelf te bedenken. Uiteraard is de toepassing op en implementatie in btrfs makkelijker gezegd dan gedaan, maar het feit dat men het niet allemaal zelf hoeft te bedenken scheelt een hoop. Een auto-ontwerper hoeft ook niet meer na te denken of de wielen vierkant of driehoekig moeten worden. ;)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:51
MClaeys schreef op zaterdag 28 februari 2015 @ 22:05:
[...]

Bij videoprojecten en het overzetten van mijn bestaande backups is versioning en deduplicatie handig, maar ik weet niet of er dan constant zo veel nodig is.
Vergeeet ZFS dedup. Snapshots oid vragen niet zoveel / geen ram naar mijn weten. Het is wat je zelf wilt uitgeven. In mijn 71 TB nasje heb ik 'maar' 16 GB zitten. Relatief niet in verhouding maar voor de toepassing meer dan zat.

Er is wat mij betreft wel een issue met BTRFS.

De mensen die betaald worden om aan BTRFS te werken hebben geen enkele interesse om verder dan RAID6 te gaan. Waar ZFS RAID50/60 doet en triple parity, zal BTRFS deze features niet krijgen!

http://blog.ronnyegner-co...btrfs-and-mdadm-dec-2014/

De partijen die BTRFS sponsoren maken gebruik van distributed file systems, die dus relatief kleinere storage per node nodig hebben, dus < 20 drives. Dat is best jammer.

[ Voor 35% gewijzigd door Q op 01-03-2015 11:06 ]


Acties:
  • 0 Henk 'm!

  • MClaeys
  • Registratie: Januari 2010
  • Laatst online: 04-06 16:58
Bedankt :) dan ga ik het op 16 houden :)

Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
player-x schreef op zaterdag 28 februari 2015 @ 21:31:
[...]

Het nadeel van de eerste zijn is dat je het simpel moet houden, vandaar dat Reiser FS en ZFS geen Online Capacity Expansion of zelfs Offline Capacity Expansion aanwezig is, de kans is dus zeer gering dat ZFS het ooit zal krijgen.

De reden waarom het wel in BtrFS komt, is omdat men eerst naar Reiser en ZFS hebben kunnen kijken, en er van hebben kunnen leren wat er goed en minder goed gedaan was, en omdat men van de eerste dag het in het lijstje van dingen die het file systeem zou moeten hebben.

Maar waarom wil je dat ZFS het ook krijgt?
Het is veel slimmer om op BtrFS over te stappen, want van uit een technisch oogpunt gezien is het gewoon de betere en nog moderne file systeem, niet perse veiliger, maar het zit gewoon wat slimmer in elkaar.
Alle fatsoenlijke RAID controllers kunnen live arrays uitbreiden of zelfs migreren naar een ander RAID niveau. Er is geen reden waarom ZFS dat niet zou kunnen; zo moeilijk is het truukje kennelijk niet.

BtrFS is naar mijn idee nog steeds niet stabiel genoeg om mijn data aan toe te vertrouwen, terwijl ZFS inmiddels een behoorlijke staat van dienst heeft.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 20-07 14:50
Bigs schreef op zondag 01 maart 2015 @ 13:48:
Alle fatsoenlijke RAID controllers kunnen live arrays uitbreiden of zelfs migreren naar een ander RAID niveau. Er is geen reden waarom ZFS dat niet zou kunnen; zo moeilijk is het truukje kennelijk niet.
Dus wat jij zegt is dat ZFS het zelfde is als FAT en NTSF, ja het zijn beide file systemen, maar daar houd de vergelijking dan wel zo een beetje op.

Dat is het zelfde als zeggen, omdat oude monteur goed oude auto kan repareren, hij dat ook kan bij moderne auto's vol met computers. Afbeeldingslocatie: http://tweakimg.net/g/s/facepalm.gifAfbeeldingslocatie: http://tweakimg.net/g/s/facepalm.gifAfbeeldingslocatie: http://tweakimg.net/g/s/facepalm.gif - ;) :+
BtrFS is naar mijn idee nog steeds niet stabiel genoeg om mijn data aan toe te vertrouwen, terwijl ZFS inmiddels een behoorlijke staat van dienst heeft.
BtrFS is nu stabiel voor dagelijks gebruik, en BtrFS RAID 5/6 is nu echt Beta, en begint ook stabiel te worden, niet dat ik de 50TB van mijn server aan een Beta filesysteem toe vertrouw, maar het begint te komen, en denk dat het eerder maanden dan jaren is voor dat BtrFS raid 5/6 productie rijp is.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-07 20:45
Bigs schreef op zondag 01 maart 2015 @ 13:48:
[...]


Alle fatsoenlijke RAID controllers kunnen live arrays uitbreiden of zelfs migreren naar een ander RAID niveau. Er is geen reden waarom ZFS dat niet zou kunnen; zo moeilijk is het truukje kennelijk niet.
Hoewel ik je frustratie snap, is hij onterecht.

Vergelijk het met het volgende:

Als je een grote doos van 1 m3 met blokken van 20 cm3 hebt, is het verplaatsen van 1 blok van 20 cm3 een eitje...

Maar stel je nu voor dat je een doos hebt van 20m3, met blokken van 1,2,4,7, 11 en 21 cm3 met verschillende kleuren en verschillende gewichten...

Probeer dan maar eens 'even' alle blokken te sorteren...

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:51
De huidige situatie met ZFS en BTRFS heeft mij bewogen deze klaagzang te schrijven.

http://louwrentius.com/th...-of-cow-file-systems.html

Wat vinden jullie er van?

[ Voor 48% gewijzigd door Q op 01-03-2015 20:01 ]


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 01-07 13:01
vind het knap en goed leesbaar opgeschreven. Blijft wel een persoonlijke mening want zelf zie ik het onmisbare voordeel van online expansion niet. Voor mij blijft het uitblijven van support door Apple of in mijn geval vooral Microsoft het grootste obstakel.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 19-07 12:37
Ik snap je "klaagzang"

Mij is altijd duidelijk geweest dat je gewoon vooruit moet plannen. Dus bijvoorbeeld 10 disc raidz2 per keer.
Dat dat niet de consumenten manier is snap ik ook wel. Ik stop mijn jaarlijkse bonus meestal in uitbreiding, maar die ruimte zal niet iedereen hebben.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
player-x schreef op zondag 01 maart 2015 @ 18:36:
[...]

Dus wat jij zegt is dat ZFS het zelfde is als FAT en NTSF, ja het zijn beide file systemen, maar daar houd de vergelijking dan wel zo een beetje op.

Dat is het zelfde als zeggen, omdat oude monteur goed oude auto kan repareren, hij dat ook kan bij moderne auto's vol met computers. [afbeelding][afbeelding][afbeelding] - ;) :+
Ik zeg helemaal niet dat ZFS hetzelfde is als FAT en NTSF (sic). ZFS neemt juist taken van de volume manager en RAID controller over en zou daarom live 'RAID' migraties gewoon moeten kunnen ondersteunen.
BtrFS is nu stabiel voor dagelijks gebruik, en BtrFS RAID 5/6 is nu echt Beta, en begint ook stabiel te worden, niet dat ik de 50TB van mijn server aan een Beta filesysteem toe vertrouw, maar het begint te komen, en denk dat het eerder maanden dan jaren is voor dat BtrFS raid 5/6 productie rijp is.
Juist, Beta. Dus nog geen vervanger voor ZFS wat al jaren productiekwaliteit is. Bedankt voor het bevestigen van m'n punt.

Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
FireDrunk schreef op zondag 01 maart 2015 @ 19:13:
[...]

Hoewel ik je frustratie snap, is hij onterecht.

Vergelijk het met het volgende:

Als je een grote doos van 1 m3 met blokken van 20 cm3 hebt, is het verplaatsen van 1 blok van 20 cm3 een eitje...

Maar stel je nu voor dat je een doos hebt van 20m3, met blokken van 1,2,4,7, 11 en 21 cm3 met verschillende kleuren en verschillende gewichten...

Probeer dan maar eens 'even' alle blokken te sorteren...
Zit iets in, toch zou het door de CoW opbouw van ZFS goed mogelijk moeten zijn. Zo vind ik het ook vreemd dat het rebalancen van vdevs (na het toevoegen van extra vdevs) nog niet mogelijk is zonder send/recv actie (AFAIK). Dit zijn dingen die in andere systemen gewoon standaard zijn. Maar je hebt gelijk, met verschillende dingen door elkaar gemengd wordt het wel een stuk ingewikkelder.

De frustratie zit dus meer in het nét niet compleet/perfect zijn van ZFS.

[ Voor 9% gewijzigd door Bigs op 01-03-2015 21:35 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-07 20:45
Klopt, sommige features zie ik ook graag terug. Defragmentatie (soort van rebalancen) bijvoorbeeld... Daar zit ik nu heel erg tegenaan te hikken... Mijn array is vol geweest, en is nu wel weer wat leger, maar traag als dikke stront in vergelijking met toen ik hem net maakte (150-200MB/s met 4*4TB). In een beetje slecht geval zit ik < 150MB/s. Niet problematisch maar wel vervelend.

De online uitbreiding zou voor mij ook een welkome feature zijn, maar ik snap wel waarom ze dat niet zomaar maken... Halverwege zo'n operatie een power loss is echt lastig opvangen hoor... Dan moet zo'n systeem na reboot weer verder gaan...

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:51
BartNL schreef op zondag 01 maart 2015 @ 20:25:
vind het knap en goed leesbaar opgeschreven. Blijft wel een persoonlijke mening want zelf zie ik het onmisbare voordeel van online expansion niet. Voor mij blijft het uitblijven van support door Apple of in mijn geval vooral Microsoft het grootste obstakel.
Bedankt, maar waarom werkt online grow/schrink niet voor jou?

Mijn klaagzang ff naar hacker news gepost, staat op de frontpage. 8)

[ Voor 7% gewijzigd door Q op 01-03-2015 21:16 ]


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
FireDrunk schreef op zondag 01 maart 2015 @ 20:55:
Klopt, sommige features zie ik ook graag terug. Defragmentatie (soort van rebalancen) bijvoorbeeld... Daar zit ik nu heel erg tegenaan te hikken... Mijn array is vol geweest, en is nu wel weer wat leger, maar traag als dikke stront in vergelijking met toen ik hem net maakte (150-200MB/s met 4*4TB). In een beetje slecht geval zit ik < 150MB/s. Niet problematisch maar wel vervelend.

De online uitbreiding zou voor mij ook een welkome feature zijn, maar ik snap wel waarom ze dat niet zomaar maken... Halverwege zo'n operatie een power loss is echt lastig opvangen hoor... Dan moet zo'n systeem na reboot weer verder gaan...
True. Heb m'n antwoord nog wat genuanceerd ;)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:51
Rebalancing voor BTRFS kun je gewoon pauseren/stoppen btw en op een ander moment weer starten als je wilt. Het kan dus wel prima.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 20-07 14:50
jacovn schreef op zondag 01 maart 2015 @ 20:36:
Mij is altijd duidelijk geweest dat je gewoon vooruit moet plannen. Dus bijvoorbeeld 10 disc raidz2 per keer.
Dat dat niet de consumenten manier is snap ik ook wel.
Het is niet alleen consumenten, de meeste kleinere bedrijven met een beperkt budget hebben ook liever een file systeem dat gewoon mee kan groeien, zolang het maar veilig is.
Ik stop mijn jaarlijkse bonus meestal in uitbreiding, maar die ruimte zal niet iedereen hebben.
Ik en mijn vrouw verdienen samen ruim meer dan genoeg, we wonen in Noorwegen op familie land, in een huis dat is afbetaalt, en de hardware die ik voor de server koop wordt gedeeld met nog 3 andere gezinnen (familie), die ook op mijn netwerk zitten.

Dat wil niet zeggen dat ik graag geld verspil, als het een stuk goedkoper kan, want HDDs worden gemiddeld 30~40% goedkoper over de levensduur van mijn array, plus ik kan de investering uitspreiden, wat voor de meeste mensen ook een flinke plus is.
Bigs schreef op zondag 01 maart 2015 @ 20:45:
Juist, Beta. Dus nog geen vervanger voor ZFS wat al jaren productiekwaliteit is. Bedankt voor het bevestigen van m'n punt.
Prima er is niks mis met conservatief blijven met je file systeem, maar 3~4 maanden van het moment dat ook R5/6 van BtrFS in de Linux kernel komt, en ik geen problemen hoor ga ik over op BtrFS R6.

En ik bevestig van verre je punt, ik zeg gewoon wat ik al eerder zij, BtrFS is klaar voor gebruik, BtrFS R5/6 is waarschijnlijk binnen afzienbare tijd klaar voor gebruik, en mijn vriend, een echte geek, mede hoofd server IT van alle ziekenhuizen in Noorwegen, zegt ook dat R5/6 eindelijk echt stabiel begint te worden, hoelang voor het productie klaar is weet hij niet zeker, maar hij vermoed binnen een jaar.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 19:30
-1 voor cable management >:)

Als ik hier al deze ZFS/BtrFS "tirades" lees krijg ik steeds meer zin om mijn ZFS build nog wat langer in de koelkast te steken en gewoon af te wachten tot 1 van de 2 echt op punt staat.

Zeker aangezien ik niet in 1 klap 10+ schijven wil kopen maar graag geleidelijk meer capaciteit voorzie naar gelang dit nodig is.

[ Voor 12% gewijzigd door SanderH_ op 01-03-2015 22:07 ]


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 01-07 13:01
jacovn schreef op zondag 01 maart 2015 @ 20:36:
Mij is altijd duidelijk geweest dat je gewoon vooruit moet plannen. Dus bijvoorbeeld 10 disc raidz2 per keer.
Dat dat niet de consumenten manier is snap ik ook wel.
mogelijk ervaar je dat zo omdat je veel opslag hebt? Ik heb dezelfde insteek, wanneer ik ruimte te kort kom zet er een nieuwe raid set naast. Ben vanwege migratie en risicobeheersing sowieso niet van één hele grote pool aan schijven.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 20-07 14:50
Voor test systemen, die je regelmatig veranderd ga je niet al te veel werk stekken in het netjes bundelen van kabels, maar ze zijn wel allemaal ge labelt.
Als ik hier al deze ZFS/BtrFS "tirades" lees krijg ik steeds meer zin om mijn ZFS build nog wat langer in de koelkast te steken en gewoon af te wachten tot 1 van de 2 echt op punt staat.
Is ook de reden dat ik op BtrFS wacht, en hoop dat deze schijf HGST Deskstar NAS ook in 10TB versies te koop zijn, en dan neem ik er daar 4 van.

Waarom geen 3, omdat het dan de tijd verdubbelt voordat ik een OCE moet doen, wat de software nog wat extra tijd geeft om nog wat stabieler te worden (of te bewijzen dat het stabieler is) voor ik een OCE doe.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:51
De status nu in ZFS en BTRFS land is dat ZFS de enige redelijke optie is. Over een jaar verwacht ik dat BTRFS RAID6 bruikbaar is voor kleinere storage arrays tot aan waar mensen zelf risico-technisch zich comfortabel mee voelen, maar zelf zou ik met grote drives van 4 TB niet meer dan 10 - 12 drives in een RAID6 stoppen.

Voor veel DIY NAS bouwers zou BTRFS daarvoor perfect zijn. Want die gaan niet voor zieke builds zoals die van mij, die houden het redelijk en dan hoef je niet naar multiple arrays te grijpen.

@Player-x holy shit what is dat voor een rommeltje :X Hopelijk dat het werk wat netter is Wel hoop leuk speelgoed :9

[ Voor 10% gewijzigd door Q op 01-03-2015 22:39 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-07 20:45
Ik denk dat BTRFS vooral in een stroomversnelling komt als QNAP, Netgear en Synology er mee gaan werken. Ik lees al aardig vaak dat er werknemers van die bedrijven commits doen in de source, dus ik ben erg benieuwd.

Dat is juist een 'springplank' die bij ZFS nooit aan de orde geweest is...

Even niets...


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 20-07 14:50
Q schreef op zondag 01 maart 2015 @ 22:37:
@Player-x holy shit what is dat voor een rommeltje :X Hopelijk dat het werk wat netter is Wel hoop leuk speelgoed :9
Ik vind het voor een test systeem behoorlijk netjes, heb veel ergere foto's gezien, kijk maar eens goed, de kabels zijn nog steeds goed overzichtelijk, en dit is trouwens een behoorlijk oude foto die ik nog had.

Hij heeft tegenwoordig nog vier rack's bij staan, waarvan drie lege, die gebruikt worden om nieuwe hardware in te testen, een hele rack met stuk of 15 servers met elk twee of drie van deze Quad Port Gbit Server Adapter type kaarten er in, om real world netwerk load te simuleren, en er nu bundels kabels naar de switches en servers gaan om ze te kunnen stressen op verschillende manieren.

Omdat hij zoveel werkt, heeft hij van zijn garage een server/netwerk test ruimte gemaakt, omdat dagen van 10~12 uur normaal voor hem zijn, vooral als hij aan het testen is, maar daar naast ook wel zijn kids en vrouw gewoon wil zien, is hij van meer thuis gaan werken, en heeft zelfs vaak een stel van zijn minions over de vloer om hem daar te helpen. :+

Laatst toen ik bij hem op bezoek was had hij bijna voor een miljoen aan nieuwe hardware in zijn test ruimte, dat hij aan het testen was voordat het life gaat, wat trouwens een leuke bijkomstigheid is, is dat de server ruimte zijn eigen stroom aansluiting heeft betaalt door werk, en dat hij de rest warmte gebruikt om zijn huis te verwarmen. 8)

[ Voor 38% gewijzigd door player-x op 02-03-2015 13:11 ]

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 19-07 12:37
Misschien handig om te melden voor mensen met een Supermicro x10sl7-f moederbord.
Als je een M1015 of andere adapter met een LSI2008 chipset bij plaatst is dat niet getest en niet gesupport door Supermicro.

Ik heb zowel de onboard 2308 als de m1015 naar p19 geflashed (wat issues met beide adapters te gebruiken dus de m1015 maar in een andere pc geflashed)

Als je dus zo beide adapters actief hebt zie je bij boot (alleen) de bios van de m1015 opstarten, en je kunt met de ctrl-c combinatie dan normaal de 2 lsi adapters bekijken.
Helaas zag ik alleen de m1015 en niet de onboard 2308.

In freebsd waren vervolgens wel normaal alle aangesloten discs er, dus ook die op de 2308.

Aangezien je de bios alleen nodig hebt als je wilt booten van een poort op een controller zou de oplossing die ik in een topic op het freenas forum gevonden heb zijn om van beide controllers het bios uit te schakelen. Zie: https://forums.freenas.or...detection-problems.21118/

Ik heb er maar voor gekozen om alleen de bios van de m1015 te verwijderen.

En dan kom je in het ctrl-c menu van de 2308 en kun je wel beide adapters zien en benaderen en configureren.
Dit lijkt me wel handig om staggered spin up etc te kunnen configureren.


In de x10sl7-f bios heb ik wel de pci-e versie voor het 16x slot (8x electrisch) naar 2.0 gezet (staat standaard op auto, en volgens de bovenstaande freenas link wordt de kaart niet altijd als een 2.0 kaart herkend en ingesteld)

Wellicht handig voor iemand ooit..

[ Voor 8% gewijzigd door jacovn op 03-03-2015 02:01 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 23:51
player-x schreef op zondag 01 maart 2015 @ 23:35:
[...]

Ik vind het voor een test systeem behoorlijk netjes, heb veel ergere foto's gezien, kijk maar eens goed, de kabels zijn nog steeds goed overzichtelijk, en dit is trouwens een behoorlijk oude foto die ik nog had.

Hij heeft tegenwoordig nog vier rack's bij staan, waarvan drie lege, die gebruikt worden om nieuwe hardware in te testen, een hele rack met stuk of 15 servers met elk twee of drie van deze Quad Port Gbit Server Adapter type kaarten er in, om real world netwerk load te simuleren, en er nu bundels kabels naar de switches en servers gaan om ze te kunnen stressen op verschillende manieren.

Omdat hij zoveel werkt, heeft hij van zijn garage een server/netwerk test ruimte gemaakt, omdat dagen van 10~12 uur normaal voor hem zijn, vooral als hij aan het testen is, maar daar naast ook wel zijn kids en vrouw gewoon wil zien, is hij van meer thuis gaan werken, en heeft zelfs vaak een stel van zijn minions over de vloer om hem daar te helpen. :+

Laatst toen ik bij hem op bezoek was had hij bijna voor een miljoen aan nieuwe hardware in zijn test ruimte, dat hij aan het testen was voordat het life gaat, wat trouwens een leuke bijkomstigheid is, is dat de server ruimte zijn eigen stroom aansluiting heeft betaalt door werk, en dat hij de rest warmte gebruikt om zijn huis te verwarmen. 8)
Dat het ergens anders nog een grotere puin zooi kan zijn maakt dit nog niet minder rommelig. Maar hij heeft wel een situatie waar iedere IT-nerd van kan dromen. Lekker betaald spelen met nieuwe spulletjes, fantastisch hoor!

Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 08-07 20:51

Kortfragje

......

Ik ben van plan mijn bestaande ZFS pool (RAIDZ2, 6*2TB drives) up te raden naar 6*6TB drives. Is dat nog veilig met dual parity? Of wordt de resilver tijd voor een 6TB drive failure al zo dat dit 'onveilig' is.

Voor mijn gevoel moet RAIDZ2 afdoende zijn maar ik baseer dit op absoluut niets ... :)

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 11-07 20:45
Ja hoor, dual parity is echt exponentieel veiliger dan single parity. Ik denk dat je alleen bij financiele data of iets anders wereldschokkends RAIDZ3 nodig hebt...

Maar goed, mijn mening :+

Even niets...

Pagina: 1 ... 174 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.