Verwijderd

ZFS is wel uitbreidbaar; zoek even wat de verschillen zijn en wat ZFS wel kan wat normaal RAID niet kan en andersom. Expansion werkt gewoon heel verschillend voor beide, A kan dingen doen die B niet kan en andersom.

Deduplicatie en compressie zijn niet zo interessant voor de meeste thuisgebruikers. Zoals je zelf zegt hem je weinig vergelijkbare data dus waarom heb je het dan over deze niet interessante features? Jij slaat geen 100 VM images op die allemaal nét iets verschillen, toch? Zulke situaties is dedup voor, namelijk.

CPU load voor Brazos zal het probleem niet zijn; geheugen weer wel! Ga je voor RAID5 met een traditioneel filesystem (Ext4, XFS) dan heb je in feite geen RAM nodig (512MB zou voldoende kunnen zijn). Ga je voor een ZFS setup dan is RAM grootte cruciaal voor je performancescaling.

De vraag is simpel: hoe hoge eisen stel je aan bescherming? Zou het erg zijn als je straks een jaar Linux met md-raid5 gebruikt en het zaakje dan opeens corrupt raakt. Aan die vraag ligt ook gekoppeld of je backups van je data hebt. Zo niet, dan is ZFS wel een veel veiligere keuze dan traditioneel RAID en zeker RAID5 wat enigszins risicovol is.

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Het is nu ook niet dat mdadm een corrupt vergiet is :P. ZFS fans laten dat wel eens graag doorschijnen (zonder een flamewar te willen starten)

De ZFS/MDADM keuzes zijn hier intussen wel al meermaals gepasseerd. Voor ZFS bestaat er een fantastisch topic (waarvoor dank, ZFS fans ;)) en voor mdadm is erlegio informatie in dit topic.

Parity is hedendaags geen issue meer als je logische dingen doet. Een 100 disk Raid6 op een VIA epia kan wel eens spannend worden, maar of dat logisch is ... .

Dedup is leuk voor:
- Veel gelijkende VM's
- Veel eindgebruikers binnen eenzelfde entitieit/firma, daar is de kans op 10x hetzelfde mailtje immers groot.
- compressie: niet nuttig voor thuisgebruik.

  • kingmob
  • Registratie: Augustus 2003
  • Laatst online: 05-11 11:33
Verwijderd schreef op woensdag 22 augustus 2012 @ 13:54:
ZFS is wel uitbreidbaar; zoek even wat de verschillen zijn en wat ZFS wel kan wat normaal RAID niet kan en andersom. Expansion werkt gewoon heel verschillend voor beide, A kan dingen doen die B niet kan en andersom.

Deduplicatie en compressie zijn niet zo interessant voor de meeste thuisgebruikers. Zoals je zelf zegt hem je weinig vergelijkbare data dus waarom heb je het dan over deze niet interessante features? Jij slaat geen 100 VM images op die allemaal nét iets verschillen, toch? Zulke situaties is dedup voor, namelijk.

CPU load voor Brazos zal het probleem niet zijn; geheugen weer wel! Ga je voor RAID5 met een traditioneel filesystem (Ext4, XFS) dan heb je in feite geen RAM nodig (512MB zou voldoende kunnen zijn). Ga je voor een ZFS setup dan is RAM grootte cruciaal voor je performancescaling.

De vraag is simpel: hoe hoge eisen stel je aan bescherming? Zou het erg zijn als je straks een jaar Linux met md-raid5 gebruikt en het zaakje dan opeens corrupt raakt. Aan die vraag ligt ook gekoppeld of je backups van je data hebt. Zo niet, dan is ZFS wel een veel veiligere keuze dan traditioneel RAID en zeker RAID5 wat enigszins risicovol is.
Ja ik was weinig specifiek. Geheugen lijkt me niet zo'n probleem, ik zal neit snel voorbij de 3TB gaan, dus 8 GB moet ruim voldoende zijn voor ZFS heb ik begrepen, zeker als ik geen deduplication gebruik (dan zou 4 of zelfs 2 prima moeten zijn volgens de wiki?). Beschermingseis is laag. Ik draai nu raid0, maar dat is de goden verzoeken uiteindelijk, dus redundancy leek me wel prettig. Al het belangrijke backup ik al naar m'n kantoor. Op de relatief kleine kans dat een schijf faalt terwijl al een schijf gefaalt is ga ik me dus geen enorme zorgen maken om maar wat te noemen. 1 failure redundant is afdoende voor me, al heel veel meer dan ik nu heb.

Maar als de extra's van ZFS alleen geheugen kosten dan heb ik die paar euro's extra er wel voor over natuurlijk, dus de uitbreidbaarheid was de enige vraag. Ik kon enkel omwegen vinden waar je alle schijven verving voor grotere. Als thuisgebruiker ben ik vooral op zoek naar een oplossing waar ik er gewoon 1 schijfje bij prik, dat zou dus ook moeten werken volgens jou. Hoe dan precies?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Dat kan bij RAIDZ dus niet. Je kan niet een individuele VDEV vergroten. Maar als jij zegt dat je niet voorbij de 3TB gaat, dan is 2 * 3TB in een Mirror toch genoeg?
Mocht je ooit uit willen breiden koop je 2*3TB en maak je een tweede mirror.

Even niets...


Verwijderd

Jormungandr schreef op woensdag 22 augustus 2012 @ 14:10:
Het is nu ook niet dat mdadm een corrupt vergiet is :P. ZFS fans laten dat wel eens graag doorschijnen (zonder een flamewar te willen starten)
Nouja, zonder inderdaad die flamewar te willen starten, is dat wel een belangrijk punt.

Ik ben van mening dat alle traditionele storage (FAT, NTFS, Ext2/3/4, XFS, JFS, UFS) inclusief traditionele RAID inherent onveilig is. Niet dat het om de haverklap corrupt raakt; dat echt niet. Het grootste bezwaar is 'silent corruption'; je weet simpelweg niet wanneer er corruptie optreedt. Als je in ZFS een paar na maanden/jaren van gebruik opeens een paar checksum errors krijgt, haal je je schouders op en ga je verder. Bij de andere oplossingen is dit iets wat onopgemerkt blijft en dus ook naar je backup kan doorvloeien. Je kunt de situatie krijgen dat je dénkt goed beschermd te zijn, maar in de praktijk toch gebeten worden met dataverlies of -corruptie.

Ook denk ik dat zodra alle grote platformen overgegaan zijn tot redundante filesystems (Windows -> ReFS, Linux -> Btrfs, UNIX -> ZFS) de publieke opinie snel zal gaan veranderen en we op de 'ouderwetse' filesystems al snel neerkijken en inzien dat dit tot een ander - vorig - tijdperk behoorde.

Aangezien ZFS op dit moment de enige écht volwassen 'next-gen' filesystem-hybride is, is dat waar nu alle aandacht naartoe gaat. Dat kan de indruk wekken dat het ZFS 'fanboy'-ish betreft. Maar zodra Btrfs en ReFS gemeengoed worden zal ook de rest van mening veranderen, zo denk ik.

Dus laat ik hierbij mijn case gemaakt hebben dat ik ZFS toch wel als superieur zie aan MD+Ext4 of een dergelijke combinatie. Dat betekent niet dat ik het ook gelijk afraad. Dat hangt erg af van de persoonlijke wensen en het kan prima zijn dat de voorkeur voor Windows of Linux zwaarder weegt dan de hogere bescherming die ZFS kan bieden. Dit is één van de vele afwegingen die een NAS zelfbouwer zal moeten ondergaan. Er is geen één beste oplossing voor iedereen.
Parity is hedendaags geen issue meer als je logische dingen doet. Een 100 disk Raid6 op een VIA epia kan wel eens spannend worden, maar of dat logisch is ... .
Parity was ook nooit een issue geweest. XOR is de makkelijkste instructie die een CPU haast kan krijgen. Je bent in feite RAM-bandbreedte bottlenecked. Dit kun je ook zien met Linux+MD waarbij tijdens de boot een korte benchmark wordt getoond waarbij gezocht wordt naar de snelste 'parity path' voor jouw CPU. 7GB/s is daarbij vrij normaal voor een modern systeem, en zelfs ver daarboven tegenwoordig vermoed ik.

Het punt bij RAID5 is dat er een write-back engine met combine engine bij moet. Doe je dat niet, zijn je writes traag omdat je de disks continu laat seeken. Parity RAID in combinatie met mechanische hardeschijven werkt dus alleen goed voor sequential write indien je een 'slimme' RAID5 engine hebt. Intel met volume write-back caching ingeschakeld valt hieronder, die doet de I/O combining in RAM-geheugen. Hardware RAID doet het in eigen geheugen mits write-back is ingeschakeld.

RAID-performance heeft - voor zover ik weet - nooit iets met CPU performance te maken gehad. Wat wel zo is, is dat 1000MB/s vervoeren natuurlijk wel CPU-belasting en vooral geheugen bandbreedte veroorzaakt. Dus dat je met een RAID-array hogere CPU-belasting krijgt is logisch omdat je ook hogere performance haalt. Maar ga je normaliseren per 100MB/s dan denk ik dat je niet tot grote verschillen komt.
kingmob schreef op woensdag 22 augustus 2012 @ 14:18:
Als thuisgebruiker ben ik vooral op zoek naar een oplossing waar ik er gewoon 1 schijfje bij prik, dat zou dus ook moeten werken volgens jou. Hoe dan precies?
Dit is wel het zwakke punt van ZFS; dit werkt dus niet helemaal zoals je wilt.

Het kan wel, je kunt gewoon een schijf toevoegen. Maakt niet uit hoe groot, hoe snel, je pleurt hem er gewoon in:
zpool add tank /dev/<nieuwe schijf>

Maar, dan voeg je hem toe als RAID0 / single disk. Zou die ene schijf falen, dan is je hele pool kapoet.

Anders gezegd: je kunt in ZFS geen bestaande array uitbreiden, maar wel een array toevoegen. Array is dan de naam die ik gebruik voor 'vdev'. Je kunt dus een 3-disk RAID-Z hebben en er later weer een 3-disk RAID-Z aan toevoegen. Of een 4-disk RAID-Z2 je bent niet gebonden aan een bepaalde configuratie.

In de praktijk betekent dit dus dat je uitbreid door in één keer een stoot schijven toe te voegen. Echter, als je goede bescherming wilt zoals RAID-Z2 dan kun je beter in groepjes van 6 of 10 schijven toevoegen. En dat is denk ik niet wat jij in gedachte had. Ik hoor je denken: meh :/

Bedenk wel, de voordelen die normaal RAID niet heeft:
  • Je kunt in de toekomst schijven van andere grootte zoals 3TB, 4TB of 5TB toevoegen terwijl je nu nog 2TB schijven gebruikt. De extra ruimte kun je daadwerkelijk benutten, en niet zoals normaal RAID dat hij als 2TB disk behandeld wordt.
  • Je benut de extra snelheid van de snellere 'nieuwere' schijven. Het ligt voor de hand dat als je uitbreid met nieuwere schijven deze sneller zijn. ZFS kan die extra snelheid benutten; normaal RAID beperkt.
  • Je kunt de redundantie aanpassen (mixen van RAID-Z1/2/3, mirror, single disk)
  • Bij het uitbreiden hoef je niet noodzakelijk de redundantie te verlagen, zoals je wel doet als je van een 3-disk RAID5 een 8-disk RAID5 maakt. Je voegt een nieuwe array toe ook weer met redundantie. Zo blijft je niveau van bescherming op peil naarmate je uitbreidt.
Wil je toch in kleine groepjes uitbreiden, dan kun je mirroring overwegen. Dat werkt wel gaaf bij ZFS, want:
  • Je kunt beginnen met single disk, en deze daarna uitbreiden naar mirror
  • Je kunt uitbreiden met een single disk, dus even 'onveilig' draaien, en later die mirror compleet maken
  • Je kunt als je een disk nodig hebt tijdelijk een mirror een single disk maken, en later weer toevoegen
  • Je behoudt de voordelen zoals hierboven genoemd, dat je snellere/grotere schijven kunt toevoegen
Nadeel is wel: een mirror biedt maar een enkelvoudig (gegarandeerde) bescherming. Dus 10 disks in een RAID10 (5 mirrors van elk 2 disks) is stuk zodra twee schijven in één mirror het begeven. Je kunt wel 3-way mirrors maken, maar ook dat wil je wellicht niet omdat je een 'economische' oplossing wilt.

Dus wat jij wilt is net niet de sweet spot van ZFS. Als je een poweruser was geweest die vele tientallen terabytes aan opslag wilde, dan was het een minder groot probleem omdat je dan juist wilt uitbreiden in groepjes van 6 of 10. In jouw geval moet je even kijken hoe ernstig dit zwakke punt is voor jouw concrete situatie.

  • kingmob
  • Registratie: Augustus 2003
  • Laatst online: 05-11 11:33
FireDrunk schreef op woensdag 22 augustus 2012 @ 14:58:
Dat kan bij RAIDZ dus niet. Je kan niet een individuele VDEV vergroten. Maar als jij zegt dat je niet voorbij de 3TB gaat, dan is 2 * 3TB in een Mirror toch genoeg?
Mocht je ooit uit willen breiden koop je 2*3TB en maak je een tweede mirror.
Punt is dat ik al 3x1,5 TB heb nu, die zou ik graag willen blijven gebruiken.

  • kingmob
  • Registratie: Augustus 2003
  • Laatst online: 05-11 11:33
Thx, ik merk dat je met ZFS net iets anders moet nadenken. Op zich is in de toekomst 2 of 3 schijven toevoegen geen enorm probleem. Meer een soort jammer, maar neit onoverkomelijk. Ik had nog niet helemaal begrepen dat je de pool zo simpel kon uitbreiden, het is dan gewoon een nieuw soort 'device' wat er aan toegevoegd wordt begrijp ik?

Naarmate ik meer lees nu hier op GoT en elders word ik er sowieso nieuwschierig naar, dus ik denk dat ik gewoon voor ZFS ga. Ik zie wel dat veel op ervaring berust. Zo ben ik van plan een grote goedkope SSD er bij te prikken (zag een 256GB voor 150 euro, met redelijke reviews). Mijn eerste plan was om een groot deel daarvan te bestemmen voor incomplete sab downloads, zodat de HDDs slechts kort belast worden. Een deel voor de databases op de server en de rest voor ubuntu. Alles in ext4. Nu begin ik te denken dat bijvoorbeeld een stuk van de SSD als l2ARC gebruiken best mooi kan zijn en dat de databases zeer waarschijnlijk sowieso in de ARC zouden komen als die op een ZFS pool staan. Ik heb echter geen flauw benul hoeveel er in het geheugen zou komen en hoeveel op de SSD i bij een fileserver. Veel wordt slechts incidenteel gelezen natuurlijk. Bovendien heeft ubuntu zelf ook prefetching, dus ik vraag me af of het nut heeft om het op ZFS te zetten of niet.

Ik hoop dat m'n afweging een beetje duidelijk is. Gebruik je een SSD in dit geval om ZFS te helpen via L2ARC en ZIL zoals ik het begrijp, of gebruik je de SSD gewoon als aparte schijf.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Mja, dat is inderdaad net een lastige grootte... Te groot om te vervangen voor nieuwere zuinige schijven waardoor je iets anders dan RAIDZ zou kunnen draaien (zoals 1 of 2 mirrors).
Je zou natuurlijk een 1.5TB schijf er (tweedehands) bij kunnen kopen en dan gaan stripen over 2 mirrors (soort RAID10). Dan kan je later makkelijk uitbereiden met 2 losse schijven in een nieuwe mirror.

Als je 3 schijven in RAIDZ zet, zul je uit moeten breiden met 3 schijven. Dat is weer zonde.
Je kan in theorie ook 1 RAIDZ vdev en 1 Mirror vdev mixen, maar of dat de bedoeling is...

===

ZFS is vooralsnog alleen stabiel op Solaris en FreeBSD en nog beta op Linux (en dus sterk af te raden).

Dus ext4 draaien snap ik niet helemaal, hoe had je dit zelf in gedachten?

[ Voor 14% gewijzigd door FireDrunk op 22-08-2012 15:26 ]

Even niets...


Verwijderd

Zou hij nog even geduld hebben, kan hij misschien de grafische virtualbox icm ZFSguru uitproberen. Makkelijke ZFS management interface en hij kan Ubuntu in een full-screen VM draaien.

Hoe bruikbaar/stabiel het is? Geen idee! Maar dit soort oplossingen is wel heel interessant voor een groep mensen, die wél ZFS willen maar ook iets grafisch willen doen met de box en dan liefst iets wat gewoon Ubuntu is wat ze nog enigszins een beetje kennen en vertrouwd aanvoelt.

Kan eigenlijk wel een heel gave oplossing zijn, toch? :)
Vooral als het straks met services met een paar muisklikken te realiseren valt.

  • kingmob
  • Registratie: Augustus 2003
  • Laatst online: 05-11 11:33
Verwijderd schreef op woensdag 22 augustus 2012 @ 15:48:
Zou hij nog even geduld hebben, kan hij misschien de grafische virtualbox icm ZFSguru uitproberen. Makkelijke ZFS management interface en hij kan Ubuntu in een full-screen VM draaien.

Hoe bruikbaar/stabiel het is? Geen idee! Maar dit soort oplossingen is wel heel interessant voor een groep mensen, die wél ZFS willen maar ook iets grafisch willen doen met de box en dan liefst iets wat gewoon Ubuntu is wat ze nog enigszins een beetje kennen en vertrouwd aanvoelt.

Kan eigenlijk wel een heel gave oplossing zijn, toch? :)
Vooral als het straks met services met een paar muisklikken te realiseren valt.
Ik was niet van plan iets grafisch te doen, het is meer dat ik linux in het algemeen en ubuntu specifiek goed ken, maar alle andere unix varianten totaal niet. Sickbeard/couchpotato/sabnzbd gaat vast nog wel lukken, maar als ik het onvermijdelijke pielwerk ga doen, maak ik graag gebruik van de kennis die ik heb. Ervaring leert me dat dit het beste is voor mijn hart ;) Bovendien gaat het me tijd besparen. Op een linux server (of het nou iets embedded met busybox draait of ubuntu) voel ik me gewoon meer 'thuis'. het draait op m'n router, m'n huidige nas, m'n HTPC, ga zo maar door :P

Verwijderd

Maar dat is dus het punt, zou je Ubuntu gebruiken om daar ZFS op te draaien, dan draai je wel een 'beta ZFS'. Al zal het tegenwoordig al vrij acceptabel werken, de Solaris en FreeBSD platforms zijn een stuk meer volwassen in hun ZFS support.

Daarom ook mijn suggestie dat je een 'primair' ZFS platform combineert met een VM om Ubuntu te draaien zodat je makkelijk grafisch je pakketten kan installeren (of wil je in ubuntu alles command line doen?).

  • kingmob
  • Registratie: Augustus 2003
  • Laatst online: 05-11 11:33
Hij zou gewoon headless worden, dus idd alleen cli. Je hebt gewoon een ubuntu server editie.
Van wat ik tot nu toe heb gelezen over zfsonlinux, heb ik nog geen duidelijke reden kunnen vinden waarom ik het niet zou doen op een persoonlijke fileserver. Ik zie veel niet onderbouwde meningen, maar daar heb ik weinig aan. Ik begrijp waarom je het niet op een grote productieserver zou zetten, maar dat is wel een hele andere afweging.

Als je meer weet, graag, ik kan geen concrete info vinden. Zowel dedup als compressie zijn geloof ik niet zo goed gesupport nog, maar daar kan ik mee leven.

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Ik ben van plan om 4 extra schijven in mijn NAS te prikken als ESX datastore. Zou misschien geen slecht idee zijn om dat op een ZFS speeltuin te doen. Als ZFS dan volwassen genoeg is, wipe ik de datastore en move ik mijn userdata naar de ZFS array :).

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Hoe wil je dat doen? RDM / VT-d?
--

Mijn nieuwe NAS project begint vorm te krijgen. Ik heb nu een DQ77MK bord met daarop een i5-3550 met wat geheugen wat ik nog had liggen.
Dit doet samen met een Be Quiet L7 een leuke 19W idle onder Windows 7 met drivers geinstalleerd. Ik heb ook een PicoPSU liggen, maar geen geschikte 12v adapter, die moet ik nog ergens versieren.
Doel is om 4*2TB en 2 * 80GB SSD's in het systeem te bouwen, en daarop FreeBSD te zetten icm ZFS met een RAIDZ pool met 1 SSD voor VM's en 1 SSD voor L2ARC caching.

2 be continued dus :)

PS: wat overigens wel grappig is, is dat het bord ECC geheugen slikt... De ECC functionaliteit zal vast niet aangaan, maar het geheugen werkt iig :) (4*4GB UDIMM)

[ Voor 12% gewijzigd door FireDrunk op 22-08-2012 18:38 ]

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
ECC udimm, dat is toch niet zo bijzonder? Dat pakt mijn MSI H55M-ED33 ook gewoon. Het moederbord doet er niets mee, maar het werkt gewoon.

De CSL/OT kroeg !


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Mwoh, ik had verwacht van een Intel moederbord dat hij wel zou gaan janken en piepen... Juist omdat de CPU het officieel niet ondersteund...

Even niets...


  • itsgreen
  • Registratie: Mei 2000
  • Laatst online: 02-12 10:50

itsgreen

Large and in charge

Ik ben nieuw in dit topic en zit mezelf te orienteren op mijn mogelijkheden, lees leuke dingen, maar het topic ansich is misschien wat onoverzichtelijk. Ik ben bijvoorbeeld opzoek naar case studies van zelfbouw NAS'sen. Wat voor NAS heeft men gebouwd, wat was het doel, welke onderdelen en welke software heeft men gekozen en waarom? Wat heeft het gekost en hoe succesvol zijn ze, wat is er goed aan je build en wat valt je tegen.

Is het misschien een idee als mensen (die recent iets hebben gebouwd) hun case toelichten en een paar van die cases toevoegen aan de openingspost?

(just suggesting, so don't shoot me ;))

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
kingmob schreef op woensdag 22 augustus 2012 @ 16:30:
Hij zou gewoon headless worden, dus idd alleen cli. Je hebt gewoon een ubuntu server editie.
Van wat ik tot nu toe heb gelezen over zfsonlinux, heb ik nog geen duidelijke reden kunnen vinden waarom ik het niet zou doen op een persoonlijke fileserver. Ik zie veel niet onderbouwde meningen, maar daar heb ik weinig aan. Ik begrijp waarom je het niet op een grote productieserver zou zetten, maar dat is wel een hele andere afweging.

Als je meer weet, graag, ik kan geen concrete info vinden. Zowel dedup als compressie zijn geloof ik niet zo goed gesupport nog, maar daar kan ik mee leven.
Ik ga van de week (als mijn schijven deze keer wel allemaal geleverd worden) ook met zfsonlinux op ubuntu van start. Wat ik van zfsonlinux iig wel te weten bent gekomen is dat je bij het aanmaken van de pool de optie hebt om de sectorsize van je disks te kiezen. Mocht je dat moeten hebben moet je even de man pages lezen.
Verder ben ik geinteresseerd in je ervaringen zodra je van start gaat.

CiPHER, is er wel eens nagedacht over een linux versie van ZfsGuru, of praat ik nu poep?

-----------------------

Heb ik zelf nog een vraag - Weet iemand waar ik stekkertjes e.d. om zelf SATA (voedings)kabels mee te maken kan kopen?

[ Voor 158% gewijzigd door Durandal op 22-08-2012 20:40 ]


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 13:59
FireDrunk schreef op woensdag 22 augustus 2012 @ 18:37:
Hoe wil je dat doen? RDM / VT-d?
--

Mijn nieuwe NAS project begint vorm te krijgen. Ik heb nu een DQ77MK bord met daarop een i5-3550 met wat geheugen wat ik nog had liggen.
Dit doet samen met een Be Quiet L7 een leuke 19W idle onder Windows 7 met drivers geinstalleerd. Ik heb ook een PicoPSU liggen, maar geen geschikte 12v adapter, die moet ik nog ergens versieren.
Doel is om 4*2TB en 2 * 80GB SSD's in het systeem te bouwen, en daarop FreeBSD te zetten icm ZFS met een RAIDZ pool met 1 SSD voor VM's en 1 SSD voor L2ARC caching.

2 be continued dus :)

PS: wat overigens wel grappig is, is dat het bord ECC geheugen slikt... De ECC functionaliteit zal vast niet aangaan, maar het geheugen werkt iig :) (4*4GB UDIMM)
Uit pure nieuwsgierigheid: Waar is deze kleine pool voor bedoeld eigenlijk?
Ga je zoiets via iSCSI en/of NFS aanbieden als ESX storage misschien?

Ik ben namelijk zelf al een maand ofzo aan het nadenken hoe ik nu alles hier wil opzetten.
Als zo'n machientje maar 19Watt gebruikt, is het niet zo erg als er een extra machine aanstaat en is het zeker interessant als datastore lijkt me.

[ Voor 10% gewijzigd door Sleepie op 23-08-2012 01:39 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
19W is nog zonder disks.
Voornaamste reden voor deze nas is zodat mijn grote server 's nachts uit kan. Dat ding trekt 150W uit de muur, en dat is dus een goede 300,- per jaar (als hij constant idle is, en dat issie dus niet...)

Ik laat mijn server ook intact denk ik (met zijn 8*2TB) of ik verkoop misschien wat onderdelen. Maar het blijft een server waar ik op test.

Deze nieuwe bak doet dus alleen maar dienst als NAS en downloadbak (SabNZBd). Er komt dus kaal ZFSguru op, met misschien Sickbeard in een VM. Meer niet.

Vanavond maar eens ZFSguru installeren en kijken wat daar het verbruik is.

[ Voor 8% gewijzigd door FireDrunk op 23-08-2012 15:50 ]

Even niets...


  • sloth
  • Registratie: Januari 2010
  • Niet online
En daarvoor ga je een i5-3550 gebruiken?
Van overkill gesproken :X

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
De goedkoopste Ivy Bridge CPU die VT-d ondersteund...
Overigens is een I5-3550 leuk met PAR2 / RAR opdrachten :+

[ Voor 36% gewijzigd door FireDrunk op 23-08-2012 16:51 ]

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Omdat je van VT-d gebruik kunt maken zou ik overwegen om ZFSguru in een (ESXi) VM te draaien. Of eigenlijk moet ik dat niet aanraden en jou laten tunen aan het verbruik van FreeBSD 9. :+

De CSL/OT kroeg !


  • sloth
  • Registratie: Januari 2010
  • Niet online
Dan nog begrijp ik je keuze niet meteen.

Stel dat je volgende setup gekocht had:

#ProductPrijsSubtotaal
1Intel Celeron G530 Boxed€ 38,50€ 38,50
1Asrock B75 Pro3-M€ 64,-€ 64,-
Bekijk collectie
Importeer producten
Totaal€ 102,50


6 x sata (je hebt zelfs 8 poorten): check
4 x geheugenslot: check
zuinig: check
snel genoeg als downloadbak en dedicated nas: check

Toegegeven, je hebt geen VT-D, maar is dat een probleem? Voor wat je wil doen kan je toch SabNZBd op FreeBSD installeren, naast ZFSGuru? En als je dat niet zou willen middels virtualbox. Daar heb je toch geen VT-D ondersteuning voor nodig?

Die i5 loopt uiteraard rondjes om de G530, maar je hebt toch nergens zoveel performance voor nodig?
Daarnaast ben je voor net niet de helft van de kost van je huidige processor al klaar..

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
In principe wel ja, maar ik kon goedkoop aan een Q77 bord komen en vond het zonde om daar een el cheapo processortje in te stoppen. Ik heb de i3-3225 overwogen maar die zij nog niet leverbaar.
Ik wil ook verder gaan met mijn 10Gb project en daarom durfde ik niet voor een Celeron te gaan. Ook omdat ik dedup aan wil zetten.

Even niets...


  • Demo
  • Registratie: Juni 2000
  • Laatst online: 14-12 22:38

Demo

Probleemschietende Tovenaar

Durandal schreef op woensdag 22 augustus 2012 @ 20:15:
Heb ik zelf nog een vraag - Weet iemand waar ik stekkertjes e.d. om zelf SATA (voedings)kabels mee te maken kan kopen?
Zie Zelf voedingskabels maken.

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Gister NAS bijna helemaal in elkaar geschroefd. Complete specs zijn nu:

Intel DQ77MK
4 * 4GB 1333Mhz geheugen.
i5-3550 CPU
Intel Postville G2 80GB (als bootpool)
4 * 2TB in RAIDZ (als datapool)
Intel 10Gb AF DA NIC.
BeQueit L7 300W voeding.

Met de ZFSGuru 9.1-002 beta6 image is het idle verbruik 63W met de disks aan. En dan heb ik nog geen enkele vorm van optimalisatie toegepast.

Nadeel wat ik nu al gezien heb, is dat bij start de machine op 125-130W piekt. Dat klinkt niet als goed nieuws voor mijn PicoPSU...

[ Voor 17% gewijzigd door FireDrunk op 24-08-2012 09:42 ]

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Je kunt de klap van de harde schijven misschien wegnemen door de spinup meer beheerst te laten verlopen. Dutchtraveller had het daar recent over.

De CSL/OT kroeg !


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Ja, ik heb wel wat opties gezien in het moederbord (over detection delay), en ik heb ook nog een hotswap module liggen.
De hotswap modules staan er om bekend dat ze die power pin vaak open laten, en dat ze dus veel meer geschikt zijn voor staggered spinup.

In het Intel BIOS staat niet letterlijk Staggered Spinup (wat in mijn HTPC Biostar bord wel staat).

[ Voor 16% gewijzigd door FireDrunk op 24-08-2012 09:53 ]

Even niets...


  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
Sinds ongeveer twee maanden heb ik deze setup in zijn huidige vorm draaien. Op dit moment met FreeNas 8.2.

#ProductPrijsSubtotaal
1Intel Pentium G620€ 53,45€ 53,45
5Hitachi Deskstar 7K3000, 3TB€ 207,-€ 1.035,-
1Western Digital Scorpio Blue WD2500BEVT, 250GB SATA-300, 8MB, 5400rpm€ 58,-€ 58,-
1Akasa AK-CCE-7106HP€ 12,43€ 12,43
1Kingston ValueRAM KVR1333D3N9/4G€ 18,20€ 18,20
1Eolize SVD-NC11-4€ 158,88€ 158,88
1Asus P8H67-I€ 99,-€ 99,-
Bekijk collectie
Importeer producten
Totaal€ 1.434,96


Sinds ik hem van de studeer kamer naar de meterkast heb verplaatst merk ik dat de schijven erg warm worden (1 v/d 4 - de bovenste - geeft in smart zelfs aan dat zijn max 74 C is geweest, de andere max. ~55). Idle zijn ze rond de 44.

Nu weet ik dat deze hitachi's heethoofden zijn maar ik wil toch graag proberen mijn 120 mm fan te vervangen door een krachtigere, om te proberen de temps wat omlaag te krijgen. In principe heeft de gangkast ventilatie gaten aan de boven en onderkant waardoor er luchtcirculatie kan plaats vinden.

Heeft iemand tips voor een 120 mm fan die een goede balans heeft tussen geluid en luchtverplaatsing? Ik zie door de bodem het bos niet meer. Voor de duidelijkheid, de fan trekt de lucht door de case. Helaas heb ik geen idee van de specs van de stock fan.

Hieronder wat foto's van de set-up (zoals je kunt zien heb ik de ventilatie aan de zijkant al afgeplakt zodat de luchtstroom van voor naar achter meer gefocussed wordt):

Afbeeldingslocatie: http://i73.photobucket.com/albums/i218/Loubard/IMG_20120824_105326.jpg

Afbeeldingslocatie: http://i73.photobucket.com/albums/i218/Loubard/IMG_20120824_105354.jpg

Afbeeldingslocatie: http://i73.photobucket.com/albums/i218/Loubard/IMG_20120824_105606.jpg

Afbeeldingslocatie: http://i73.photobucket.com/albums/i218/Loubard/IMG_20120824_105617.jpg

Ik bedenk me nou ineens, zou het uit dremelen van de case in de flow van de fan ook al een positief effect hebben?

Disk 1 (onderste):
Afbeeldingslocatie: http://i73.photobucket.com/albums/i218/Loubard/smart_disk1.jpg

Disk 4 (bovenste):
Afbeeldingslocatie: http://i73.photobucket.com/albums/i218/Loubard/smart_disk4.jpg

[ Voor 10% gewijzigd door Patatjemet op 24-08-2012 11:17 . Reden: Fotos + smart ]

- raid does not fix stupid -


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
74c is wel extreem... Dat lijkt me niet gezond... 44 vind ik persoonlijk ook wat aan de hoge kant, maar dat overleven ze waarschijnlijk wel.

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Dat spul zit dan ook in een verschrikkelijke behuizing met 7200rpm, vijf platter schijven: beperkte koeling met warme/hete schijven. Een dubbele backplane met als gevolg dat je alleen van de zijkant met hoge airflow en beter cablemanagement de zaak wat koel kunt houden. Hopelijk is die voeding nog efficiënt en niet een kleine kachel.
Ik zou eerst testen met twee 12cm ventilatoren aan weerzijden en zonder kap erop. Kijken of dat enigszins werkt.

[ Voor 27% gewijzigd door Dadona op 24-08-2012 11:49 ]

De CSL/OT kroeg !


  • Dutchtraveller
  • Registratie: Oktober 2006
  • Laatst online: 26-11 22:50
Zo te zien zijn het maar 4 7K3000's.

In het OEM-manual van de 7K3000 2TB disk hoofdstuk environment lees ik dat operating temperatuur bij 10% luchtvochtigheid 60 graden mag zijn. En dat neemt af tot 31 graden bij 95% luchtvochtigheid... :'(
Dat zal te maken hebben met corrosie maar het is een stuk minder dan je zou verwachten..
Ergens anders staat dat de buitenkant van de schijf niet meer dan 65 graden mag worden dus helemaal consistent is de informatie niet.

Gezien het heel beperkte oppervlak om de warmte van de disken af te voeren vrees ik dat dit niet gaat lukken met een stille fan...

Zorg dat alle airflow langs de schijven binnen komt.
Waarschijnlijk is het afplakken van de zijkant wat je hebt gedaan voldoende maar ik kan de achterkant niet zien dus... ;)

Behalve sleutelen aan je systeem kun je ook wat doen aan de omgeving.
Zet het systeem onderin de kast, dit zou het koelste punt moeten zijn.
Indien acceptabel kun je een gat in deur maken met de afmetingen van de kast zodat de voorkant van het systeem daar doorheen kan steken en alle lucht van buiten wordt aangezogen. 8)
Anders kun je een tunnel maken die aan de ene kant aansluit op de ventilatie onderin de deur en aan de andere kant op de voorkant van het systeem zodat hetzelfde effect bereikt wordt.

[ Voor 28% gewijzigd door Dutchtraveller op 24-08-2012 12:46 ]


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Ik heb jaren lang een minitower met 6-8 disks boven elkaar gehad (beetje dezelfde configuratie), ook in de meterkast. Werdt in de zomer wel warm maar niet veel te warm.
Ik had wel de volgende verschillen
- een 12 cm fan aan de voorkant van de kast direct tegen de disks aan voor iedere 4 schijven. Deze draaiden dan op 7 volt wat resulteert in weining geluid en toch goede airflow van buiten de kast naar binnen over de disks heen.
- geen backplane, dus lucht ging rechtdoor.
- boven in de meterkast een rooster naar buiten (ong 60x10 cm) gemaakt om de warmte af te voeren

Disks zijn nooit warmer dan 35-40 graden geworden, zijn nu na een paar jaar nog steeds goed en blijven nagenoeg allemaal op dezelfde temperatuur.

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
De reden dat ik deze schijven heb is omdat ze als zeer betrouwbaar te boek staan en ik ze via v&a (redelijk) goedkoop op de kop heb kunnen tikken. Er zitten 4 schijven in, de 5e is cold spare. Zoals gezegd, de verplaatsing naar de meterkast zorgde voor een temperatuur stijging van ~4 graden en plaatst ze net in de range die ik niet meer prettig vind. Ik ben er bang voor dat het hun levensduur verkort.

Een van de redenen dat ik de server naar de meterkast wou verplaatsen is omdat de temperatuur er stabieler is. Tijdens de extreem warme dagen afgelopen weekend merkte ik flinke fluctuaties in de temperatuur op de kamer waar hij eerder stond, dit is misschien ook wel de oorzaak voor de 74 graden disk. Het leek / lijkt mij beter om de schijven een graad of wat warmer te hebben dan bij wisselende omstandigheden. Correct me if I am wrong!

In de datasheet van deze schijven staat alleen iets vermeld over de omgevingstemperatuur (ambient temperature) en niets over de temperatuur van de schijven zelf (behalve dus de buitenkant). Ik lees / hoor ~ 40 graden als algemene acceptabele bovengrens en dat is dus ook mijn streven.

Ik heb de server nu op het laagste plankje gezet, in het bios van het mb het koel profiel op "turbo" gezet en het deurtje aan de voorkant verwijderd om de intake zo min mogelijk obstructie te geven. De schijven zijn nu ~2 graden koeler (41-42). Ik hou de temperatuur de komende dagen in de gaten. Omdat het geluid in de meterkast niet zo veel uitmaakt kan ik altijd nog de fan vervangen, vandaar ook mijn vraag naar ervaringen met 120 mm fans. Iemand een aanrader?

Misschien interessant om te horen op welke temperatuur iedereen zijn schijven heeft? Ik kan me voorstellen dat sommige behuizingen gelijkwaardige of zelfs mindere koeling als deze case bezitten (voornamelijk de synology - qnap types misschien)?

- raid does not fix stupid -


  • Dutchtraveller
  • Registratie: Oktober 2006
  • Laatst online: 26-11 22:50
Hoe lager in de kast hoe groter het schoorsteeneffect wat zal optreden.
Hierdoor ventileert je kast dus beter.

Bij anandtech is net een test geweest van fan's voor gebruik met een radiator.
Dit is niet dezelfde situatie. Een fan die goed is voor je kast is niet per se goed voor een radiator en omgekeerd.
Maar omdat de lucht hier door een relatief kleine opening moet is er wat voor te zeggen om een fan met een hoge statische druk te gaan.

Degene uit die test die ik zou nemen is de Corsair SP120 High Performance.
In de pricelist los: pricewatch: Corsair SP120, 120mm of in een twinpack: pricewatch: Corsair SP120 Twin Pack, 120mm
Bij azerty zie je dat de losse fan toevallig net in de aanbieding is en een stuk goedkoper dan de stuksprijs van het twinpack: http://azerty.nl/0-1088-5...r-series-sp120-high-.html :9

Er zullen nog wel meer fan's zijn die geschikt zijn.
De Scythe Slipstream in de varianten met de hogere luchtdoorvoer zullen het ook wel goed doen:
pricewatch: Scythe Slip Stream SY1225SL12H, 120mm
en
pricewatch: Scythe Slip Stream SY1225SL12SH, 120mm
Als geluid iets minder belangrijk is en goede koeling wel (lijkt me wel) kijk dan naar deze: pricewatch: Scythe Ultra Kaze DFS123812L-3000, 120mm
Die heeft een hele hoge throughput en een hoge statische druk. Bij 3000 tpm en 45dB ... >:)
Je hebt demping door de kast van je systeem en door de meterkast.
Zolang je niet naast die meterkast zit zal het geluid wel meevallen.
Ik preferereer die fan boven het dremelen van de kast.
Helaas trekt die fan 7,2W en dat is te veel voor een zuinig systeem.
De Corsair heeft maar 2,16W nodig. Voor een goede koeling is dat nog wel acceptabel.

[ Voor 9% gewijzigd door Dutchtraveller op 24-08-2012 14:52 ]


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
De Scythe Slip Stream SY1225SL12SH heb ik in mijn editstation (driemaal), maakt een behoorlijke herrie. Dat is niet het enige, bedenk wel dat je twee van die jongens (of nog sneller) je verbruik ook weer een stukje omhoog brengt.
Ik vraag mij eerder gezegd af of je, als mijn eerder voorgestelde test niet het gewenste resultaat oplevert met normale ventilatoren, niet je verlies moet nemen. Je staat op het punt om extra verbruik en kosten in een combinatie te gooien die misschien geen goed huwelijk zijn. Misschien kun je dan beter de kast vervangen en ervoor in de plaats een non-hotswap versie nemen met goede koeling. Aan het einde van de streep kost het misschien hetzelfde, maar tenminste heb je dan een stiller iets en misschien ook simpelweg een koelere opstelling.

De CSL/OT kroeg !


  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
Ik was heel dicht bij het bestellen van een nieuwe case, maar heb toch besloten om te kijken of ik door wat optimalisaties de temperatuur omlaag kan krijgen.

Door het vervangen van de stock 120 mm fan door een cooler master - blade master (op voorraad bij de locale mycom) en het weghalen van een stuk plastic over de ventilatie gaten ter hoogte van de power supply zijn de schijven nu 38-39 C. Ik heb nog een tweede gehaald voor aan de zijkant van de schijven (zoals voorgesteld door dadona), maar een y-splitter kabel gaat de mycom al boven de pet blijkbaar. Die moet ik dus nu even bestellen. In ieder geval al blij met de 4 (!) graden verschil door een nieuwe fan. Bedankt voor de hulp allemaal.

- raid does not fix stupid -


  • helm71
  • Registratie: Februari 2012
  • Laatst online: 19-12 10:38
FireDrunk schreef op donderdag 23 augustus 2012 @ 15:48:
19W is nog zonder disks.
Voornaamste reden voor deze nas is zodat mijn grote server 's nachts uit kan. Dat ding trekt 150W uit de muur, en dat is dus een goede 300,- per jaar (als hij constant idle is, en dat issie dus niet...)

Ik laat mijn server ook intact denk ik (met zijn 8*2TB) of ik verkoop misschien wat onderdelen. Maar het blijft een server waar ik op test.

Deze nieuwe bak doet dus alleen maar dienst als NAS en downloadbak (SabNZBd). Er komt dus kaal ZFSguru op, met misschien Sickbeard in een VM. Meer niet.

Vanavond maar eens ZFSguru installeren en kijken wat daar het verbruik is.
Ik heb om diezelfde reden gekozen voor een unraid build:

Unraid 5.0 - Supermicro X9SCM-F - Intel I3 2120T - 8GB - AOC-SASLP-MV8 - Data: 7 * WD Green 2TB, 1 3TB WD RED - Cache: Samsung SSD 830 256GB - Parity: Hitachi Green 3TB - SimpleFeatures - Transmission - Airvideo

Alle onderdelen getest en prima werkend onder unraid. Mijn "continue use" (meest Torrent) draait vanaf en op een SSD, de rest van de schijven staan uit tot ik ze nodig heb (staan dus meer uit dan alleen 's nachts). In idle draait het systeem ongeveer 50 watt.

Daarmee ben je toch net zover ?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
In theorie wel, maar ik wil toch wat meer performance dan die van 1 disk.

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Mwa, 44 graden valt nog wel mee imo. De meeste schijven mogen toch wel 60 graden worden.

Die van mij worden ook 44 graden (onder load) wanneer ze in mijn 5-in-3 hotswap-module zitten. In deze module zit een 80mm-fan. Ik heb er zelf een 1800rpm Noctua in geplaatst en ik heb er expliciet voor gekozen deze fan niet op volle toeren te laten draaien, maar op 9V. Dan is hij namelijk nagenoeg onhoorbaar. En dat resulteert in 44 graden onder load. Ze draaien alle 5 al zo'n 10000 uur prima.

Overigens ter vergelijking: op 12V worden de schijven 38 graden en in de normale bays in mijn behuizing (Obsidian 550D) worden ze zo'n 30-32 graden (gekoeld door twee 120mm intake-fans).

Die 76 graden is echter wél een probleem.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Verwijderd

Even opgevraagd in m'n TS-419PII Nas.
Zitten 4 Seagate ST3000DM001 3TB schijven in.
Onder load 34 graden.
Heeft 1 stille 90mm fan achteraan, maar die wil ik binnenkort vervangen door een Noctua.

Noctua is wat mij betreft één van de beste op de markt.
Als je ze dicht op de hd's plaatst moet je'r wel pakken voor hoge luchtweerstand ;)

Tot 42graden lijkt me ok voor hd's om continu te draaien, daarboven zou ik toch de koeling eens nader bekijken :)

[ Voor 14% gewijzigd door Verwijderd op 26-08-2012 15:17 ]


  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 03-12 19:23
Verwijderd schreef op zondag 26 augustus 2012 @ 15:16:
Even opgevraagd in m'n TS-419PII Nas.
Zitten 4 Seagate ST3000DM001 3TB schijven in.
Onder load 34 graden.
Heeft 1 stille 90mm fan achteraan, maar die wil ik binnenkort vervangen door een Noctua.

Noctua is wat mij betreft één van de beste op de markt.
Als je ze dicht op de hd's plaatst moet je'r wel pakken voor hoge luchtweerstand ;)

Tot 42graden lijkt me ok voor hd's om continu te draaien, daarboven zou ik toch de koeling eens nader bekijken :)
Waarom zou je de standaard fan in de synology vervangen? Lijkt mij een beetje overbodig. Er is helemaal niets mis met de temperaturen die je aangeeft.

  • sloth
  • Registratie: Januari 2010
  • Niet online
justice strike schreef op vrijdag 15 juni 2012 @ 12:29:
Ik heb op dit moment een curieus probleem. Ik heb net een freenas doos opgezet met zfs. De cifs performance was wat aan de trage kant (rond de 60 mb/s). Nu ben ik gaan zoeken waar het probleem precies lag en kwam ik erachter dat de raidvolume voor de share nogal aan de trage kant is (rond de 70 mb/s) dus ik ben dat gaan oplossen en dat is gelukt (performance ligt nu rond de 160 mb/s). Dus nu ben ik weer een share aan het maken maar tot mijn verbazing is de performance misschien best case 10mb/s beter geworden maar echt sneller is hij niet.

Ik heb al async io aangezet, large read/write, cache omhoog geschroefd en op de windows client the jumbo frames aangezet. Dit heeft dus niet mogen baten.

Verder weet ik ook dat het geen performance issue is want als hij ondergeklokt is met 200 mhz (op een fusion dus standaard draaiend op 1600 mhz) dan is er ook geen noemenswaardige performance drop. Terwijl we het wel over 8 procent minder performance hebben.

Iemand enig idee waar dit aan ligt?
Heb je inmiddels hier al een oplossing voor gevonden?
Kan je problemen met (de driver van) je netwerkkaart uitsluiten? Niet Intel chips willen afaik niet altijd even lekker werken onder FreeBSD / Linux.

Verwijderd

brndst schreef op zondag 26 augustus 2012 @ 17:50:
[...]

Waarom zou je de standaard fan in de synology Qnap vervangen? Lijkt mij een beetje overbodig. Er is helemaal niets mis met de temperaturen die je aangeeft.
Klopt, temps zijn zeker ok.
Binnenkort is wel verkeerd uitgedrukt. Pak vanaf de garantieperiode voorbij is.
Ding moet ervoor open en dan verbreek je het zegeltje.
Ah, ik heb gewoon een voorkeur voor Noctua, maar mss overdrijf ik er soms wel wat in :+ 8)7

  • sloth
  • Registratie: Januari 2010
  • Niet online
sloth schreef op zaterdag 11 augustus 2012 @ 11:02:
Er zijn aardig wat tweakers die hun NAS uit laten, en 1x per week ofzo al hun files synchroniseren.
Wat ik me afvraag bij deze aanpak is hoe jullie een overzicht bewaren met welke mappen en bestanden je op je offline nas staan hebt?

Je zou natuurlijk een scriptje kunnen schrijven wat "ls -l" loopt doorheen al je mappen en vervolgens naar een logbestand wegschrijjft, maar er moeten vast toch handigere manieren hiervoor bestaan?
Wat me erg handig lijkt is bv. een 1:1 kopie te hebben waarvan alle bestanden 0 byte groot zijn, zodat je precies weet wat de inhoud van je offline storage is.

Wat is jullie oplossing hiervoor?
Om hier een laatste keer op terug te komen met een oplossing die ook in niet-windows omgevingen werkt:

Met dank aan CiPHER's tip en deze guide is het gelukt.

Dit doet precies wat ik hebben wil:

code:
1
rsync -av -f"+ */" -f"- *" /path/to/src /path/to/dest/


Mogelijk ook interessant voor anderen, vandaar dat ik het even deel :)

  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 03-12 19:23
Verwijderd schreef op zondag 26 augustus 2012 @ 18:33:
[...]


Klopt, temps zijn zeker ok.
Binnenkort is wel verkeerd uitgedrukt. Pak vanaf de garantieperiode voorbij is.
Ding moet ervoor open en dan verbreek je het zegeltje.
Ah, ik heb gewoon een voorkeur voor Noctua, maar mss overdrijf ik er soms wel wat in :+ 8)7
Ja ik bedacht me net ook dat dat typenummer van een Qnap was en niet een Synology. :)
Maar wanneer de garantie periode voorbij is zou je dan inderdaad het fannetje kunnen vervangen.

  • VorCha
  • Registratie: November 2004
  • Laatst online: 05-10 21:36
Ik heb het volgende 'scriptje' voor een sync van de NAS naar een andere disk

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
LOCKFILE=/var/run/rsynscript.pid
if [ -e ${LOCKFILE} ] && kill -0 'cat ${LOCKFILE}'; then
echo "already running"
exit
fi

trap "rm -f ${LOCKFILE}; exit" INT TERM EXIT
echo $$ > ${LOCKFILE}

echo `date '+%F %R'` >> /var/log/rsyncscript.log
rsync avhe ssh --delete root@x.x.x.x:/pad/naar/data/ /pad/naar/disk >> /var/log/rsyncscript.log

rm -f ${LOCKFILE}


Het script loopt iedere 4 uur, het eerste gedeelte is om te checken of er niet al een rsync loopt. Zo ja dan blijft die actief. Ik log elke run met de vermelding van tijd en datum en vervolgens de uitkomst. De logfile wordt vervolgens met logrotate iedere dag gemailt naar mij en gearchiveerd en 7 dagen bewaard.

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
De temperatuur van mijn schijven blijft nu (onder de lichte load die het gebruik hier oplevert) rond de 40-41 C. Vandaag heb ik gemerkt dat de spindown functie ook werkt (de schijven zijn 35 C) en ben ik tevreden met het servertje. De overgang van whs 2011 naar freenas is dus ook een permanent (gemaakt ivm zfs).

- raid does not fix stupid -


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Ik heb een probleem met de spinup van disks aangesloten op mijn IBM M1015 kaart (IT Firmware).
Mijn MB is een Asus E45M1-M PRO, disks zijn WD30EFRX 3TB Reds, en ik draai Ubuntu 12.04.

Ik heb disks aangeloten op het moederboard, op een goedkoop 2 poorts SATA softraid kaartje en op de M1015.
Ik kan alle disks met hdparm -y in spindown brengen, maar als ik een disk die aangesloten is op de M1015 kaart wil upspinnen dan weigert hij met een fout in de kernel log. De disks aangeloten op het moederbord of het andere kaartje spinnen wel op.

sdb zit op het MB
sde zit op de IBM M1015 met IT firmware
sdg op de 2 poorts SATA softraid expander

disk sda op het moederbord, en sdg op de 2 poorts expander - werkt
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
root@server:~# hdparm -C /dev/sdb
/dev/sdb:
 drive state is:  active/idle
root@server:~# hdparm -y /dev/sdb
/dev/sdb:
 issuing standby command
root@server:~# hdparm -C /dev/sdb
/dev/sdb:
 drive state is:  standby
root@server:~# dd bs=4k count=1k if=/dev/sdb of=/dev/null
1024+0 records in
1024+0 records out
4194304 bytes (4.2 MB) copied, 6.55662 s, 640 kB/s

root@server:~# hdparm -y /dev/sdg
/dev/sdg:
 issuing standby command
root@server:~# hdparm -C /dev/sdg
/dev/sdg:
 drive state is:  standby
root@server:~# dd bs=4k count=1k if=/dev/sdg of=/dev/null
1024+0 records in
1024+0 records out
4194304 bytes (4.2 MB) copied, 6.4271 s, 653 kB/s


disk sde op de IBM M1015 - komt niet uit standby
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
root@server:~# hdparm -C /dev/sde
/dev/sde:
 drive state is:  active/idle
root@server:~# hdparm -y /dev/sde
/dev/sde:
 issuing standby command
root@server:~# hdparm -C /dev/sde
/dev/sde:
 drive state is:  standby
root@server:~# dd bs=4k count=1k if=/dev/sde of=/dev/null
dd: reading `/dev/sde': Input/output error
0+0 records in
0+0 records out
0 bytes (0 B) copied, 0.0234596 s, 0.0 kB/s
root@server:~# hdparm -t /dev/sde
/dev/sde:
 Timing buffered disk reads: read() failed: Input/output error

Input/output error.. en de disk wil niet opspinnen :-(

dmesg log
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
..
[ 5167.410412] Buffer I/O error on device sde, logical block 0
[ 5167.411013] Buffer I/O error on device sde, logical block 1
[ 5167.411013] Buffer I/O error on device sde, logical block 2
[ 5167.411013] Buffer I/O error on device sde, logical block 3
[ 5167.413900] Buffer I/O error on device sde, logical block 4
[ 5167.426333] Buffer I/O error on device sde, logical block 5
[ 5167.429437] Buffer I/O error on device sde, logical block 6
[ 5167.432473] Buffer I/O error on device sde, logical block 7
[ 5167.435421] Buffer I/O error on device sde, logical block 8
[ 5167.438312] Buffer I/O error on device sde, logical block 9
[ 5167.441360] sd 6:0:0:0: [sde] Device not ready
[ 5167.441367] sd 6:0:0:0: [sde]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[ 5167.441378] sd 6:0:0:0: [sde]  Sense Key : Not Ready [current]
[ 5167.441389] sd 6:0:0:0: [sde]  Add. Sense: Logical unit not ready, initializing command required
[ 5167.441401] sd 6:0:0:0: [sde] CDB: Read(10): 28 00 00 00 00 00 00 00 08 00
[ 5167.441424] end_request: I/O error, dev sde, sector 0


hdparm -z (reread disk's partition table) krijgt de disk wel weer omhoog, maar dit doet de kernel uiteraard niet zelf als hij data wil lezen, en is dus geen oplossing.
code:
1
2
3
4
5
6
7
..
[ 5760.811767] end_request: I/O error, dev sde, sector 0
[ 5770.170448] sd 6:0:1:0: [sde] Spinning up disk..........ready
[ 5777.205695]  sde: unknown partition table
root@server:~# hdparm -t /dev/sdf
/dev/sdf:
 Timing buffered disk reads: 464 MB in  3.01 seconds = 154.21 MB/sec


Help?

Verwijderd

Kijk even in de BIOS van je IBM M1015 en zet daar de timeouts eens wat hoger. Dat kan ik althans instellen op mijn LSI 1068E. Je zit nu ook op Linux in plaats van BSD, dus het kan zijn dat Linux anders werkt. Zou je voor de gein eens BSD kunnen proberen om een OS-probleem uit te sluiten?

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Umm.. hoe kijk ik in de BIOS van een IBM M1015 met IT? Volgens heeft IT geen BIOS UI meer omdat dat geen nut heeft. Ik zie in ieder geval geen melding op het scherm bij het booten.

Voor BSD - Kan ik je ZFSGuru live hiervoor CD gebruiken, en hoe test ik het daar? Is er een shell met hdparm?

Verwijderd

IT mode heeft wel een BIOS anders zou hij niet bootable zijn. Maar het kan zijn dat de IBM M1015 anders is op dit gebied als mijn LSI controller. Zo kan ik nog steeds Control-C drukken tijdens het initialiseren in IT mode.

ZFSguru livecd is prima ja. via de web-interface (Disks->Advanced) in sleep laten brengen, of handmatig via camcontrol standby. Dan een dd-read doen.

dd if=/dev/da2 of=/dev/null bs=4k count=1

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Ja en nee, je hebt niet persé een GUI nodig om bootable te zijn. Volgens mij levert de controller in IT mode gewoon alle devices als boot devices aan je reguliere BIOS. Je gewone BIOS beslist daarna dus de bootvolgorde.

Even niets...


Verwijderd

Om bootable te zijn moet de controller Interrupt 19 aanspreken om zichzelf te 'registreren' bij het BIOS. Een 'setup utility' in de zin van 'GUI' is inderdaad wellicht niet nodig, maar wel voor de hand liggend. Zo kun je ook in IT mode behoorlijk wat dingen instellen op de LSI 1068E.

Als je tijdens de POST op 'delete' drukt om in het systeem BIOS te komen, dan zullen eerst de BIOS detectie en alle add-on controllers geïnitialiseerd worden. Dat is nodig omdat anders het BIOS de boot sequence niet goed kan weergeven omdat die lijst nog incompleet is. Dus je zou altijd wat moeten zien van je controller, anders verlies je boot support. Althans dat zegt mijn logica.

Als met ZFSguru hetzelfde gebeurt, zou ik toch kijken of je in het BIOS / setup utility van je controller kunt komen.

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Natuurlijk zit er wel iets van software op de kaart, maar ik zie niets bij het booten, en ctrl-C spammen doet ook niets. Maar mijn E45 bordje heeft een UEFI BIOS en daar is het misschien anders.
Wat me wel op valt is dat de raid-setup/BIOS van het 2-poorts kaartje zich meld voor het E45 systeem BIOS scherm, en niet daarna zoals je gewend bent op de oudere non-UEFI biossen.
Wat me verder opvalt is dat in het systeem BIOS de disks aan de M1015 controller (nog) niet gedetecteerd worden. Ik kan dus ook niet booten van de M1015 IT.

Misschien moet ik hem flashen in IR mode om een interface te krijgen?

Ik ga het met ZFSGuru proberen.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Aha, je hebt gewoon het BIOS leeg geflasht! Dat kan prima, dan start de kaart ook gewoon, maar werkt hij pas met een driver. Ik denk dat je even het BIOS opnieuw moet flashen (en dus niet de ROM, dat zijn 2 verschillende componenten).

Even niets...


Verwijderd

Ik kan dus ook niet booten van de M1015 IT.
Dan is waarschijnlijk je LSI/IBM controller gewoon niet geïnitialiseerd. Interrupt 19 capture werkt dan niet, daarom zie je de utility niet voorbij komen met een toetscombinatie. Dat betekent dan ook dat alle disks op je LSI/IBM controller niet zichtbaar zijn in de systeem BIOS 'boot sequence'; je controller is dan dus niet bootable.

Je zegt dat je wel zo'n scherm krijgt voor het addon Silicon Image kaartje. Wat nu als je deze uit het systeem haalt, zie je dan opeens wél de LSI/IBM BIOS setup voorbij komen? Zo ja, dan gaat er iets mis met twee controllers; dit heb ik zelf vaker gehad. O.a. tussen de combinatie Areca en Silicon Image. Maar het kan prima zijn dat Silicon Image de schuldige is; die heeft wel vaker BIOS issues veroorzaakt in het verleden.

En zie de tip van FireDrunk hierboven; opnieuw flashen kan inderdaad ook een aanrader zijn.

[ Voor 5% gewijzigd door Verwijderd op 27-08-2012 16:18 ]


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Je zegt dat je wel zo'n scherm krijgt voor het addon Silicon Image kaartje. Wat nu als je deze uit het systeem haalt, zie je dan opeens wél de LSI/IBM BIOS setup voorbij komen? Zo ja, dan gaat er iets mis met twee controllers; dit heb ik zelf vaker gehad. O.a. tussen de combinatie Areca en Silicon Image. Maar het kan prima zijn dat Silicon Image de schuldige is; die heeft wel vaker BIOS issues veroorzaakt in het verleden.
Had gekunt, alhoewel ik dat kaartje er pas in heb gezet nadat ik het spinup probleem tegenkwam, om te kijken of een andere controller het wel doet.
Ik kan me ook herinneren dat de IBM wel een BIOS melding gaf voordat ik hem naar IT flashte, maar ik geloof niet dat ik toen in de setup kon komen (reageerde niet).
Any way, ik heb dat kaartje er nu uit gehaald, maar dat maakt geen verschil.
FireDrunk schreef op maandag 27 augustus 2012 @ 16:17:
Aha, je hebt gewoon het BIOS leeg geflasht! Dat kan prima, dan start de kaart ook gewoon, maar werkt hij pas met een driver. Ik denk dat je even het BIOS opnieuw moet flashen (en dus niet de ROM, dat zijn 2 verschillende componenten).
.. en die driver zit dan al in linux waardoor die daar wel werkt.
Ik heb Convert LSI9240(IBM M1015) to a LSI9211-IT mode gevolgd om de kaart te flashen. Er is me toen geen verschil dussen ROM of BIOS flashen opgevallen. Iets over het hoofd gezien?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Je kan een lang of een kort commando geven. Ik ken ze niet uit mijn hoofd maar het is iets van:

sasflash2 -o IT2008.bin -b mptsas.rom

en dat laatste is dus je BIOS. Als je dus alleen:

sasflash2 -o IT2008.bin

hebt gedaan, heb je geen BIOS.

Even niets...


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
Durandal schreef op maandag 27 augustus 2012 @ 16:37:
[...]Er is me toen geen verschil dussen ROM of BIOS flashen opgevallen. Iets over het hoofd gezien?
heb je nog dezelfde PC? Kan best zijn dat je kaart niet herkent wordt door je huidige moederbord. De IBM / LSI kaart staat daar volgens mij om bekend en in de PC waarop ik nu typ werkt 'ie ook niet terwijl die op de oude PC wel werkte.

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
FireDrunk schreef op maandag 27 augustus 2012 @ 16:42:
Je kan een lang of een kort commando geven. Ik ken ze niet uit mijn hoofd maar het is iets van:

sasflash2 -o IT2008.bin -b mptsas.rom

en dat laatste is dus je BIOS. Als je dus alleen:

sasflash2 -o IT2008.bin

hebt gedaan, heb je geen BIOS.
Je had helemaal gelijk. Ik had de korte versie gedaan want dat was sneller als je toch niet wilde booten volgens de flash beschrijving. Wist ik veel dat er timings waren waar je dan niet bij kon..
sasflsh -list gaf ook aan dat er geen BIOS (de UI dus) op de kaart zat. Effe er bij flashen met sas2flsh -b mptsas2.rom en hij zat er op. Daarna de Force Bios optie in de Boot pagina van het E45 moederbord BIOS zetten en hij werd zichtbaar.

Maar.. helaas.
Ik heb alle IO Timeouts eerst op 30(sec) en dan op 0 (geen timeout) gezet. De Report Device Missing Delay en de IO Device Missing Delay op 20 sec. De Boot Support op Bios, OS en beide gezet, maar niets hielp.
Nog steeds een Device not ready IO Error op de disk als hij moet opspinnen, na een seconde of 4.

Nog andere ideeen? Zijn er mensen waarbij de spinup het wel doet met de M1015 / LSI9211-8i ?

Ik ga ondertussen kijken of het onder BSD wel gaat met de ZFSGuru live CD.

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Nog geen geluk met spin-up aan de LSI9211/IBM M1015.
Ik heb ondertussen de nieuwste firmware en bios rom van de LSI website geflasht (9211-8i), maar geen geluk.

Wel twee interessante links gevonden. De eerste heeft wat er uit ziet als hetzelfde probleem
http://www.digipedia.pl/usenet/thread/19071/38893/
en de tweede mogelijk een patch.
http://ftp.dei.uc.pt/pub/...r-all-sbp-2-devices.patch
Durandal schreef op dinsdag 28 augustus 2012 @ 00:00:
Ik ga ondertussen kijken of het onder BSD wel gaat met de ZFSGuru live CD.
Live CD opgestart (beta 0.20) en naar Disks | Advanced gegaan.
De da disks gaan in spindown met de knop. Ze komen ook weer op met dd in de shell.

De ada disks (SCSI interface/LSI 9211) hebben iets anders raars. Als ik op de spindown knop druk
dan hoor ik ze af slaan maar in de gerefreshte web pagina staan ze nog steeds op ready. (?)

Als ik het in de shell met camcontrol standbye /dev/da2 probeer dan geeft hij de melding:
code:
1
2
(pass2:mps0:0:7:0): STANDBYE_IMMEDIATE. ACB: e0 00 00 00 00 40 00 00 00 00 00 00
(pass2:mps0:0:7:0): CAM status: Function Not Available

Ik hoor ze dan ook niet af slaan en wederom zijn ze in de web interface 'ready'.

Ik zie ook niet zo snel iets in de kern/system logs (search box?).

Ideeen? Is er iets anders dat ik kan testen?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Vreemd... Function not available kan ofwel van de controller komen, ofwel van de disk. Daar is lastig achter te komen. Misschien een ticket bij LSI inleggen? Hebben vrij goede support is mijn ervaring.

(je kan nog debuglevel verhogen, en kijken of je iets kan vinden, maar dat is niet super makkelijk)

Even niets...


  • analog_
  • Registratie: Januari 2004
  • Niet online
Kan een IBM M1015 geflasht als LSI9211-IT in een PCI-e 2.0 1x slot draaien want ik dacht dat het eigenlijk een 4x kaart was. Als dat is zijn er interessante opstellingen met een MSI E350DM-E33 mogelijk hiermee (low power high density sas/sata ports).

Onboard proc in non-m-itx formaat t.net/pw.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Fysiek is het een x8 kaart... Maar dat maakt voor werking niet uit. Werkt in alle sloten zolang hij maar past.

Even niets...


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
FireDrunk schreef op dinsdag 28 augustus 2012 @ 17:38:
Vreemd... Function not available kan ofwel van de controller komen, ofwel van de disk. Daar is lastig achter te komen. Misschien een ticket bij LSI inleggen? Hebben vrij goede support is mijn ervaring.

(je kan nog debuglevel verhogen, en kijken of je iets kan vinden, maar dat is niet super makkelijk)
Maar het is toch gek dat de disks in linux niet willen opspinnen en onder BSD niet eens willen downspinnen...

Wat moet ik tegen LSI zeggen? a) Ik heb een IBM M1015, b) ik heb een LSI 9240, c) Ik heb een LSI 9211-IT, d) ik heb een beetje zitten crossflashen. Helpt u mij? :D
Maar het is wel een idee.

Als er andere mensen met een WD disk en IBM M1015 / LSI 9211 conroller zijn die wel spinup vanuit sleep/standby werkend hebben hoor ik het graag. PM is ook goed.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Volgens mij gaan mijn disks gewoon uit op mijn M1015 hoor (Ubuntu).

Even niets...


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Wat bedoel je, naar standby? Bij mij ook. Maar gaan ze ook weer aan?
Welke versie van Ubuntu, wat voor disks en heb je je M1015 gecrossflashed?

  • Scooper
  • Registratie: Juni 2001
  • Laatst online: 15-12 22:45
FireDrunk schreef op woensdag 22 augustus 2012 @ 18:37:
[..]
Mijn nieuwe NAS project begint vorm te krijgen. Ik heb nu een DQ77MK bord met daarop een i5-3550 met wat geheugen wat ik nog had liggen.
Dit doet samen met een Be Quiet L7 een leuke 19W idle onder Windows 7 met drivers geinstalleerd.
[..]
FireDrunk schreef op vrijdag 24 augustus 2012 @ 09:42:
Gister NAS bijna helemaal in elkaar geschroefd. Complete specs zijn nu:

Intel DQ77MK
4 * 4GB 1333Mhz geheugen.
i5-3550 CPU
Intel Postville G2 80GB (als bootpool)
4 * 2TB in RAIDZ (als datapool)
Intel 10Gb AF DA NIC.
BeQueit L7 300W voeding.

Met de ZFSGuru 9.1-002 beta6 image is het idle verbruik 63W met de disks aan. En dan heb ik nog geen enkele vorm van optimalisatie toegepast.

Nadeel wat ik nu al gezien heb, is dat bij start de machine op 125-130W piekt. Dat klinkt niet als goed nieuws voor mijn PicoPSU...
Hmmm, waar ligt dit hoge verbruik ineens aan? Verbruikt de SSD + 4 disks + NIC het verschil van 63 en 19 watt? Of zou de optimalisatie die je noemt nog een aanzienlijk verschil moeten maken, en hoe zien die optimalisaties eruit onder FreeBSD?

Vanuit je eerste meting van 19W zou je eerder denken aan: 19 + 1 (SSD) + 4x4? (HD's) + 5? (NIC) = 41 watt

SRK35ZS-W


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Durandal schreef op woensdag 29 augustus 2012 @ 02:14:
Wat bedoel je, naar standby? Bij mij ook. Maar gaan ze ook weer aan?
Welke versie van Ubuntu, wat voor disks en heb je je M1015 gecrossflashed?
Mijn disks gaan gewoon aan en uit volgens mij, ik zal het nog eens testen voor de zekerheid (aan het lawaai hoor je het niet...). Ik heb 4 WD 20EARS en 4 Samsung F4EG in een RAID6 MD array.
Ubuntu 12.04 LTS en ja, mijn M1015 is gecrossflashed naar 9211 IT-mode.
Scooper schreef op woensdag 29 augustus 2012 @ 09:06:
[...]

Hmmm, waar ligt dit hoge verbruik ineens aan? Verbruikt de SSD + 4 disks + NIC het verschil van 63 en 19 watt? Of zou de optimalisatie die je noemt nog een aanzienlijk verschil moeten maken, en hoe zien die optimalisaties eruit onder FreeBSD?

Vanuit je eerste meting van 19W zou je eerder denken aan: 19 + 1 (SSD) + 4x4? (HD's) + 5? (NIC) = 41 watt
FreeBSD (ZFSguru) <-> Windows 7, en de 10Gb kaart verbruikt denk ik wel iets meer (eerder 10-15W).

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Een grote klap is inderdaad FreeBSD. Hoewel FreeBSD 9 een stuk zuiniger zou zijn valt dat toch nog altijd erg tegen. Bij mijn testjes zat ik met FreeBSD 9 al 5W boven een Ubuntu livecd. Ga je met Windows werken (en alleen al de drivers installeren) dan loopt dit verschil alleen maar op, terwijl ik bij FreeBSD niet echt een idee heb waar ik echt wat kan aanpassen. (Dat laatste is FreeBSD uiteraard niet aan te rekenen. :P)

De CSL/OT kroeg !


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
En de disks verbruiken 5.5W lees ik net. Dus die zijn ook niet heel zuinig.

Even niets...


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
FireDrunk schreef op woensdag 29 augustus 2012 @ 09:24:
[...]Mijn disks gaan gewoon aan en uit volgens mij, ik zal het nog eens testen voor de zekerheid (aan het lawaai hoor je het niet...). Ik heb 4 WD 20EARS en 4 Samsung F4EG in een RAID6 MD array.
Ubuntu 12.04 LTS en ja, mijn M1015 is gecrossflashed naar 9211 IT-mode.
Ik ben benieuwd.

Ik heb inmiddels deze discussie gevonden en volgens de kernel devs is het spinup probleem inderdaad geintroduceerd na een patch in kernel versie 3.1.10 (dus ook Ubuntu 12.04) in combinatie met mpt2sas kaarten (9211).

De patch die het probleem zou moeten verhelpen.
Wordt meegenomen in de volgende kernel 3.6.

[ Voor 13% gewijzigd door Durandal op 29-08-2012 14:43 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Aha dat zou best kunnen, ik heb mijn spindown getest met 11.10 en niet met 12.04. Ik heb een aantal weken geleden geupgrade, en daarna inderdaad niet gekeken of spindown nog werkt.

Dat zou dus best niet meer kunnen werken.

Even niets...


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
FireDrunk schreef op woensdag 29 augustus 2012 @ 14:50:
Aha dat zou best kunnen, ik heb mijn spindown getest met 11.10 en niet met 12.04. Ik heb een aantal weken geleden geupgrade, en daarna inderdaad niet gekeken of spindown nog werkt.

Dat zou dus best niet meer kunnen werken.
Ja maar het probleem is dat spinup na de spindown niet meer werkt. Spindown zelf nog wel. Als je spinup niet meer werkt en ze zijn in spindown zou je md raid ook niet meer werken.
Aan de andere kant heb je WD Green schijven met het bekende idle/spindown probleem/feature. De Reds hebben dat niet dus ik weet niet in hoe verre je disks hier last van hebben.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Ik heb mijn spindown even opnieuw geconfigureerd naar 10 minuten, en ga even afwachten of alles netjes down blijft. Ik laat het weten.

root@NAS:~# ./getstatus.sh

/dev/sdb:
 drive state is:  active/idle

/dev/sdc:
 drive state is:  active/idle

/dev/sdd:
 drive state is:  active/idle

/dev/sde:
 drive state is:  active/idle

/dev/sdf:
 drive state is:  active/idle

/dev/sdg:
 drive state is:  active/idle

/dev/sdh:
 drive state is:  active/idle

/dev/sdi:
 drive state is:  active/idle
root@NAS:~# ./getstatus.sh

/dev/sdb:
 drive state is:  standby

/dev/sdc:
 drive state is:  standby

/dev/sdd:
 drive state is:  standby

/dev/sde:
 drive state is:  standby

/dev/sdf:
 drive state is:  standby

/dev/sdg:
 drive state is:  standby

/dev/sdh:
 drive state is:  standby

/dev/sdi:
 drive state is:  standby


So far so good...

root@NAS:/mnt/data# dd if=/dev/sdb of=/dev/null bs=1M count=1024
dd: reading `/dev/sdb': Input/output error
0+0 records in
0+0 records out
0 bytes (0 B) copied, 0.00220249 s, 0.0 kB/s
root@NAS:/mnt/data#

uh-oh... Stuk dus ;)


/dev/sdb:
 drive state is:  active/idle

/dev/sdc:
 drive state is:  active/idle

/dev/sdd:
 drive state is:  active/idle

/dev/sde:
 drive state is:  active/idle

/dev/sdf:
 drive state is:  active/idle

/dev/sdg:
 drive state is:  active/idle

/dev/sdh:
 drive state is:  active/idle

/dev/sdi:
 drive state is:  active/idle

Na een reboot is alles weer ok.

[ Voor 93% gewijzigd door FireDrunk op 29-08-2012 18:15 ]

Even niets...


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Ik moet even terug gaan zoeken maar ik had hetzelfde. De disks vielen allemaal uit de mdadm array na spindown config. Ik weet enkel niet meer of het Ubuntu was of nog/terug Arch linux.

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Het heeft met de kernel te maken. 3.1.10 en hoger met M1015/9211 gaat fout.
Rebooten helpt maar is natuurlijk geen oplossing; ze moeten het zelf doen.
Handig voor de test: hdparm -z of sg_start schopt ze ook weer aan.

Edit: net Ubuntu 9.10 getest, en daar werkt het nog wel.

[ Voor 11% gewijzigd door Durandal op 29-08-2012 21:43 ]


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
FireDrunk, heb jij Power-up in Standby aan staan (voor staggered spinup) op je disks die aan de M1015 hangen?
Bij mij ziet de M1015 geen disks die die de Power-up in Standby flag hebben aan staan. Vreemd, want in zijn Bios heb je wel opties om de spinup delay in te stellen.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Nee niet aan staan.

Even niets...


  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
Weet iemand of het maken van snapshots ook bij onveranderde data (dus lege snapshots) harde schijven uit spindown haalt?

Heb mijn schijven nu op spindown na 2 uur, maar kan via de smart data zien dat de afgelopen 130 uur er 250 load cycle counts zijn bijgekomen. Er van uit gaande dat ze een aantal uur per dag zo ie zo aan blijven omdat ze binnen 2 uur weer aangesproken worden denk ik dat de snapshots verantwoordelijk zijn voor het uit de slaap halen van de disks.

Om het aantal load cycle counts niet te hard te laten oplopen zal ik dus de frequentie van de snapshots omlaag moeten schroeven en/of ze 's nachts tussen 01:00 - 08:00 moeten uitschakelen (heb ze nu elke 15 minuten 24/7 - ik werk nogal graag op rare tijden en vind het een prettig idee dat je altijd oude versies kan restoren).

Ja, ik heb in deze post mijn eigen vraag beantwoord - maar misschien is het voor andere ook interessant om te weten (als je het met je boeren verstand nog niet uitgevogeld had 8)7 ).

Edit: het mooiste zou natuurlijk zijn als je kon instellen dat als de schijven niet actief zijn (ge-downspinned zeg maar) de snapshots geweigerd worden. Weet iemand hier toevallig wat voor?

[ Voor 8% gewijzigd door Patatjemet op 30-08-2012 00:56 ]

- raid does not fix stupid -


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
15 miniten is ook wel heel extreem...

Even niets...


  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-12 16:38
True. Vind het gewoon een prettig idee en als je met een verslag ofzo bezig bent kun je in 15 minuten van top naar flop gaan (experience speaking..).

Edit: @ hieronder: dat zit er zo ie zo ingebakken >:) (ctrl + s na elke zin - neuroot ik weet het).

Mijn vraag is dus ook: zorgt snapshot er bij geen veranderde data alsnog voor dat de hdd's worden opgespind?

[ Voor 42% gewijzigd door Patatjemet op 30-08-2012 01:02 ]

- raid does not fix stupid -


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Dat werkt alleen als je in die 15 minuten een keer op save hebt gedrukt..

  • kdbruin
  • Registratie: Augustus 2003
  • Laatst online: 12-10 17:40
Moet nu toch echt werk gaan maken van een nieuwe server. Gisteren is een disk gecrashed (helaas geen RAID oid, maar geen belangrijke data).

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
En wat wil je dat wij met die opmerking doen :+ Een nieuwe voor je uitzoeken? :)

Even niets...


  • pipo de C
  • Registratie: November 2004
  • Laatst online: 14-12 16:41
Geen apart topic waardig maar wel even een vraagje over Areca kaarten. Als ik bijvoorbeeld naar de Areca ARC-1882I 8port 6G SAS RAID PCIe x8 Card kijk staat er in de specs bij dat je met SAS expanders tot 128 disks kan aansluiten.

Nu zou ik uiteraard voor SATA schijven kiezen wat ook geen probleem is voor deze controller - en zou het zomaar kunnen dat ik over de limiet heen ga van de aansluitmogelijkheden op de kaart, in dit geval 8 schijven (aangesloten middels de *bekende* 3-ware mutilane breakout kabels).

Mocht ik meer dan 8 schijven willen aansluiten, zit ik dan vast aan een SAS expander of zou ik ook een port multiplier kunnen gebruiken aangezien ik toch SATA gebruik? Bijvoorbeeld de Addonics AD5SAPM 5X1 Internal SATA Port Multiplier? (Ik weet dat er ook x12, x16 en x24 controllers bestaan - het gaat om het principe)

Ik snap dat *als* dit werkt het een performance penalty zal hebben aangezien je nu meer schijven aansluiten op een zelfde hoeveelheid bandbreedte maar voor thuis is dat minder relevant. Het gaat erom of dit uberhaupt gaat werken of ik aan een duurdere kaart vast zit mocht ik mogelijk willen uitbouwen.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Of je Areca Port Multipliers leuk vind durf ik niet te zeggen, maar waarom zou je het willen?
Wil je persé uitbreiden op dezelfde kaart? Areca ondersteunt toch spanning array's?

Met andere woorden, je kan toch gewoon een tweede controller kopen?

[ Voor 16% gewijzigd door FireDrunk op 30-08-2012 11:56 ]

Even niets...


  • pipo de C
  • Registratie: November 2004
  • Laatst online: 14-12 16:41
Een port multiplier kost <100EUR. Een 2e RAID kaart kost >500EUR. Voor de performance is het niet nodig. Vraag me af of dit gaat werken en kan niks voor de hand liggende verzinnen waarom het niet zou werken.

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
pipo de C schreef op donderdag 30 augustus 2012 @ 11:59:
Een port multiplier kost <100EUR. Een 2e RAID kaart kost >500EUR. Voor de performance is het niet nodig. Vraag me af of dit gaat werken en kan niks voor de hand liggende verzinnen waarom het niet zou werken.
Deze populaire HBA is anders voor 120, en op ebay gaan ze ook wel eens voor de helft. 500 vindt ik een beeetje aan de dure kant.
Wil je per se die areca kaart?

Als je een port multiplier kaart wilt aansluiten moet de controller dat ondersteunen. Kan je misschien bij de specs vinden.

[ Voor 15% gewijzigd door Durandal op 30-08-2012 12:42 ]


  • kdbruin
  • Registratie: Augustus 2003
  • Laatst online: 12-10 17:40
FireDrunk schreef op donderdag 30 augustus 2012 @ 09:24:
En wat wil je dat wij met die opmerking doen :+ Een nieuwe voor je uitzoeken? :)
Dat zou leuk zijn :) Maar suggesties op het onderstaande worden ook op prijs gesteld.

Ik heb nog wat nagezocht in dit topic maar kan niet goed vinden wat nu eigenlijk de voorkeur heeft: Intel of AMD. Ik zie beide genoemd worden zonder echt veel problemen. Ik heb zelf het idee om met een Intel i3 2120T een systeem te bouwen (vanwege de lage TWD) maar geen echte voorkeur voor Intel of AMD. Het systeem moet wel zuinig worden.

Het systeem wordt voornamelijk gebruikt om muziek, films en TV series op te slaan en te streamen naar m'n PS3. Verder wordt het gebruikt als backup voor m'n desktop en laptop en wil ik via Crashplan een off-site backup van onder andere m'n foto's en gescande documenten gaan doen.

Het oude systeem gebruikt nog Ubuntu Linux maar ik wil met het nieuwe systeem ZFSguru gaan gebruiken. Ik heb hier via VirtualBox mee lopen stoeien en het bevalt me wel (hoewel het wel wennen is). Ik kan niet zomaar de disks uit m'n oude server overzetten want er staat nog data op die ik moet migreren.

Qua systeem heb ik het volgende in gedachte:
  • Intel Core i3 2120T
  • Asrock B75 Pro3-M (vanwege 5x SATA-300, 3x SATA-600)
  • 16GB geheugen (2x 8GB)
  • 4x WD30EZRX 3TB (RAIDZ)
  • 4x WD20EARX 2TB (RAIDZ, vanuit m'n oude systeem)
  • Intel Pro/1000 GT
  • NZXT Source 210 / Fractal Design Arc Midi
  • BeQuiet Efficient F1 350W
Een andere mogelijk (qua moederbord/processor) is:
  • Asus F1A75-M Pro (6x SATA-600)
  • AMD A6-3650
Hierbij kan ik maar 6 disks aansluiten en wil dan 6x 2TB disks eraan hangen (2x een 3-disk RAIDZ of 1x 6-disk RAIDZ2, moet ik nog even over nadenken).

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Asus F1A75-M met een AMD A6-3500 bevalt me prima als nas :) Over een tijdje stop ik er gewoon een IBM M1015 in :D

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


Verwijderd

@kdbruin

Je noemt TDP, maar dat heeft tegenwoordig vrijwel niets met zuinigheid te maken. Voor een 24/7 NAS hoef je eigenlijk alleen naar idle verbruik te kijken; voor energieverbruik is dat het enige relevante. Je kunt prima een systeem hebben wat 200W verbruikt bij intensief gebruik, maar slechts 15W in rust. Zo'n systeem zal veel zuiniger zijn dan een systeem wat minimaal 30W en maximaal 50W verbruikt. TDP helpt je dus niet
het energieverbruik terug te dringen. Wat dan wel?

1. Neem geen ASRock; dat zijn overclockers en geven niets om zuinigheid. Zuinige bordjes worden meestal door MSI en Intel gemaakt.
2. TDP voor de CPU zegt niets meer; zowel AMD als Intel bakken tegenwoordig hun chips zodat de processor zelf vrijwel geen lekstroom meer heeft wanneer het idle is. Intel doet dit nog iets beter dan AMD, maar AMD is weer zuiniger qua chipset.
3. Voeding maakt heel veel uit, met name als je onder de 20/30W wilt komen. Een ATX voeding kán redelijk zuinig zijn maar dat zijn uitzonderingen, zoals de FSP Aurum voeding. Zo'n 80-plus certificaat zegt geen drol, omdat er vanaf 20% load wordt getest. Kortom, het enige wat dat certificaat zegt is dat bij 70W DC load de efficientie >80% is en je aan het stopcontact dus 87.5W zal slurpen. Mijn stelling is dat efficiëntie op zo'n hoge load voor een zuinige NAS irrelevant is. Het gaat om de efficiëntie bij nominaal verbruik, wat tussen de 15W en 45W ligt voor de meeste nieuwe NAS, al dan niet met spindown.

Wees je bewust dat dat ASRock bordje maar 6 echte SATA poorten heeft en de overige 2 SATA/600 poorten door een ASMedia chip worden aangestuurd; die zou ik niet meerekenen als bruikbaar.

Verder heb je een PCI netwerkcontroller; ik zou de onboard PCI-express gigabit gebruiken. Ook het feit dat je 4 schijven neemt die 4K sectors zijn is niet optimaal; 3 of 5 is dan een beter getal.

Nog voldoende mogelijkheden je build te optimaliseren dus. :)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
1. Neem geen ASRock; dat zijn overclockers en geven niets om zuinigheid. Zuinige bordjes worden meestal door MSI en Intel gemaakt.
Is klets, ASRock heeft prima zuinige bordjes, lees Het Nieuwe Zuinige Server topic er maar op na.
Elk merk heeft zijn uitschieters...
Intel doet dit nog iets beter dan AMD, maar AMD is weer zuiniger qua chipset.
Hoe kom je daar bij? Q77 chipset is echt héél zuinig, en ik zie de AMD chipsets nog niet zo zuinig zijn...
(Je moet dan het verbruik van de NIC meerekenen, want in Q77 is die ingebakken...)

[ Voor 3% gewijzigd door FireDrunk op 30-08-2012 13:37 ]

Even niets...


  • kdbruin
  • Registratie: Augustus 2003
  • Laatst online: 12-10 17:40
@CiPHeR, @FireDrunk

Dank voor de input. Ik ga eerst maar even alles op een rijtje zetten en vast her en der wat disks bestellen.

Ik zal ook eens kijken in het genoemde topic.

Verwijderd

FireDrunk schreef op donderdag 30 augustus 2012 @ 13:37:
Is klets, ASRock heeft prima zuinige bordjes, lees Het Nieuwe Zuinige Server topic er maar op na.
Elk merk heeft zijn uitschieters...
Zal ik doen, maar het is een vrij constant gegeven dat ASRock in reviews boven MSI en Intel uitkomen, vaak in de hogere regionen. Dat kan te verklaren zijn door de overclock orientatie van ASRock. Door meer op overclocken te richten, is het mogelijk dat het moederbord uiteindelijk onzuiniger wordt. Denk aan veel VRM fasen en onderdelen die wel goed zijn voor overclocking maar minder goed voor lage idle power.

Maar ik zal kijken hoe ASRock het tegenwoordig doet, ben wel benieuwd. Toch zal het me zeer verbazen als er grote veranderingen zijn versus een paar jaar terug, omdat het speelveld nauwelijks is veranderd.
Hoe kom je daar bij? Q77 chipset is echt héél zuinig, en ik zie de AMD chipsets nog niet zo zuinig zijn...
(Je moet dan het verbruik van de NIC meerekenen, want in Q77 is die ingebakken...)
De CPU's van Intel verbruiken rond de 1W in idle. Dus de 10W aan het stopcontact komt ergens anders door. Het is een vrij bekend gegeven dat de chipsets van AMD qua TDP misschien redelijk overeenkomen, maar qua idle power een stuk beter presteren. Dit was met name zo in het tijdperk dat de IGP in de chipset zat (780G, 790GX). Misschien kun je je de eerste Atom herinneren waarvan de CPU 1W verbruikte maar de chipset rond de 20W? Dat zijn natuurlijk uitschieters, en tegenwoordig valt het met single-chip chipsets wel aardig mee. Maar bijvoorbeeld de volgende generatie Haswell chipsets zouden qua idle power weer een flink stuk zuiniger moeten zijn.

CPU verbruik kun je een tijd geleden zien dat AMD aardig superieur was:

Afbeeldingslocatie: http://www.hardwareinsight.com/wp-content/uploads/2009/02/chart_intel_vs_amd_idle.png

Sinds de 45nm HighK MetalGate procédé van Intel is Intel echter heer en meester. Zo is Brazos nog niet power gated; maar bulldozer en trinity wel dacht ik.

Dit plaatje is wat recenter, en laat duidelijk zien dat Intel qua CPU minder verbruikt maar het systeem (lees:chipset) weer meer.

Afbeeldingslocatie: http://www.xbitlabs.com/images/cpu/amd-fusion-intel-core-i3/power-1.png

Zoals je weet ben ik erg geïnteresseerd in idle power. Mocht je zaken zien die je kunt verbeteren of in elk geval een ander standpunt toelichting verdient, sta ik daar zeer voor open. :)

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Verwijderd schreef op donderdag 30 augustus 2012 @ 14:17:
[...]

Maar ik zal kijken hoe ASRock het tegenwoordig doet, ben wel benieuwd. Toch zal het me zeer verbazen als er grote veranderingen zijn versus een paar jaar terug, omdat het speelveld nauwelijks is veranderd.
Vroeger: Asrock Alive NF7G-hdready
Nu: Asrock B75 Pro3-M met aangepaste bios

De CSL/OT kroeg !


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 19-12 13:37
Ik denk heel eerlijk gezegd dat daar het minimale verbruik van de voeding zwaarder telt...
Maar wat je zegt klopt wel, het is lastig te achterhalen waar het verbruik wél vandaan komt...

Mux heeft plannen voor een Infrarood hitte camera zodat hij hotspots kan vinden :) (en dus verbruik gok ik...)

Wat jij zegt over ASRock klopt wel, maar gaat alleen op voor Z77 borden, want dat is het enige chipset waarmee je kan overklokken, B75, H77, en Q77 zijn allemaal even zuinig (een paar watt) en hebben maar een paar feature verschillen zoals Crossfire / SLI ondersteuning, Intel AMT, en een ingebouwde NIC.

Ik ben nog op zoek naar goede comparisons waar ze duidelijk hun best doen om zuinige meuk te testen.

Even niets...


  • sloth
  • Registratie: Januari 2010
  • Niet online
victorb schreef op donderdag 30 augustus 2012 @ 13:02:
Asus F1A75-M met een AMD A6-3500 bevalt me prima als nas :) Over een tijdje stop ik er gewoon een IBM M1015 in :D
offtopic:
Hoe zit het met je ZFS NAS build? :) Komt er nog een vervolg op YouTube: ZFS NAS Homeserver Part 1: Hardware build?
Pagina: 1 ... 107 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.