• Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op dinsdag 14 augustus 2012 @ 12:45:
ZFS OS als host kan met virtualbox/qemu of whatever om wat andere zaken te virtualiseren. Zolang ZFS maar directe controle over de disks houdt.
Dat is inderdaad ook een mooi idee, dat is ook de opzet dat ZFS waakt over je schijven vanwege de grote voordelen met betrekking tot bad sectors/corrupte sectors.

Op mijn Linux systeem doe ik niet enorm veel, het is alleen beetje omslachtig om vanuit linux te streamen omdat het dan eerst via Samba contact moet maken met de HD in Freenas.

Sab/Torrent/Couch zal daar veel minder last van hebben.
Backup kan direct via ZFS.

Edit: Bedoel FreeBSD ipv FreeNAS. Niet dat het veel uitmaakt.

[ Voor 4% gewijzigd door Dennisik op 14-08-2012 14:01 ]


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
FireDrunk schreef op dinsdag 14 augustus 2012 @ 13:22:
[...]Als de disk zelf na 3 minuten beslist dat een request niet voldaan kan worden, dan resulteert de Areca controller gewoon dezelfde foutmelding als de disk geeft neem ik aan?
de Areca controleer heeft daar twee settings voor,
quote: Areca manual
• Timeout Setting
Disk time-out is a registry setting that defines the time that RAID
controller will wait for a hard disk to respond to a command. You
can modify the retry value by entering a new value in the edit box
beside this button and then selecting the button. Normally you
should not need to modify this value. Default value is 8 seconds:
You can select between 3~8 second.

• Number of Retries
This setting determines the number of access that will be attempted
before the current command from the RAID controller
to the disk drive is aborted. You can modify the retry value by
entering a new value in the edit box beside this button and then
selecting the button. Normally you should not need to modify this
value. There are two selections, either 2 retry or 3 retry.
Ondertussen is die tijd veel ruimer dan 8s (120s) in te stellen maar het is de vraag of je dat wel wilt. Als een schijf meer dan 10s niet reageert is er meer mis dan een error recovery.
Nee hoor, dat hoeft dus helemaal niet. Als ik CiPHER mag geloven, kan een desktop disk er soms wel een aantal minuten over doen om een sector te recoveren.

Even niets...


Verwijderd

Het is onduidelijk wat die opties doen. TLER is een instelling van de hardeschijf zelf, die de controller volgens mij niet direct kan uitlezen of veranderen, wat wel met CCTL/ERC kan en wat ook expliciet ondersteund moet worden door de controller.

TLER betekent typisch dat de schijf binnen 7 seconden zal stoppen met recoveren en een I/O error terugstuurt ipv maar door te blijven recoveren. Met de klassieke Areca waren je schijven snel foetsie als ze niet reageerden. In JBOD mode, in passthrough, in RAID0 arrays; maakt niet uit. Elke leesactie van een pending sector betekent schijf kwijt. Bij een reboot kwam de schijf dan weer terug, TOTdat die bad sector weer wordt aangesproken. Zo heb je weinig aan de mogelijkheden van ZFS omdat ZFS helemaal NIETS te vertellen heeft over de disk en Areca die disk er doodleuk uitdondert.

Goed, dat was de situatie met mijn Areca ARC-1220 met oude firmware. Ik geloof best dat hardware RAID fabrikanten hun leveren willen beteren en na al die jaren eindelijk eens met een simpele fix komen. Maar toch is dat vreemd, omdat ze juist ook erg veel baat hebben gehad door met TLER de consumentenmarkt en enterprisemarkt van elkaar te scheiden. Kortom, misschien willen ze het probleem helemaal niet oplossen.

Dus wat ik onduidelijk vind:
  • wat doet die 'TLER disabled' optie? Gaat deze TLER feature uitschakelen op HDDs, gaat deze uit van schijven zonder TLER, gaat deze de timeout naar 120 seconden brengen, of wat nu precies? Dat eerste lijkt me onwaarschijnlijk.
  • Fail Disk for Any Timeout. Letterlijk genomen betekent dit dat elke schijf voor elke I/O request gedetached wordt. Want als een schijf keurig binnen 1 milliseconde de data teruggeeft, is dat nog steeds een 'timeout' van 1 milliseconden. Als je schijven gaat falen voor ELKE timeout, dan is zelfs de snelste opslagschijf te langzaam.
Waarschijnlijk wordt met deze laatste optie bedoeld dat ongeacht timeouts de schijf niet zomaar onzichtbaar wordt / gedetached wordt. Kortom, stuur een I/O error terug naar de applicatie ipv de schijf gelijk uit de RAID array trappen. No shit sherlock; komen we nu anno 2012 pas op dat idee? Wat een innovatie van die hardware RAID fabrikanten..... jarenlang de data van mensen vernietigt door slecht ontworpen techniek, maar nu toch maar eens fixen?

En wat is nou fixen, ik bedoel een RAID controller kan toch - net als ZFS al sinds begindagen doet - gewoon van een redundante schijf lezen en deze gegevens naar de applicatie sturen, en als bonus deze data ook naar de schijf die een lange timeout had schrijven; just in case. Zo hoort het gewoon, dat is als je normaal nadenkt over dit probleem. Met zo'n simpele oplossing is het hele gezeik met TLER en timeouts allemaal overboord.

Kortom, leuk dat Areca nu meer opties levert, maar in elk geval voor mij is het mosterd na de maaltijd. De hele Aziatische IT-industrie staat ook bekend om zijn tenenkrommende documentatie en spelfouten in officiële zaken als BIOS en RAID setup. In plaats van dat ze nou een Engelsman die interface en documentatie laten schrijven....

En dan nog de retries. WAAUW eindelijk zijn ze zover: als het de eerste keer niet lukt, misschien maar een 2e keer proberen ipv de schijf uit de RAID te trappen. Dat is innovatie! Nog steeds is de huidige optie ouderwets; moderne systemen zoals FreeBSD gebruiken progressive timeouts waarbij de timeout elke keer langer wordt. Areca heeft wel mooie opties als adaptive read-ahead, maar zoiets belangrijks als timeouts lijkt jarenlang gewoon verwaarloosd te zijn.

Ik ben maar oh wat blij dat ik hier vanaf ben. Begrijp me niet verkeerd: Areca is een prachtcontroller laat ik dat product zijn glans niet afnemen, maar voor wat je als consument wilt doen met consumentenschijven en veilige opslag is was? het gewoon eigenlijk ongeschikt. Een slecht geconfigureerde hardware RAID 6 array is onveiliger dan een single disk zonder bescherming, durf ik wel te stellen. Zodra je bad sectors krijgt, vliegen de schijven uit de RAID-set. Met het vele rebooten en rommelen met schijven kun je ook nog eens een situatie krijgen waarbij een rebuild data zal corrumperen.

Simpelweg, ZFS is de enige methode voor veilige dataopslag in dit tijdperk. Straks over 5 jaar zal het speelveld ruimer zijn met ZFS, Btrfs en ReFS en wellicht nog nieuwkomers. Maar voorlopig ben ik enorm blij met ZFS. Gewoon normale opslag wat gewoon WERKT, omdat er overna is gedacht. Dat laatste kan ik niet zeggen van veel technologieën.

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Dennisik schreef op dinsdag 14 augustus 2012 @ 13:50:
[...]

Dat is inderdaad ook een mooi idee, dat is ook de opzet dat ZFS waakt over je schijven vanwege de grote voordelen met betrekking tot bad sectors/corrupte sectors.

Op mijn Linux systeem doe ik niet enorm veel, het is alleen beetje omslachtig om vanuit linux te streamen omdat het dan eerst via Samba contact moet maken met de HD in Freenas.

Sab/Torrent/Couch zal daar veel minder last van hebben.
Backup kan direct via ZFS.

Edit: Bedoel FreeBSD ipv FreeNAS. Niet dat het veel uitmaakt.
Nevermind, was mijn huidige data vergeten die ik ook in mijn RAID setup wil meenemen.
Dit lukt niet met ZFS.
Gaan we gewoon met Linux 12.04 en MDADM een RAID5 setup bouwen, die langzaam wordt uitgebreid naar RAID6.

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 17-12 17:14

psy

Verwijderd schreef op dinsdag 14 augustus 2012 @ 13:03:
[...]


Ik lees tot op heden dat er toch performanceproblemen mee zijn... Het leek mij de ideale oplossing, eindelijk m'n schijven in de standby kunnen gooien en nog wat zaken op de host draaien :)
Ik haal met een storagepool met ReFS op een virtuele parity-disk (vergelijkbaar met RAID5, één extra parity op maximaal 8 disks) maximaal 55 MB/s schrijven. De storagepool bestaat uit 4 Samsung schijven van 2 TB dus ik ben aan de ene kant teleurgesteld aan de andere kant is het beter als wat het eerst bij softwarematige RAID5 was.
Mooie aan de storagepool is dat je meerdere soorten virtuele disks kan aanmaken op een en dezelfde storagepool.
Ik heb dus op die 4 Samsung schijven
- één RAID0 disk (werkmappen)
- één parity-disk (videobestanden enzo)
- één RAID1 disk (documenten, integrity check enabled)

Helaas is de fijne integritycheck feature van ReFS alleen ingeschakeld op 2-mirror of 3-mirror schijven, niet op de paritydisk. Dat vind ik echt een gemiste kans.

Plus het feit dat de parity-disks nog wat bugs kent
1. bij transfer grote hoeveelheid data knalt je disk soms eruit
2. bij videobestanden (iig MKV) komen niet alle bestanden 100% onbeschadigd aan
Nog genoeg reden om dit niet te gebruiken dus. Evenals het feit dat je maar HEEL weinig info krijgt over je pool (bij rebuild bv)
Hopelijk hebben ze in de final versie van morgen deze bugs eruit gehaald.

[ Voor 13% gewijzigd door psy op 14-08-2012 15:00 ]

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


Verwijderd

Wow okay dat zijn wel serieuze problemen... zou je hier willen posten als je hier meer over weet? Zo durf ik het niet eens te gebruiken, als ik het filesystem niet kan vertrouwen houdt het voor mij heel snel op.

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 17-12 17:14

psy

Ja ik ben er best lang mee bezig geweest want ik vind de hele opzet (voor het Windows platform) wel veelbelovend. Ik was echt flink aan het balen toen ik erachter kwam dat mijn nieuw gedownloade MKV's soms stukken mistte. Pakte ik de rars uit op het simple volume of het mirrorvolume had ik nooit een probleen. Het was dus niet bij reeds overgezette bestanden maar alleen bij "verse" bestanden. Maar komop zeg dat zijn serieuze problemen. Het is nog wel een RC versie maarja.

Nu gebruik ik "gewoon" alleen de mirror en simple volumes maar nog niet de parity. Problemen dus alleen op parity raar genoeg.

Morgen komt Windows 8 op technet hopelijk ook Windows 2012 want daar zit ReFS in.

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
Verwijderd schreef op dinsdag 14 augustus 2012 @ 14:40:
voor wat je als consument wilt doen met consumentenschijven en veilige opslag is was? het gewoon eigenlijk ongeschikt. Een slecht geconfigureerde hardware RAID 6 array is onveiliger dan een single disk zonder bescherming, durf ik wel te stellen. Zodra je bad sectors krijgt, vliegen de schijven uit de RAID-set. Met het vele rebooten en rommelen met schijven kun je ook nog eens een situatie krijgen waarbij een rebuild data zal corrumperen.
grootste deel van je post ben ik het mee eens maar dat deel wat ik hierboven quote is suggereer je onzin. Ik gebruik al jaren losse schijven en hardware raid controllers. Bij losse schijven ben ik in al die jaren regelmatig data kwijt geweest door een fout op de harde schijf. Met hardware raid ben ik nog nooit data kwijt geraakt door een fout op een harde schijf (wel door mijn eigen schuld) terwijl er wel 1x per jaar een schijf faalt.
Ik draai nu met 24 schijven in raid-6 en is nog even afwachten hoe betrouwbaar dat blijkt.
Ook ik kan het er niet mee eens zijn.

Juist bij hardware RAID is de rebuild OS onafhankelijk, en kan je rebooten wat je wil, maar de controller gaat gewoon door met rebuilden, het zal hem worst wezen welk OS er op staat.

Daardoor kun je JUIST zo vaak rebooten als je wil. Bij MDADM is dat juist veel gevaarlijker... (En ZFS rebooten tijdens het resilveren zal ook niet zo netjes zijn :+ )

Desalniettemin heeft ZFS zeker voordelen, maar ook dat is absoluut niet heilig.

Slecht geconfigureerde RAID6 sneller kapot dan Single Disk? Welke optie wil jij verkloten? TLER?
Ik durf wel te stellen dat er eerder een disk kapot gaat dan dat er 3 van je disks uit een array geflikkerd worden...

Even niets...


  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 03-12 19:23
Is het mogelijk om op de IBM ServeRAID M1015 of de Intel SASUC8I 2 verschillende arrays aan te maken?

2xSAS schijven in RAID1 (OS installatie) via een sas kabel op SAS poort 1 en de 4x2TB sata schijven via een sas/sata kabel op poort 2 van de SAS controller?

[ Voor 3% gewijzigd door Birdie_NL op 14-08-2012 16:47 ]


Verwijderd

@brndst: met software RAID / ZFS kun je alles doen. Maar zelf zie ik het nut niet zo dat je per mini-SAS kabel spiegelt. Per controller spiegelen (controller 1 heeft alle eerste disks van de mirror, controller 2 alle tweede disks) is nog wel nuttig omdat je controller stuk kan gaan en zodoende je daar nog tegen beschermd bent. Maar eigenlijk is ook dat een béétje onzin, vooral als het gaat om LSI controllers met laag stroomverbruik waar oververhitting bijvoorbeeld ook niet of nauwelijks een issue kan zijn. Dat kan wel met een hardware RAID controller met kleine ventilator; die gaan binnen no-time stuk.

@FireDrunk: het rebooten is geen probleem; niet voor Areca en zeker niet voor ZFS en waarschijnlijk ook Linux software RAID. Het rebuilden wordt regelmatig vastgelegd in de metadata hoe ver de rebuild is, een pointer dus. Die pointer wordt maar af en toe geupdate, dus na een reboot zou je een klein deel 'opnieuw' rebuilden terwijl dat misschien niet hoefde, maar dat is niet zo erg. Als het maar werkt, en dat gaat wel goed geloof ik.

Nee het probleem is gewoon bad sectors. Leuk dat 'jullie' daar niet mee te maken hebben gehad, maar ondergetekende dus wel. Ook voor een recent systeem dat ik bouwde met 6x WD EARX hebben 4 van de 6 schijven pending sectoren. Voor ZFS geen enkel probleem natuurlijk, maar bij hardware RAID had je dan nog maar 2 schijven in je RAID6 set gehad.

Je data op dat moment is niet weg, je kunt er alleen niet meer bij. Alleen is het vervelende nu dat consumenten thuis allerlei dingen gaan proberen die in zo'n situatie extreem gevaarlijk zijn. Zoals de RAID-set verwijderen en opnieuw aanmaken. Dat kán perfect goed gaan als je precies dezelfde eigenschappen gebruikt waarmee de RAID-set is aangemaakt: stripesize, disk count, disk order en offset. Maar wat nu als je een andere stripesize kiest of de volgorde van de disks wordt nu anders herkend (door nieuwe firmware, doordat je zelf kabels hebt gewisseld, misschien nog een andere reden) ? Dan gaat je RAID6 array foetsie, omdat je data door de rebuild permanent wordt vernietigt.

Nu heb ik wel schijven gekozen die bekend staan om snel pending sectoren te ontwikkelen (WD is daar een ster in). Maar andere mensen draaiden evengoed WD20EARS enzo. En dat gaat allemaal goed op je mooie Areca in RAID6, totdat....

1) een schijf een pending/onleesbare sector heeft en eruit getrapt wordt
2) je reboot en je gaat je Areca menu in, schijf weer toevoegen aan de set, weer een lange rebuild...
3) je reboot en de rebuild gaat lekker door op de achtergrond (woei!).. Windows booten werkt, wauw!
4) Maar uhoh... er duiken nog meer schijven op met pending sectoren; ai nu wordt het vervelend...

WANT.... hoe ga je nu ooit je data terugkrijgen?
  • Je hebt een rebuild gestart die niet voltooid is
  • Ik ga er vanuit dat de firmware die niet leuk vind en simpelweg stopt en je draaide Windows sessie een bluescreen krijgt
  • Je hebt inmiddels nieuwe data naar de set geschreven, maar de set was in staat van rebuild, maar mist nu nog meerdere schijven en is dus REBUILDING FAILED officiëel. Knappe firmware als je dat gaat oplossen!
  • Maar de gebruiker houdt vol en verwijdert de hele RAID set en maakt deze nieuw aan en godzijdank exact dezelfde settings worden gebruikt en dus heb je weer een hardware RAID6 array en Windows boot weer! Woei!
  • Of niet? want nu blijken sommige directories rot te zijn en kortom.. er is corruptie !
Waar komt die corruptie vandaan? Heel simpel: oude en nieuwe data vermengen zich met elkaar. Tijdens het detachen bleef je wel schrijven naar de overige schijven, terwijl de 'oude gedetachde' schijf na het maken van de nieuwe array wel data levert die in feite verouderd is. Omdat de RAID controller niet kan zien of de data of de parity goed is, en dit normaliter ook niet controleert om performanceredenen, blijft dit onopgemerkt en heb je dus één van de vele mogelijkheden voor silent corruption te pakken.

Zou de gebruiker de eerst gedetachde schijf gelijk afkoppelen na het aanmaken en deze schijf rebuilden, dan zou er geen corruptie plaatsvinden in bovenstaand voorbeeld. Maar dat is wel heel specifieke kennis die je moet beschikken om zonder kleerscheuren uit zo'n situatie te komen.

Het is wel een heel negatief beeld wat ik schets van Hardware RAID. Ik denk dat je meerdere dingen kunt zeggen, en dat dit één van de meest negatieve aspecten is van Hardware RAID. De features, support en performance zijn allemaal prima. Ook betrouwbaarheid is vele malen beter dan Windows fakeRAID. En voor Windows platforms is hardware RAID nog steeds dé keuze. Maar ik geef dus ook een keerzijde aan, die ik zelf heb ontdekt. Ik ben ook met Areca begonnen. Nu heb ik iets beters gevonden: ZFS. Niet iedereen kan of wil diezelfde stap maken, dat is het punt niet. Maar dat neemt niet weg dat mijn ervaring ook mijn mening hebt gevormd.
Ik snap je hele verhaal, maar als je de timeout keihard op "geen" zet, worden de disks er toch zelfs bij Bad Sectors niet uitgekickt :) Dat scheelt gewoon 90% van de errors. Als Areca echt zo slim is om dan de data van parity terug te reconstrueren, zijn ze een hele grote stap voorwaarts.

Dat neemt (nog steeds) niet weg dat ZFS superieur is... :)

Even niets...


Verwijderd

Maar dat is de situatie nu; maar daarom zeg ik ook: mosterd na de maaltijd. Het zal hedendaags allemaal wel beter werken, maar in 'mijn tijd' was het gewoon knudde. Met een moderne Areca - aangenomen dat die timeouts daar allemaal goed werken zoals ik hoop - zou je dus prima een redelijk veilig opslagvolume moeten kunnen bouwen. Begrijp me dus niet verkeerd dat ik alle Hardware RAID ongeschikt vind; enkel de setup die in vorige post heb geschetst, maar wel op veel mensen van toepassing was en wellicht nog steeds is.

Mijn argument dat een slecht geconfigureerde Hardware RAID6 onveiliger is dan een enkele disk moet dus gezien worden in de praktijk waarbij veel mensen data verliezen of DENKEN te verliezen zodra de controller meerdere disks uit de array gooit. De data is dan nog niet weg, maar voor grofweg 50% van de gebruikers is het dan al einde verhaal. En maar een klein deel van de gebruikers weet hoe je goed moet recoveren van met name parity RAID, en wat de risico's zijn.


Corruptie met ouderwets mirroring
Ander simpeler voorbeeld: mirroring. Klinkt eenvoudig toch, je slaat alles op op schijf 1 en dupliceert alle write requests naar schijf 2. Wat kan daar nou mis mee gaan? Nou.... zo dus:

1) je hebt data op je mirror staan, nu doet schijf 1 even vreemd hij is in elk geval uit de array.
2) je draait nu een degraded mirror op schijf 2, maar je boot wel even in windows om te kijken of alles goed is. nog even firefoxen.. etc.
3) nou toch weer schijf 1 teruggeplaatst; gebruiker heeft hem in apart systeem getest met factory tool of SMART of wat dan ook
4) bij het rebooten kun je nu twee dingen zien:

Een slechte RAID engine zal één mirror laten zien met beide disks. De disks bevatten niet dezelfde data omdat schijf2 degraded is gebruikt dus nieuwere data bevat. Al zou je RAID engine een rebuild starten, dan nog is deze typisch van de master disk naar de slave disk, dus altijd van disk 1 naar disk 2. In dit geval vernietig je de nieuwere data van disk2 met oudere data van disk1. Maar opzich geen corruptie, je verliest het tijdsverschil.

Een goede RAID engine zal twee arrays laten zien die elk degraded zijn. Dit is het gevolg van de metadata die een soort serieel nummer bijhoudt van write acties. Die cijfers komen niet overeen en dus krijg je twee arrays te zien. Van beide arrays zou je kunnen booten: schijf1 krijg je dan je originele data en schijf2 de data inclusief wat je verandert hebt toen je even in Windows bootte. Om dit te herstellen vernietig je de RAID-set waar schijf1 deel van uitmaakt, en voeg je schijf1 weer toe aan de 'nieuwe' mirror met schijf2. Dan gaat alles zoals het hoort.

Ik pak hier expliciet schijf2 omdat de meeste mirrors tenenkrommend eenvoudig zijn en alleen van master disk naar slave disk syncen. De master disk IS je disk, de slave wordt alleen maar met de master gesynct.

ZFS is natuurlijk veruit superieur omdat het gewoon WEET welke versie van de data de juiste is. Zo kun je ook een schijf met enkele bad sectors gewoon gebruiken om een rebuild af te maken. Weten welke data corrupt is en welke niet, is het begin van een veilig opslagsysteem. Dat krijgt Microsoft nu ook wel in de gaten... NTFS was ook al veel beter dan FAT32 waar Windows 98/ME-gebruikers het mee moesten doen. Opslagtechniek is een ondergesneeuwd kindje lijkt het wel. Alleen iets als ZFS is echt vernieuwend en komt met logische, simpele maar zeer effectieve manieren om opslag veiliger te maken. Checksums, redundante metadata, dynamische stripesize... allemaal vrij simpele concepten die je - bij wijze van - op het kleinste kamertje kunt verzinnen. ;)

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 16:54

Pixeltje

Woo-woohoo!

Ik ben op zoek naar vier nieuwe schijven voor in mijn zelfbouw NAS, die draait op FreeNAS (nu nog 8.04 maar binnenkort update naar 8.2 denk ik). Nu zijn kortgeleden de Western Digital Red schijven geïntroduceerd, die zogenaamd specifiek gemaakt zouden zijn voor (thuisgebruik) NAS systemen.

Mijn vraag; in hoeverre is dat ook echt waar? Het prijsverschil met een WD green EARX is ongeveer 20 euro per schijf in de 2Tb serie. Dat is niet wereldschokkend maar op 4 schijven en een cold spare toch 100 euro verschil. Zijn de Red schijven de meerprijs waard, of koop ik een normale consumentenschijf met een andere sticker erop?

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Voor een ZFS oplossing kan je alle schijven gebruiken zonder problemen. Zelf heb ik 3tb seagate's in mijn NAS :)

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM

Wat is de reden voor een cold spare?

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Bij mij lukte het niet om de intellipark feature van een recente green uit te zetten (was geen earx, maar eazx oid). De red serie heeft deze feature bij mijn weten niet en dat vind ik persoonlijk prettiger in een 24/7 setup. Daarnaast zat er toch wel TLER op, wat prettiger zou zijn voor als je een RAID controller hebt.

De CSL/OT kroeg !


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 16:54

Pixeltje

Woo-woohoo!

Ik gebruik een HBA en de poorten op het moederbord en voor zover ik begreep is TLER juist niet handig bij een ZFS setup. De cold spare is omdat ik best wat ellende heb gehad met de huidige seagate schijven (die ik overigens mag omruilen tegen ongeveer 30 euro/stuk :) ), en een defecte schijf zo snel mogelijk wil vervangen. Misschien maak ik er wel een hotspare van overigens, dat weet ik nog niet. In principe zou ik met raidz2 twee defecte schijven moeten overleven maar ik wil het er niet op aan laten komen.

[ Voor 3% gewijzigd door Pixeltje op 15-08-2012 09:46 ]

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust

Ik zou de disk gewoon in je array stoppen en de redundantie verhogen.
Ik heb liever een RAIDZ2 array dan een RAIDZ arrya met een disk op de plank...

Even niets...


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Als ik een 24 disk raidz3 zou draaien dan zou ik sowieso wel coldspare op plank willen :) ligt er ook beetje aan hoeveel disken je totaal hebt :)

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • Demo
  • Registratie: Juni 2000
  • Laatst online: 14-12 22:38

Demo

Probleemschietende Tovenaar

Dadona schreef op woensdag 15 augustus 2012 @ 09:33:
Bij mij lukte het niet om de intellipark feature van een recente green uit te zetten (was geen earx, maar eazx oid). De red serie heeft deze feature bij mijn weten niet en dat vind ik persoonlijk prettiger in een 24/7 setup. Daarnaast zat er toch wel TLER op, wat prettiger zou zijn voor als je een RAID controller hebt.
Ik heb dat een keer met hdparm gedaan, maar wat ik dacht te hebben gebruikt, werkt nu niet meer. Heb idle3-tools geïnstalleerd, daarmee lukte het ook.
Pixeltje schreef op woensdag 15 augustus 2012 @ 09:46:
Ik gebruik een HBA en de poorten op het moederbord en voor zover ik begreep is TLER juist niet handig bij een ZFS setup. De cold spare is omdat ik best wat ellende heb gehad met de huidige seagate schijven (die ik overigens mag omruilen tegen ongeveer 30 euro/stuk :) ), en een defecte schijf zo snel mogelijk wil vervangen. Misschien maak ik er wel een hotspare van overigens, dat weet ik nog niet. In principe zou ik met raidz2 twee defecte schijven moeten overleven maar ik wil het er niet op aan laten komen.
Dat is omgekeerde logica, als je nu een schijf kwijt bent, loopt je data al gevaar. Dan kan je die schijf heel snel omwisselen, maar als er tijdens de rebuild iets mis gaat, is het huilen. Met RAIDZ2 kan je op je gemak naar de plaatselijke computerboer fietsen, voor iets teveel geld een nieuwe schijf kopen, vervangen, rebuilden en mocht er dan nóg een schijf sneuvelen, dan fiets je wederom op je gemak naar de plaatselijke computerboer. (alhoewel, als er in die paar uur rebuildtijd een tweede schijf sneuvelt zou ik me toch zorgen gaan maken over de levensduur van de overige schijven :P)
victorb schreef op woensdag 15 augustus 2012 @ 10:01:
Als ik een 24 disk raidz3 zou draaien dan zou ik sowieso wel coldspare op plank willen :) ligt er ook beetje aan hoeveel disken je totaal hebt :)
Dat is een heel ander verhaal dan de 4 of 5 schijfjes van de gemiddelde thuisgebruiker. Als ik een datacenter had zou ik een hele doos met schijven en 3 reserve servers willen hebben, maar dat is hier ook niet van toepassing ;)
En dan nog zou ik er een hotspare van maken.

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 16:54

Pixeltje

Woo-woohoo!

Sorry voor de verwarring; maar ik héb nu een raidz2 opstelling. De vier schijven die ik ga kopen gaan de huidige vier vervangen (omruilen bij leverancier ivm veel defecten) maar daarbij wil ik een hotspare hebbe, zeker in het begin. Ik ben niet veel thuis dus als er iets misgaat kan het best eens een dag of twee duren voordat ik fysiek bij de NAS kan. Als het apparaat eventuele probelemen zelf kan oplossen en me daar een mailtje over stuurt is dat in mijn ogen beter dan twee dagen met een degraded array draaien, toch?

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
victorb schreef op woensdag 15 augustus 2012 @ 10:01:
Als ik een 24 disk raidz3 zou draaien dan zou ik sowieso wel coldspare op plank willen
uitgaande van een ontopic NAS ben je dan een angsthaas die ook nog eens zo dom is om geen backups te maken >:)
Jij wil backups maken van 24 disks? Das best wel een pest-pokke-t**us werk :+

Even niets...


  • redfoxert
  • Registratie: December 2000
  • Niet online
Een 24 disk RAID opstelling komt meer in de richting van een Enterprise omgeving imo, als je dan kiest daar geen backups van te maken maar meer redundantie in zet moet je dat zelf weten. Enterprise omgevingen zullen best wel backups draaien van zo'n grote hoeveelheid data maar inderdaad, voor thuis is het een beetje overkill :)

Ik vraag me ook heel erg af hoeveel data echt in een backup moet, als je thuis 24 schijven draait.

[ Voor 13% gewijzigd door redfoxert op 15-08-2012 11:56 ]

https://discord.com/invite/tweakers


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
@Firedrunk
nee, en ik k kan me voor thuisgebruik ook niet zo gauw 24 disks aan data voorstellen die je niet kwijt mag raken. Persoonlijk passen mijn reguliere back-ups binnen de 200GB (documenten, foto's en video). De rest op mijn NAS zou jammer zijn wanneer ik dat kwijt raak maar geen ramp.

@redfoxert
ik kan mij wel een 24 disk NAS voor thuisgebruik voorstellen ;)

[ Voor 14% gewijzigd door BartNL op 15-08-2012 11:55 ]

Gheghe, ik ook :)

* FireDrunk heeft 8 *2TB + 4 * 2TB en maakt geen backups.

Belangrijke data zit in mijn gmail... rest is vervangbaar...

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op woensdag 15 augustus 2012 @ 11:57:
Gheghe, ik ook :)

* FireDrunk heeft 8 *2TB + 4 * 2TB en maakt geen backups.

Belangrijke data zit in mijn gmail... rest is vervangbaar...
Yep, kan t me voorstellen (10x 2 TB HDD in de ZFS server, 16TB beschikbaar dus), maar voorlopig past alle belangrijke data op een 1 TB externe hdd.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • mux
  • Registratie: Januari 2007
  • Laatst online: 19-11 16:51

mux

99% efficient!

Verwijderd schreef op donderdag 09 augustus 2012 @ 15:41:
Sloth: ik heb cijfers van 1.35V - 1.5V geheugen met meerdere reepjes of maar 1. Als je wilt kan ik die eens opzoeken; het scheelt uiteindelijk toch wel wat hoor.
Ik werd net op deze discussie gewezen, zal ik dit komende vrijdag eens in het vragenuurtje behandelen?

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op maandag 13 augustus 2012 @ 12:32:
@-The_Mask-: welke ATX voedingen zijn zuinig dan met een laag vermogen?
Veel ATX voedingen van 400W of minder met 80PLUS Gold certificaat.
FSP Aurum haalt hier 81,9% met 20W belasting op 230V.
Super Flower Golden Green 400W haalt hier 80,72% met 20% belasting op 230V.
Je zegt dat een ATX voeding een PicoPSU kan verslaan?
Volgens mij zei ik dat niet, maar qua prestaties en kwaliteit sowieso ja. :p
Maar er zijn weinig goede reviews van PicoPSU's, de enige die ik ken is deze.
Dan zie je hier dat zelfs de 12V adapters moeite hebben met een rendement van 80% bij een belasting van dik 20W. (dit gaat wel over 115V input) Kijk je dan op de volgende twee bladzijdes dan zie je dat de als de PicoPSU erbij komt dat het rendement vaak al onder de 80% zakt bij een belasting van zo'n 40W. Kijk je dan ook nog naar de prestaties van de 12V adapters met PicoPSU, dan zou dat niet iets zijn wat ik graag zou gebruiken.

De 19V adapters met wide input PicoPSU's doen het qua rendement al wat beter en qua prestaties vaak stukken beter.
Het strookt namelijk niet met mijn eigen tests waar een 14.2 PicoPSU in de praktijk door ATX voeding rond de 36W afgeeft, gemeten met Voltcraft Energy Check 3000.
Maar hoe betrouwbaar zijn jouw tests? Je doet het met een simpel metertje, aan je PC welke een nogal wisselde belasting heeft en daarnaast ben je ook nog afhankelijk van heel veel andere dingen zoals bijvoorbeeld temperatuur. Welke voeding gebruikte je trouwens?
Verder: de PicoPSU doet toch niets met +12V? Dat is een nadeel in jouw ogen, in mijn ogen juist een voordeel omdat je altijd de adapter kunt vervangen voor meer wattage
Dat gaat niet werken denk ik, moet nog steeds door de PicoPSU en de 5V en 3,3V groeien ook niet mee.
of zelfs één ATX voeding gebruiken om meerdere PicoPSU machines mee te poweren; iets wat ik voor mijn eigen setup in gedachte had.
Dat zou wel kunnen ja, let er alleen wel op dat je een single rail voeding pakt anders kan de OCP wel eens gaan triggeren. Belasting op de 5V en 3,3V is waarschijnlijk niet eens nodig, vooral niet als je voeding DC-DC heeft.
Als de 'kwaliteit' van de +12V output beter zou moeten, zou je een betere +12V power brick moeten kopen die wel dergelijke bescherming heeft. Dat heeft in principe niets met de PicoPSU te maken, toch?
Waar vind je die? En wanneer weet je of die goed is? Reviews zijn er amper helaas.
Daarnaast: een ATX voeding is zo massief groot; zo groot als het hele (Mini-ITX) systeem bijna. Zo'n PicoPSU is ergonomisch veel makkelijker kwijt en maakt het mogelijk om véél systemen in kleine ruimte te installeren.
Dat wel.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Verwijderd

Dank voor je reactie -The_Mask- !

Je zegt dat die Super Flower Golden Green 400W het ongeveer even goed doet als de FSP Aurum, maar laatstgenoemde blijft dus de bestgeteste (lees: meest efficiente) ATX-voeding voor dit wattage (20W DC). Dit soort metingen zijn zeldzaam; 80-plus test alleen vanaf 20% en héél soms 10%. Dus er zijn simpelweg niet veel metingen. Veel mensen gaan uit dat een 90% efficiente voeding op 15W DC load toch minstens 80% efficient is, maar dat is dus vrijwel zeker niet zo; als de bestgesteste ATX-voeding het op dit gebied bij 20W op 82% zit, hoe zit dat met de slechtste voeding in deze klasse? Komen we dan beneden de 50% efficiency ook al heeft hij een 80+ gold/platinum rating? Die rating zegt in feite helemaal niets over het verbruik in idle mode voor een zeer efficient systeem zoals een 24/7 NAS. Kortom; dat hele 80-plus certificering is voor mijn doel nutteloos.

Volgens jouw link is de PicoPSU helemaal niet zo efficient op een wattage van rond de 40W DC. Ik denk dat daar het opslagpunt inderdaad zal liggen, maar aannemelijk is wel dat de meeste PicoPSU gebruikers beneden die belasting zitten, in elk geval voor idle. 20W idle vind ik al heel veel voor een PicoPSU eigenlijk, tenzij dat zonder spindown is van aangesloten schijven.

Punt blijft dat onder de 20W DC een PicoPSU uitstekende scores geeft aan het stopcontact, en een ATX voeding hier in veel gevallen dik overheen gaat met het dubbele verbruik van een PicoPSU setup. Dat laatste is met wat voedingen die ik hier had liggen (inclusief Huntkey 'Green' al zal dat niet veel voorstellen) maar ik zou best een simpele PicoPSU tegen de 'beste' ATX voeding willen zetten en dan denk ik nog dat de PicoPSU zal winnen bij bijvoorbeeld 15W DC load. En dat tegen veel minder geld en ruimte en trillingen en geluid enzovoorts.

Ik ben echt een leek met elektronica, dus je kunt me alles vertellen. Maar even mijn mening als leek: niemand snapt wat er in zo'n ATX voeding zit, dus ze kunnen alles opschrijven met afkortingen en marketinghypes enzo. Voor mij is het een alarmerend gegeven dat merkjes als OCZ zich in de voedingmarkt begeven. Dat is een teken dat hier veel geld te halen valt zonder er veel voor te doen (herinner je RAM-geheugen wat OCZ opkocht, de SPD aanpaste en weer doorverkocht? Juist ja.. OCZ-stijl).

Het is toch wel vreemd dat een PicoPSU beter kan wat al die 'zooi' in een grote ATX-behuizing niet kan. Ik zie altijd ouderwetse elektrolyt-condensatoren terwijl de PicoPSU mooie solid caps gebruikt. Nu zul je me vast vertellen dat dat niets uitmaakt ofzo, maar ik uit gewoon mijn gevoel dat een voeding een stuk interessanter gemaakt wordt door marketing dan het zou hoeven zijn. Zo'n PicoPSU-concept is toch prachtig? Voeding direct op de ATX-stekker. Geweldig idee. Twee condensators erop, kleine elektronica voor omzetting naar 5V, 3.3V, -5V en -12V en that's it. Het voedingsblok doet het rauwe werk en in feite heb je dus aparte AC -> DC en DC -> DC omvorming terwijl dat in een voeding gemixt wordt.

Toch zie je maar amper passief gekoelde ATX voedingen zoals met een PicoPSU setup wel goed werkt. Die voedingen zijn ook peperduur, en efficiency op 15W load; hah die info ga je natuurlijk nooit vinden. Nee eerst kopen, dan bidden, dan pas meten en weten.

Kortom, voor mijn interesse (lage idle power) zijn er eigenlijk geen voedingen op te markt. Niemand adverteert met efficiency op lage vermogens. De PicoPSU is de enige voeding ter wereld die ik ken die zo gemarket wordt. Als er straks PicoPSU-achtige ATX-voedingen komen die superefficient zijn met lage vermogens, dan zal mijn mening snel genoeg bijgesteld worden; maar ik ken ze niet!

Nog even specifiek over mijn metingen:
Maar hoe betrouwbaar zijn jouw tests? Je doet het met een simpel metertje, aan je PC welke een nogal wisselde belasting heeft en daarnaast ben je ook nog afhankelijk van heel veel andere dingen zoals bijvoorbeeld temperatuur. Welke voeding gebruikte je trouwens?
Ik heb alle metingen een half uur rustperiode gegeven. Dit was niet nodig door wisselende belasting; ik draaide FreeBSD in INIT 1 mode dus enkel de kernel, init en de 'sh' shell waren actief; kaler dan dat kan niet. powerd moest ik handmatig opstarten.

Het probleem was vooral de CPU-fan. Ik heb getest zonder die fan, maar hierdoor moet de temperatuur wel eerst stabiliseren. Zoals je weet bepaalt de temperatuur ook deels het verbruik. Een CPU waarvan de die-temperatuur flink oploopt, zal meer stroom gaan verbruiken. Dit kon ik goed ervaren met mijn Voltcraft Energy Check 3000, pas na een tijdje was de meting stabiel.

Ik gebruik een standaard 60W +12V adapter van SeaSonic maar heb ook met wat andere adapters getest (80W en 150W uit de StreaCom set). Kon op lage wattages geen grote verschillen ontdekken. De 150W StreaCom was 1.0 tot 1.5W onzuiniger op hetzelfde systeem. Zeker watt, maar niet zo'n gruwelijk groot verschil als ik met ATX-voedingen hebt gemeten!
Mux zou hier eens op moeten reageren, ik meen hem ergens horen zeggen dat een PicoPSU qua bouwkwaliteit juist helemaal niet zo heel erg goed is. Je hebt namelijk solid caps en solid caps... Het feit dat ze solid zijn wil geloof ik nog niet zeggen dat ze van goede kwaliteit zijn...

Hij zei dat de voeding in dit kastje: pricewatch: Antec ISK 300-65
kwalitatief beter was dan een PicoPSU, (dus niet persé zuiniger, maar kwalitatief betere onderdelen...)

volgens mij was dat via DM, dus dat word lastig herhalen...

Even niets...


Verwijderd

Het feit dat ze solid zijn wil geloof ik nog niet zeggen dat ze van goede kwaliteit zijn...
Daar heb ik ook iets van gelezen; ultra-low ESR caps versus 'normale' solid caps? Mijn kennis is duidelijk ondergeschikt voor deze materie.

Maar zou leuk zijn als de electronica-kenners hier eens stelling op zouden nemen; welke off-the-shelf hardware is het meest interessant voor een low-idle-power systeem? Dat jullie een Pentium 4 Prescott (zeg maar de elektrische kachel die ook nog wat berekeningen kon uitvoeren) bij wijze van spreken op 1 watt kunnen laten draaien is geweldig, maar het zou nog mooier zijn als 'wij' eletronicaleken een beetje geholpen worden in onze zoektocht naar zuinige computertechniek. Vroeger was daarbij het toverwoord TDP, maar we weten allemaal dat dit zeker vandaag de dag héél weinig met idle power consumption te maken heeft. Dus wat nu?
Die discussie word ook uitgebreid, breed, lang, 26x overgedaan in het Nieuwe Zuinige Server topic.
Er is geen eenduidige manier om te achterhalen of iets van te voren zuinig is of te maken is.

Je moet dus berusten op ervaring, revieuws, en tests. Zo leert de ervaring dat MSI zijn zaakjes goed op orde heeft qua energieverbruik, maar dat is geen garantie. Ook intel doet het goed, maar daar geld bijvoorbeeld weer dat Intel zich ver van over(en onder)klokken houdt. Dat is als je het over moederborden hebt.

Qua voedingen is het helemaal lastig, want zelfs de allergrootste test sites hebben soms slechte testmethodes. Voedingen testen op het feit dat ze keurig op 12.00V zitten is namelijk bullshit. Zolang een voeding binnen de ATX spec blijft, werkt je PC prima. Het stabiel houden van een voltage ondanks alle vermogens die er door de voeding heen gaan, kost vaak meer energie dan dat het goed is voor je PC.

Juist omdat de testmethodes zo uiteen lopen zijn reviews niet altijd betrouwbaar. Mocht je dus echt een specifieke voeding op het oog hebben, kan je alleen maar afgaan op ervaringen met goede meters die ook echt goed presteren (dus geen Energy Check 3000 en/of Cresta's zoals ik heb...)

In het Nieuwe Zuingie Server topic komen heel vaak voedingen en moederborden langs die <20W doen.
Het is mux zelfs gelukt om met een Core i7 op 7.8W te komen. (Zie zijn Fluffy2 project).

Even niets...


Verwijderd

Ik was het Nieuwe Zuinige Server (discussie) topic alweer vergeten. :X

Maar lijkt me het beste om de discussie daar voort te zetten? Althans, als jullie er zin in hebben. Als alles daar al behandeld is, heeft dat ook weinig zin. Wellicht is het wel mogelijk enkele conclusies uit dit topic te trekken (met links naar relevante posts) die bruikbaar zijn voor het doel van een zelfbouw NAS? In dat geval zou die informatie wellicht ook in de startpost van dit topic geplaatst kunnen worden.

En mux zijn blog volg ik inderdaad; hele toffe gozer en ben enorm benieuwd naar zijn volgende blogs! En wellicht dat hij op enkele zaken die hier en elders besproken worden kan reageren in zijn blogpost. :)
Grootste verschil tussen deze topics is dat daar vooral zuinig, non-raid en Windows de hoofdmoot is.
Hier is het meer zo zuinig mogelijk, RAID, en Linux/ZFS.

Even niets...


Verwijderd

Ook het OS maakt hierbij veel uit; Linux, BSD of Windows. Laatstgenoemde zou het zuinigst zijn omdat de factory Windows-only drivers het beste de energiebesparingsmogelijkheden ondersteunen.

Is het een idee om een keer een test te doen met zuinige hardware op diverse platforms met diverse settings en zo een vollediger beeld te geven van een zuinige zelfbouw NAS? Voorbeeld: mijn MSI bordje was getest op 7,3 watt aan het stopcontact door XbitLabs met normaal 1.5V geheugen. Ik kom aan de 9,x watt met één DRAM reepje zonder ethernet link, dus daar zit een groot verschil. Wil dat bordje ook nog eens onder Windows testen om dit te kunnen bevestigen.

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 19:50
Als jij de test eisen op wil stellen, wil ik mijn aandeel wel leveren.

Sinds de 2 dagen regel reageer ik hier niet meer

Dat bedoelde ik dus te zeggen... Hoe weet je nou dat de testmethodiek hetzelfde is, misschien hadden zij (of jij ) wel een slechte meter?

Hebben zij het over AC of DC?

Een testmethode opstellen tussen tweakers is extreem lastig/ingewikkeld.
Je moet zorgen dat mensen dezelfde setup hebben, zelfde meters, zelfde OS, zelfde drivers (inc versies) en zelfde omstandigheden willen je tests conclusief kunnen zijn. Daartussen zit gewoon teveel speling.

Leuk dat jou bordje door xbit labs getest is op 9W, en jammer dat jij daar niet op komt, maar wat als jij daar wel op komt? Is dat een garantie dat dat bij een ander ook zo is?

[ Voor 57% gewijzigd door FireDrunk op 15-08-2012 14:54 ]

Even niets...


Verwijderd

7,3 watt zelfs: http://www.xbitlabs.com/a...display/amd-e-350_12.html

Afbeeldingslocatie: http://www.xbitlabs.com/images/cpu/amd-e-350/power-1.png

Ik heb de volgende cijfers, maar ik beschouw dit voorlopige cijfers ik wil het uiteindelijk nog eens goed testen met minder omgevingsfactoren (zoals ambient temp). Alle cijfers zijn aan het stopcontact met Energy Check 3000 gemeten.

10.0W PicoPSU-120, DDR-1333, Fan, Geen SATA/Ethernet
11.6W een alternatieve PicoPSU op los board (zat bij een kleine behuizing) neemt ook +12V input zoals de PicoPSU maar is dus aardig wat onzuiniger.
10.1W PicoPSU-150 - miniem verschil met PicoPSU-120
9.7W DDR-800 één reepje
10.4W DDR-800 twee reepjes (blijft in 64-bit single channel mode draaien; beperking van Brazos)
10.8W DDR-1333 twee reepjes
10.0W geen ventilator

Bovenstaande cijfers zijn mijn eerste meetpoging. Elke regel is getest zoals de bovenstaande regel met de vermelde afwijking (ceteris paribus). Ik had ook nog specifieke cijfers over geheugenvoltage en die cijfers die ik toen nam zijn veel beter; heb ik de meeste tijd aan besteed. Maar ik kan ze even zo gauw niet terugvinden.. :$
Die Energy Check 3000 is niet betrouwbaar bij die waardes...

Even niets...


  • redfoxert
  • Registratie: December 2000
  • Niet online
FireDrunk schreef op woensdag 15 augustus 2012 @ 15:27:
Die Energy Check 3000 is niet betrouwbaar bij die waardes...
Wat is dan de maximale afwijking die kan optreden? 10-20-30%? Op zulke lage wattages is de absolute afwijking dan natuurlijk bijna te verwaarlozen. Als het om tienden van Watts gaat weer niet :)

https://discord.com/invite/tweakers

Mux:
Een slechte power factor heeft geen effect op je verbruik, maar bij een meter zoals de Cresta (die niet true RMS is) beïnvloedt het wel de nauwkeurigheid van de meting - dramatisch zelfs. Je ziet dat je min of meer 100% afwijking hebt op sommige momenten. Daarom adviseer ik altijd tegen de Cresta RCE-1106 en beveel ik meters aan waarvan ik weet dat ze true RMS meten, dan heb je daar in ieder geval geen last van (hoewel ook die meters er een paar watt naast kunnen zitten, maar lang niet tientallen procenten). Zoals de Voltcraft Energy Monitor en Energy Logger. Then again, ik ben een meetnauwkeurigheidsmierenneuker van de bovenste klasse, en om een beetje een idee te krijgen van het verbruik van een idee voldoet zo'n cresta in zeg 90% van de gevallen prima.

Even niets...


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
in deze quote staat juist (en terecht) dat de Energy Check wel goed meet ;)
Er staat monitor en logger... dat is NIET de energy check...

Even niets...


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
FireDrunk schreef op woensdag 15 augustus 2012 @ 17:32:
Er staat monitor en logger... dat is NIET de energy check...
ok, de Energy Check 3000 valt onder het kopje "zoals" en meet ook True RMS...

Verwijderd

Jongens, rustig aan, rustig aan! :D

Het gaat niet zozeer om de exacte meting, vooral de verschillen zijn belangrijk. Dit lijkt me ook relevant voor een zuinige zelfbouw NAS.

Hoeveel verbruikt een reepje geheugen nu eigenlijk in idle mode?
Ongeveer 0.7 tot 0.9W in mijn geval met 4GiB modules. Zeg 2W voor twee keer 4GiB = 8GiB.

Scheelt het 2x4GiB versus 1x8GiB?
(moet ik nog opzoeken)

Hoeveel scheelt 1.35v versus 1.5v?
(moet ik nog opzoeken)

Verschillen tussen verschillende versies PicoPSU in idle?
Verwaarloosbaar.

Verschillen tussen verschillende netvoedingen die PicoPSU prik leveren?
Scheelt wel iets, maar vaak niet meer dan enkele watts.


Zo'n overzicht wil ik in de startpost zetten, maar dan nog verder uitgewerkt en ondersteund met cijfers die het strenge oordeel van de jury hebben overleefd. :P

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 19:50
Als ik iets verwaarloosbaar vind, is het wel het verbruik van het geheugen. Ik ga in ieder geval niet moeilijk doen voor 1kWH verschil. Laten we een marge aanhouden van 95%. Een verbruik van 40w heeft dus een marge van 38 - 42w. Als het gebruik van een andere PicoPSU dus zorgt voor een verbruik van 39w ipv 40w, dan vind ik het verwaarloosbaar. Pas als dit meer als 3w verschil is wordt het in dit geval interessant. Zo denkt dit jurylid er in ieder geval over :p

Sinds de 2 dagen regel reageer ik hier niet meer


Verwijderd

Verschillen tussen PicoPSU heb ik maar 0.1 watt kunnen testen. Dus dat is verwaarloosbaar. 2W voor 8GiB geheugen is niet écht verwaarloosbaar toch? Wacht even op de gegevens met 2x 8GiB en met verschillende voltages.

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Is een tabel om het geheel aan test resultaten samen te vatten misschien handig? En daarbij een link in de TS naar de post met die tabel? Want in de 422 pagina's die er nu zijn in dit topic kan ik echt al het boeiende (builds, testresults, tips, patches, etc..) niet meer terugvinden :P

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


Verwijderd

Helemaal gelijk en ik wil de twee topics (ZFS en DIY RAID NAS) opnieuw schrijven. Maar momenteel daar nog even geen tijd voor. Maar ik denk er zeker overna. Vooral de startpost herschrijven of goed aanvullen met relevante informatie is daarbij een prioriteit. En zo nu eens een nieuw deel na zoveel pagina's mag ook wel.

Tip: stel je posts per pagina bij dan zijn het er 'maar' 212 in mijn geval. :+
offtopic:
Ik heb 352 pagina's... Op je smartphone is veel posts per pagina rete iritant, want dan blijf je scrollen :+


Ontopic: We kunnen inderdaad het beste een tabelletje samenstellen met onderdelen/componenten waar we het verbruik dus van weten, zowel globaal als specifiek.

Dus
RAM: 1W per latje, (Kingston HyperX OC 999999Mhz 4W)
NIC: 1-3W Typisch (Intel Dual 1Gb, 5W, 10Gb 15W)
Harddisk: 7200RPM 8W, Spinup 40W, 5400RPM 5W, Spinup 25-30W (Samsung F4EG 2TB, 15W).

Om maar even wat random gegevens naast elkaar te plempen...

Even niets...


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Het duurde even een paar dagen bij Conrad maar eindelijk heb ik de Voltcraft Energie Monitor 3000 binnen.
Ik heb me schijven even naast elkaar gelegd, en de server een paar keer geboot.

Eerste boot staggered spinup (Direct Attached Spinup Delay) 2 sec
meting was 117 Watt

Tweede boot staggered spinup (Direct Attached Spinup Delay) 0 sec
meting was 124 Watt

Hieruit kreeg ik het idee dat staggered spinup niet werkt omdat dit een heel klein verschil is.
Als tweede test heb ik even de delay veranderd van 2 sec naar 15 sec dan heb ik meer tijd om te voelen/luisteren of de schijven niet tegelijk opstarten. Hier krijg ik het idee dat deze gewoon tegelijk opstarten.

De schijven: 4x Samsung Spinpoint F4 EG HD204UI, 2TB
(de 5e schijf is stuk en wordt vervangen ivm garantie)

Wel merk ik dat als ik het onderstaande venster zie dat het intializing langer duurt omdat deze op 15 sec staat.

Afbeeldingslocatie: https://lh5.googleusercontent.com/-n6OeuFp9Vs0/UCzdg1qtV9I/AAAAAAAAAGI/LeTJv6AFhk8/s343/Schermafbeelding%25202012-08-16%2520om%252013.44.36.png

Update:
5e schijf komt net binnen het is helaas geen Samsung HD204UI maar een Seagate Barracuda LP 2TB

Edit:
Net een mailtje ontvangen van Seagate.
Staggered spinup of this drive appears to be a function of the BIOS, not the drive itself.
Dan zou dit moeten werken?

[ Voor 11% gewijzigd door Phasis op 16-08-2012 15:07 ]


  • Dr Pro
  • Registratie: Mei 2004
  • Laatst online: 18:34
Zou iemand mij kunnen helpen?
Ik zit namelijk met het idee om zelf ook een DIY NAS te bouwen, en ik heb de meeste componenten nu binnen.
Ik weet alleen niet of het gaat werken...

Ik heb twee WD Green 2TB schijven die ik graag beschikbaar wil stellen via het netwerk.
Later komen er nog 2x 3TB schijven bij, ben er nog niet over uit welke, maar dat zal vanzelf goed komen :).
Daarnaast heb ik nu nog een Linksys aparaat waaraan je 2 USB schijven kan hangen, daar ga ik op backuppen.

Als hardware heb ik gekozen voor een Intel Atom D525 met 8GB geheugen, verder zit er een Intel PT Quad Port Server Adapter in.

Nu is het zo dat mijn twee schijven eerder in een Windows systeem gezeten hebben, en beide behoorlijk vol zitten.
Beide schijven zijn NTFS geformatteerd en ik kan helaas geen backup maken van mijn data op dit moment (vandaar de uitbreidingen)

Gaat NAS4Free of FreeNAS of iets dergelijks gewoon werken met NTFS geformateerde schijven?
Daarnaast zou ik graag deze NAS (in de toekomst) ook willen gebruiken als iSCSI target voor mijn ESX doos, ik denk dat dat ook iets is om rekening mee te houden bij het kiezen van een NAS distro...

Graag hoor ik van u en uwen

Verwijderd

@Dr Pro: ik dacht dat Atom maar tot 4GiB ging max? Bij Brazos is de max officiëel 8GiB, maar 2x8GiB=16GiB worden gewoon geslikt en dat werkt bij mij ook prima.
Gaat NAS4Free of FreeNAS of iets dergelijks gewoon werken met NTFS geformateerde schijven?
Je wilt dus gewoon in NTFS blijven werken? Iew. Ja het kán... als je data weinig betekent voor je. Merk op dat non-Windows NTFS toegang potentiëel veel slechter werkt dan Windows NTFS zelf. Met name als journal recovery toegepast moet worden. De oude ntfs-3g kon dat nog niet zelf; dan moest je terug in Windows booten. Misschien dat dat nu niet meer zo is, maar beschouw dit als onveilige opslag.

Waarom quad port networking en 8GB als je toch geen ZFS gaat gebruiken? Wat heb je aan je quad port networking als je NTFS en ook een low-end Atom gaat draaien? Ik vind dit geen logisch systeem. Sowieso is Brazos op alle punten superieur aan Atom dus dat was denk ik een betere keuze geweest. Anyhow, je kunt nog alle kanten op hoor. Probeer het eerst gewoon uit.

Maar je hebt dus geen backup van je data en je gebruikt ook geen redundancy, en dan wil je ook een (extra) onveilig filesystem gebruiken (extra omdat het geen native NTFS is)... je moet dan niet denken dat je data enorm veel bescherming geniet. Dus wellicht toch maar wat schijven bijkopen en bijvoorbeeld een ZFS RAID-Z (RAID5) aanmaken? Daarbij hoef je één disk nog niet te formatteren dus de data kan daar op blijven staan, dan kopiëer je deze naar de RAID-Z en vervolgens voeg je die laatste schijf toe aan de RAID-Z waardoor hij van DEGRADED naar ONLINE gaat. Voorwaarde is wel dat je data op één schijf past en je schijven gelijke grootte hebben. In jouw geval lijkt dat moeilijk omdat je voor 3TB schijven wilt gaan. Dus dan zit je vast aan mirroring en heb je in totaal 4.5TiB opslag met 2x 3TB schijven en 2x 2TB schijven in mirrors. Niet echt een sexy oplossing IMO.

Nog genoeg zaken waar je wat kan verbeteren dus. :)

  • Dr Pro
  • Registratie: Mei 2004
  • Laatst online: 18:34
Verwijderd schreef op donderdag 16 augustus 2012 @ 16:24:
@Dr Pro: ik dacht dat Atom maar tot 4GiB ging max? Bij Brazos is de max officiëel 8GiB, maar 2x8GiB=16GiB worden gewoon geslikt en dat werkt bij mij ook prima.


[...]

Je wilt dus gewoon in NTFS blijven werken? Iew. Ja het kán... als je data weinig betekent voor je. Merk op dat non-Windows NTFS toegang potentiëel veel slechter werkt dan Windows NTFS zelf. Met name als journal recovery toegepast moet worden. De oude ntfs-3g kon dat nog niet zelf; dan moest je terug in Windows booten. Misschien dat dat nu niet meer zo is, maar beschouw dit als onveilige opslag.

Waarom quad port networking en 8GB als je toch geen ZFS gaat gebruiken? Wat heb je aan je quad port networking als je NTFS en ook een low-end Atom gaat draaien? Ik vind dit geen logisch systeem. Sowieso is Brazos op alle punten superieur aan Atom dus dat was denk ik een betere keuze geweest. Anyhow, je kunt nog alle kanten op hoor. Probeer het eerst gewoon uit.

Maar je hebt dus geen backup van je data en je gebruikt ook geen redundancy, en dan wil je ook een (extra) onveilig filesystem gebruiken (extra omdat het geen native NTFS is)... je moet dan niet denken dat je data enorm veel bescherming geniet. Dus wellicht toch maar wat schijven bijkopen en bijvoorbeeld een ZFS RAID-Z (RAID5) aanmaken? Daarbij hoef je één disk nog niet te formatteren dus de data kan daar op blijven staan, dan kopiëer je deze naar de RAID-Z en vervolgens voeg je die laatste schijf toe aan de RAID-Z waardoor hij van DEGRADED naar ONLINE gaat. Voorwaarde is wel dat je data op één schijf past en je schijven gelijke grootte hebben. In jouw geval lijkt dat moeilijk omdat je voor 3TB schijven wilt gaan. Dus dan zit je vast aan mirroring en heb je in totaal 4.5TiB opslag met 2x 3TB schijven en 2x 2TB schijven in mirrors. Niet echt een sexy oplossing IMO.

Nog genoeg zaken waar je wat kan verbeteren dus. :)
Wow...genoeg verbeterpunten dus.

De Atom samen met 8GB had ik liggen, de Quad Port server adapter ook :D
Ik zal wel gaan kijken naar een Brazos oplossing.

Dat van NTFS was precies de vraag!
ASAP daar van af dus en ZFS gaan gebruiken, ik kijk wel even of ik van kantoor tijdelijk wat schijven mee kan krijgen zodat ik mijn data kan backuppen en de schijven kan formatteren.

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Het is volgens mij al eens voorbij gekomen, maar ik kan het zo niet vinden. Momenteel heb ik een LSI 3081E-R (8-poorts) en wil ik deze uitbreiden naar 16-poorts. Is het mogelijk een M1015 te kopen, deze te crossflashen naar LSI IT en deze er gewoon bij te steken? Ik meen me te herinneren dat dit vooral een probleem was bij zuinige low-end bordjes toch?

Mijn mobo (Asrock 970 Extreme4) heeft 3 PCI-E x16 sloten (fysiek; logisch wordt het x8/x8/x4 wanneer alledrie in gebruik). Momenteel zit mijn LSI er dus in samen met een videokaart, wat betekent dat ik nog 1 slot over heb. Gaat dit lukken? Ik neem aan dat PCI-E 2.0 x4 (=2000MB/s) geen probleem mag vormen toch?

[ Voor 15% gewijzigd door HarmoniousVibe op 17-08-2012 04:20 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW

Ja hoor, kan prima.

Even niets...


  • mux
  • Registratie: Januari 2007
  • Laatst online: 19-11 16:51

mux

99% efficient!

BartNL schreef op woensdag 15 augustus 2012 @ 18:02:
[...]

ok, de Energy Check 3000 valt onder het kopje "zoals" en meet ook True RMS...
Nope, energy check is net als de meeste cheapo meters een non-RMS chipje onder een druppel epoxy met lcd-scherm eraan vast. Doet geen TRMS. Alleen de monitor en logger doen TRMS.
Verwijderd schreef op woensdag 15 augustus 2012 @ 18:20:
Jongens, rustig aan, rustig aan! :D

Het gaat niet zozeer om de exacte meting, vooral de verschillen zijn belangrijk. Dit lijkt me ook relevant voor een zuinige zelfbouw NAS.

Hoeveel verbruikt een reepje geheugen nu eigenlijk in idle mode?
Ongeveer 0.7 tot 0.9W in mijn geval met 4GiB modules. Zeg 2W voor twee keer 4GiB = 8GiB.

Scheelt het 2x4GiB versus 1x8GiB?
(moet ik nog opzoeken)

Hoeveel scheelt 1.35v versus 1.5v?
(moet ik nog opzoeken)
Mux' vragenuurtje: hoe zuinig is geheugen?

:)

  • sloth
  • Registratie: Januari 2010
  • Niet online
Verwijderd schreef op donderdag 09 augustus 2012 @ 15:41:
Sloth: ik heb cijfers van 1.35V - 1.5V geheugen met meerdere reepjes of maar 1. Als je wilt kan ik die eens opzoeken; het scheelt uiteindelijk toch wel wat hoor.
Met dank aan Mux _/-\o_ is er eindelijk klaarheid over deze discussie:

mux' blog: Mux' vragenuurtje 17/8/2012: hoe zuinig is geheugen?

Het verschil bedraagt bij ddr3 geheugen op recente intel platformen bedraagt minder dan 0,2 watt. Oftewel 40 cent op jaarbasis, totaal verwaarloosbaar.

Mux, super dat je de tijd neemt om hier aandacht aan te besteden, bedankt!

Ik stel voor dat deze cijfers en een link naar je blog / filmpje in de TS van dit topic, Nieuwe Zuinige Server (discussie) Zuinige ESXi Server en de BBG's opgenomen wordt.

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
mux schreef op vrijdag 17 augustus 2012 @ 21:07:
[...]Nope, energy check is net als de meeste cheapo meters een non-RMS chipje onder een druppel epoxy met lcd-scherm eraan vast. Doet geen TRMS. Alleen de monitor en logger doen TRMS.
dan wordt er her en der o.a. bij Conrad gelogen want die geven aan "High accuracy starting from 1.5 W through real-effective value measurement (True RMS)". Ik heb er zelf ook een (gehad?) en zal eens kijken of ik die nog terug kan vinden. Volgens mij deed die ook True RMS weet alleen niet zeker welk type dat exact was.

Net even gekeken en ik heb een Energy Monitor en ik ga er van uit dat je m.b.t. de Energy Check dan ook gelijk hebt.

[ Voor 8% gewijzigd door BartNL op 18-08-2012 11:20 . Reden: ik vergis me en heb dus geen Energy Check ]


Verwijderd

mux schreef op vrijdag 17 augustus 2012 @ 21:07:
Nope, energy check is net als de meeste cheapo meters een non-RMS chipje onder een druppel epoxy met lcd-scherm eraan vast. Doet geen TRMS. Alleen de monitor en logger doen TRMS.
Ik had al gereageerd in je blog, maar op basis hiervan; heeft het dan wel zin van mij om metingen te doen of te publiceren?

Specifiek: is het zo dat de absolute getallen niet kloppen omdat de power factor niet wordt meegenomen (dat bedoel je met True RMS of zeg ik weer wat doms? :P ) - OF - dat er helemaal niets van klopt dus óók niet relatieve verschillen tussen metingen?

Als alleen de absolute getallen niet kloppen maar een watt minder gemeten wel suggereert dat hij een nabij een watt zuiniger is, dan hebben de getallen nog wel nut, anders niet.

Ik vind je resultaten wel 'too good to be true' 0W verschil, wauw! Dan is het hele low voltage geheugen dus ook zinloos. Dat is wel héél erg in contrast met mijn metingen waar ik vrij significante verschillen kon vinden tussen DDR frequency, voltage en aantal geheugenbanken bezet. En dat terwijl jij 1.5V meet en dus niet/nauwelijks geen verschil krijgt met één of twee geheugenmodules.

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Volgens mij is het niet zo dat 1.35V geheugen altijd op die spannng werkt. Het kan best zijn dat het MB en het geheugen er samen uit komen om op 1.5V te werken.
Je kan er verder nog van uit gaan dat 2x4GB even veel verbruikt als 1x8 als die 1x8 het dubbele aantal ICs heeft danwel met hetzelfde procede is gebakken en ze beide van hetzelfde type zijn.

Waarom niet de stroom door de 5V ader meten met een goede multimeter?

Verwijderd

Durandal: dat klopt maar ik heb natuurlijk geverifieerd dat hij op 1.35V draaide, althans volgens de voltages in het BIOS - 1.365W zie je dan; altijd een afwijking naar boven of beneden maar je kan de 'tredes' onderscheiden.

Ik kan ondanks verwoede pogingen mijn oude MSI memory test metingen niet meer terugvinden. Dit weekend ga ik chillen, maar komende week zou ik graag nog eens die metingen overdoen. Ik kan me niet voorstellen dat ik tot (heel) andere uitslagen kom. Misschien dan het setje oversturen naar Mux en kijken wat hij er mee kan? :P

  • DDX
  • Registratie: April 2001
  • Laatst online: 21:31

DDX

Hmms interessante test verbruik van geheugen.
Sta zelf op het punt om nieuwe dell server (t320) te bestellen als vervanging van m'n huidige server (t300) en zit nog te twijfelen wat te doen met voeding en geheugen.

Geheugen had ik volgende info gevonden
http://www.dell.com/downl...eration_server_memory.pdf
Stukje uit deze pdf :
Finally, addressing the power management practices, if we examine any memory subsystem, especially a large system where power management is most critical, we can easily see that memory utilization per DIMM is likely to be below 50%—this is simply because with two or more DIMMs per channel only one DIMM can be accessed at a time. In these cases, the remaining DIMMs are either idle or refreshed. Hence, the power savings can be significant if we are able to keep a DIMM in its lowest possible power state during this idle or refresh time.
Fortunately, the DDR3 standard defines operating states that, when properly implemented, can result in significant power reduction during this idle time. Without exhaustively analyzing each possible power state, from a high level, a typical DIMM (8GB, 1333MT/s) would have the relative power consumption values, (normalized to operating at full speed and 80% bandwidth utilization) shown in Table 1.
Afbeeldingslocatie: http://i48.tinypic.com/18omf8.jpg

En wat info van samsung voor verbruik :
http://www.businesswire.c...-Green-DDR3-Modules-Ultra
In case of a 1.25V 16GB RDIMM, the module consumes only 3.7 watts (W) per hour
Ik wil 16 gigabyte geheugen in de server zetten, dus keus was 4*4, 2*8 of 1*16.
Als ik voor 4*4 ga (udimm is dan mogelijk) ben ik in de toekomst beperkt met uitbreiden.
Dus zou de keus 2*8 of 1*16 in low voltage rdimm zijn.
Meerprijs voor de 16gb is zo'n 25 euro en op basis van bovenstaande getallen ga ik dat nooit terugverdienen in 5 jaar..

Voor voeding bieden ze keuze uit 350W (non-redundant) en 450W of 750W (redundant)
Waar ze ook weer leuk tabelletje over hebben :
Afbeeldingslocatie: http://i45.tinypic.com/2qjya91.jpg
Aangezien ik verbruik van server die ik geconfigureerd had schat op zo'n 60 tot 100W (op basis van ervaringen van servers die ik op m'n werk heb draaien) was de keus dus de 350W of de 450W.
Op basis van dit tabelletje is mijn keus gevallen op de 450W voeding. (de niet redundant voeding heeft geen power usage info en mist fresh air (waarbij systeem warmer mag worden, dus minder gaat koelen))

https://www.strava.com/athletes/2323035


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ik ben een hele tijd geleden bezig geweest met het uitzoeken van componenten voor een ZFS nas.
Door omstandigheden is dit projectje destijds stil komen te liggen. Nu ik weer iets meer tijd heb wil ik graag weer verder gaan met mijn hobby projectjes en daarvoor heb ik een nieuwe storage machine en virtualisatie host nodig.

- IBM LSI Based HBA 2x sas (typenr weet ik zo even niet, maar deze HBA kan worden voorzien van IT firmware en is freebsd compatible.)
- 2x Kingston ValueRAM KVR1333D3D4R9S/4G

Nu heb ik voor mezelf al besloten dat ik een dedicated storage bak wil bouwen want mijn virtualisatiehost gaat een hobbybak worden en ik zou het mezelf erg lastig maken wanneer ik daarop ook mijn stoage server zou draaien.

- Is het nog steeds zo dat ik voor meer dan 16GB ecc geheugen registered modules nodig heb en dus met server moederborden moet werken? Unregistered 8GB modules waren een tijd geleden niet of nauwelijks beschikbaar en ook erg prijzig.
- De storage machine wil ik voorzien van maximaal 16GB geheugen, ik denk dat ik dan het goedkoopste klaar ben met een ecc compatible desktop bord en cpu en 4x4GB ecc udimm's of maak ik nu een denk fout?

Verwijderd

Je kunt gewoon 8GiB UDIMMS kopen die zijn nu gewoon goedkoop (80 euro voor een 2x8GiB=16GiB UDIMM set). Zoals:
pricewatch: Corsair CMX16GX3M2A1600C11

Zie ook mijn wenslijst waarin wat interessante product per productgroep staan:
gallery: CiPHER

Dus je kunt op een normaal systeem gewoon 4x 8GiB = 32GiB UDIMM aansluiten. Zelfs het dubbele, want 16GiB UDIMM modules zouden ook ondersteund worden. Alleen wat eerst voor 8GiB UDIMM modules gold, geldt nu voor 16GiB UDIMM modules: onbetaalbaar en onverkrijgbaar.

Wil je meer dan 32GiB UDIMM moet je in de praktijk dus wel voor registered RDIMM gaan. Als dit enkel voor ZFS is, zou je kunnen overwegen geen ECC te nemen voor ZFS omdat je corruptie toch wel opspoort als het een zeer sporadische memory bitflips zijn. Maar op je VM server host wil je wel ECC geheugen omdat je daar eigenlijk niets kunt veroorloven qua memory corruptie. Is maar een afweging, maar zo kun je wel makkelijk 16 of 32GiB RAM voor je ZFS server halen zonder gelijk blut te zijn. 32GiB kost dan maar 170 euro (2x 85 euro).

4GiB modules raad ik af; moeilijk uit te breiden en je zult juist zo groot mogelijke modules zodat je maximale uitbreidingsmogelijkheden hebt. Over het geheugen verbruik durf ik inmiddels niets meer te zeggen. :+

@DDX: heel interessant die screenshot. En misschien dat dat de verschillen tussen mijn metingen en die van Mux verklaart: als in mijn geval hij op de normale (63%) idle zat en niet de S3 energiebesparing ondersteunde, zou dat de verschillen in metingen kunnen verklaren. Nog een keer goed testen met verschillende besturingssystemen!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 19-11 16:51

mux

99% efficient!

Alle implementaties van DDR3 sinds een hele tijd laten de geheugenmodules in principe gewoon in low-frequency self-refresh draaien (=laagste verbruik wat een module kan hebben). Zelfs in het DDR2-tijdperk deden ze dat al. Het enige wat je moet doen is in C1e, C3 (acpi) of C6 (intel) terecht komen. Bakken moederborden ondersteunen dat slecht, niet, of hebben het standaard uit staan, zeker als je het over serverimplementaties hebt. Het is ook bad practice om een server idle te laten draaien (performance per watt is nul als je niks doet, ongeacht het verbruik :P )

Anyway, ik heb vanmiddag nog even zitten meten in Fluffy2, gezien daar al wat draadjes uit steken waar ik multimeters en oscilloscopen aan kan hangen. Aan de Vdimm-rail hangt in Fluffy2 niet alleen het geheugen, maar ook een deel van de PCH (de 1.8V-lijn), die verantwoordelijk is voor (volgens de [url=]datasheet[/url]) 111mA stroomverbruik @ 1.5V. Ook hangen er nog een paar kleinverbruikers aan, die ga ik nog nameten, maar volgens mij is dat bij elkaar niet meer dan 10mA.

Idle wordt er 0.405A @ 1.52V getrokken uit Vdimm, waarvan dus ongeveer 120mA andere meuk. 280mA wordt door het geheugen verbruikt, dat is 0.43W, of 0.22W per module.

Als ik OCCT, Furmark of superPI aanzet stijgt dit naar 2.215A, oftewel 3.184W voor het geheugen, dus ruwweg 1.6W per module.

Ik heb het niet voor elkaar gekregen met andere benchmarks of applicaties een hoger verbruik te realiseren. Verder heb ik nog geen tests gedaan, maar het geeft in ieder geval een indicatie van het verbruik van puur en alleen de modules zelf.

Dit is lang niet alles, want in mijn Westmere-systeem (Fikki3) zag ik een groot verschil onder belasting als ik een extra geheugenmodule bijplaatste, wat geheel veroorzaakt werd door de geheugencontroller die een extra geheugenkanaal moest aanzetten. Ik verwacht dus dat het niet de geheugenmodules zelf, maar de CPU is die het 'extra' verbruik van meer modules veroorzaakt. Anyway, work in progress.

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
ik neig naar een simpele AMD setup met 2x 8GB udimms, ik krijg voor de intel cpu's niet echt helder welke goedkopere cpu en moederbord combinaties ecc ondersteunen en dan ook daadwerkelijk ecc benutten.
Intel heeft natuurlijk wel leuke remote management technieken, heeft iemand ervaring met een betaalbare intel setup welke amt (met vnc) en ecc udimm's ondersteunt? Voor zover ik het kan vinden is het namelijk of vPro of ecc en niet beide tenzij je een serverbord neemt met een eigen management implementatie.
Een Q67 bord is niet al te duur echter een vPro compatible cpu is alweer een heel stuk duurder.

Qua performance hoop ik over gigabit ongeveer 100MBps te halen vanaf een Raidz2 set met 6 schijven, volgens mij heb ik dan mits ik geen zaken zoals dedup ga doen voldoende aan een redelijke dual core cpu of vergis ik me nu?
In mijn oude aantekeningen stond dat ik voor raidz2 met 4k schijven het beste 6 of 12 disken per vdev kan gebruiken, klopt dit nog?)

Mijn vorige test* setup was als volgt:
CPUx2 555be
RAM4x 4GB Corsair XMS3 1333Mhz C9
MoboAsus m4a89GTD-Pro USB3
PSUBeQuit 500Watt
OS Disks2x Seagate 7200.10 1TB mirror
Data disks3x 2.0TB WD EARS Raidz
VerbruikIdle: 90W Load ~125W
OSOpen Indiana OI_148


Onder windows was het idle verbruik een stukje lager, dit kwam omdat onder OI vrijwel geen enkele energie besparingsfunctie leek te werken, ik geloof dat de support voor desktop hardware in BSD based os-en iets breder is? Ik heb de x2 555 cpu nog liggen, deze cpu leek destijds afdoende voor mijn setup. Een investering in een zuinigere (intel?) cpu is het overwegen waard maar aangezien de nas doordeweeks meestal uit zal staan is het de vraag in hoeverre een dergelijke investering zich zal lonen. Een nieuwe voeding ga ik wel aanschaffen want de be-quit voeding is niet erg efficient wanneer het systeem weinig vraagt.

[ Voor 11% gewijzigd door dutch_warrior op 18-08-2012 22:46 ]


Verwijderd

@Mux, bedankt voor je reactie! En ik hoop zeker nog nieuwe tests te doen. Eerst mijn oude bevindingen bevestigen met mijn Energy Check, dan nog verschillende OS uitproberen. Mocht ik dan nog steeds sterke afwijkingen versus jouw metingen krijgen, dan stel ik het volgende voor:

1. ZFSguru USB-stick
Als het OS-gerelateerd zou kunnen zijn, kan ik je een USB stick sturen met ZFSguru erop geïnstalleerd. Samen met wat instructies hoe je het verbruik stabiliseert door alle overbodige meuk uit te schakelen. Je koppelt gewoon al je schijven af (dus ook 0 risico) en boot van de USB stick. De stick zelf zal niet veel verbruiken, die ik gebruik zijn volgens mij behoorlijk zuinig (<0,1W).

Hiermee kun je dus jouw systeem opnieuw testen met de software die ik gebruik. Kan interessant zijn.

2. Ik stuur mijn MSI-systeem naar jou op. Eigenlijk wel irritant want ik zal hem echt wel missen; hij doet zoveel voor me. :+

Maar deze optie zou wel uitsluitsel kunnen geven. Ik kan je dan mijn Energy Check meegeven als dat zin heeft, zodat je kunt kijken welke afwijking dat ding geeft versus jouw Energy Monitor. En natuurlijk kun je met jouw multimeters mijn MSI bordje testen. Alleen: hoeveel werk is dat? Moet je daarvoor specsheets doornemen om te weten hoe/waar je moet meten? Als het te ingewikkeld is kun je ook gewoon AC meten denk ik?

En verder nog het punt dat je aanhaalt: als je enkel de geheugenmodules test en niet het systeem, betrek je daarbij niet het verschil in verbruik in de CPU IMC (geïntegreerde geheugencontroller). Die kan ook meer gaan verbruiken naar gelang frequency en/of aantal banken bezet. Maar dat zou nog niet het verschil in DRAM voltage verklaren wat ik ook heb gemeten.

Maar als je wilt kunnen dit eens goed uitzoeken; want als het écht zo is dat DRAM geheugenverbruik geen drol uitmaakt dan hoef ik ook niet zoveel moeite te doen om 1.25v / 1.35v geheugen te vinden, dan is dat gewoon complete onzin, met betrekking tot idle verbruik in elk geval.

@dutch_warrior: waarom dan niet gewoon Brazos voor een simpel systeempje? 2x8GiB DIMM erin, bij mijn bordje werkt dat en anderen hebben dat ook getest. Of wil je meer CPU-kracht? Als je het puur als ZFS server wilt, kun je wel Brazos overwegen. Met een PicoPSU voeding zit je aan heel lage wattages. Tot 6 schijven kun je dan opspinnen. Maar die íets oudere schijven die je nu hebt kullen wel meer verbruiken dan modernere schijven. Als je de nieuwere EARS hebt zit je wel goed. De oudere heeft 4 platters en ik denk dat die iets meer stroom trekt. Dan zou je 6 schijven met 80W netvoeding + PicoPSU net te weinig zijn. Bedenk wel dat de netvoeding zelf een piekspanning kan leveren. Zo kon de 150W geloof ik 186W ofzoiets leveren, maar mag je dat niet langer doen dan 30 seconden ofzo; thermisch gerelateerd dus maar technisch kan de voeding dat wel leveren.

En Intel hoeft denk ik niet zuiniger te zijn hoor. AMD heeft ook zuinige platforms zoals Brazos, Llano en binnenkort Trinity.
Mijn DQ77MK is binnen! Daarmee wil ik mijn huidige Dual Xeon van zijn NAS (en dus zijn 24/7-aan) functie beroven en een low power ZFSGuru systeem maken! 2U kast is er al, en 4x2TB F4EG ook. Ook een 120W PicoPSU heb ik al, nu alleen nog een goede 12V adapter en even kijken welke CPU ik erin ga doen. In eerste instantie ga ik om te testen waarschijnlijk de G620 uit mijn mediacenter slopen :)

Morgen maar eens kijken of ik nog een voeding rond heb slingeren die genoeg stroom kan leveren...

Iemand in omgeving Arnhem nog goede 12V adapter te koop? kom ik hem morgen halen :+

Even niets...


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
@Cipher:
Een brazos setup heb ik overwogen maar dat is me net te krap qua performance en uitbereidingsmogelijkheden. Ik ga beginnen met 6 data schijven maar wil in de toekomst wel een beetje kunnen uitbreiden.
Llano zou wel een optie zijn maar ik wil graag ecc geheugen gebruiken en bij mijn weten kan dat niet op een Llano platform.
Vandaar ook mijn vraag of je een servermoederbord nodig heb wanneer je meer dan 16GB ecc ram wil inzetten. Als ik een Asus am3+ bord koop weet ik dat ik in combinatie met mijn x2 cpu unbuffered ecc ram kan gebruiken, echter maximaal 16GB ecc vs 32GB non-ecc ram als ik me niet vergis.
Ik vraag me af in hoeverre het gebruik van ecc ram van belang gaat zijn in mijn geval, de machine draait niet 24/7.
De vorige setup leek ook stabiel met de 4x4GB corsair modules maar de server sloeg onder windows af en toe vast na enkele dagen uptime. Uiteindelijk kwam ik er door memtest te draaien met telkens 1 module geïnstalleerd achter dat ik een slechte geheugen module had (deze module draaide ruim 6 uur memtest voordat er ineens een hele reeks errors verschenen).
Door ECC geheugen te gebruiken hoop ik iets meer stabiliteit te krijgen en dankzij logging iets eerder op de hoogte te zijn van eventuele problemen met het ram.

Ik zat zelf te denken aan de volgende componenten:
wenslijst: nas new
* Ik moet nog even nakijken of het geheugen geschikt is voor het moederbord en hoe het met de efficiëntie van de voeding zit.
Zonder serverbord krijg je echt geen meldingen van ECC meldingen... Dat moet namelijk via IPMI.

Even niets...


Verwijderd

Mag ik vragen waarom je ECC wilt als je toch dedicated storage gaat bouwen? Nu zeg ik niet dat ZFS goed tegen memory errors kan; je data raakt corrupt. Máár....

1) je kunt het wél detecteren; je wéét wanneer er iets gebeurt wat niet hoort aan de hand van checksum errors op de disks. Als deze zich over alle disks bevinden, is RAM corruptie een zéér aannemelijke oorzaak. Maar het punt hier is dat je WEET wanneer dit gebeurt. Dat is al ZO waardevol; geen silent corruption dat je maar moet gissen wat er aan de hand is. Nee, je weet wat er corrupt is en wat niet. Dat is al zo machtig!

2) je kunt in véél gevallen de corruptie weer corrigeren. Dit doordat bij een redundante array memory errors (bitflips) wel data corrumperen zoals de PDF van een tijd geleden suggereerde (geen link paraat).

Kortom, eigenlijk is ECC voor ZFS in thuissituaties niet zo héél cruciaal als je het zo bekijkt. Als je onverklaarbare checksum errors krijgt af en toe kan je dat aan non-ECC geheugen wijten. Maar die los je dus weer op door regelmatig een scrub te draaien. Met redundantie (het liefst RAID-Z2) moeten er per record (128KiB) dan minimaal 3 memory bitflips zitten om data permanent te corrumperen. Aangenomen dat je eerst goed test met MemTest86+ is dat extreem onwaarschijnlijk. En áls het gebeurt, is voorlopig alleen die file stuk, of dat gebied van een file. Metadata heeft altijd nog ditto copies dus nog éxtra een kopie inclusief ook weer redundantie. Kortom, ZFS kan écht wel tegen een stootje denk ik. Voor bedrijfskritische processen wil je áltijd ECC omdat je applicaties natuurlijk geen bescherming hebben tegen corruptie.

Er zit wel een zwak punt in mijn logica. Namelijk dat RAM bitflips die ZFS corruptie veroorzaken uiteindelijk dus wél naar de applicatie gaan. Dat betekent dat 'end-to-end data integrity' niet meer opgaat. Uh-Oh. Want... nu krijgen we het probleem: jouw applicatie was de Samba service die via het netwerk naar jouw Windows 7 desktop PC de data krijgt aangeleverd. In dit geval leest jouw win7 desktop dus corrupte data, die je bijvoorbeeld tijdens een kopiëeractie naar een externe backup schijf aan het schrijven was. Nu denk je ik kopiëer van ZFS dus het zal wel goed zijn dus mijn backup is ook goed. Niet dus!

Als je desktop PC geen ECC heeft kan Win7 zelf de data natuurlijk ook corrumperen maar omdat legacy NTFS geen grote write-back gebruikt in RAM (Intel RST drivers iets meer) is het risico daarvan EXTREEM véél kleiner dan bij ZFS het geval is. ZFS heeft meer last van RAM corruptie simpelweg omdat het héél héél veel meer RAM gebruikt dan de simpele write-back van een legacy filesystem.

Dus wat is wijsheid? Persoonlijk ik zou als je ZFS helemaal apart laat draaien daar gewoon goedkoop een Core i5 ivy bridge systeempje voor maken als je wilt met 4x 8GiB UDIMM ook lekker goedkoop en dan heb je met een IBM M1015 controller erbij een leuke uitbreidbare ZFS setup! Wel met ATX voeding dan.

Als je ECC wilt, zou ik het eerder doen voor de machine die virtual machines draait. Je applicaties hebben vooral ECC nodig, ZFS juist wat minder volgens mijn logica.

  • sloth
  • Registratie: Januari 2010
  • Niet online
FireDrunk schreef op zaterdag 18 augustus 2012 @ 23:44:
Mijn DQ77MK is binnen! Daarmee wil ik mijn huidige Dual Xeon van zijn NAS (en dus zijn 24/7-aan) functie beroven en een low power ZFSGuru systeem maken! 2U kast is er al, en 4x2TB F4EG ook. Ook een 120W PicoPSU heb ik al, nu alleen nog een goede 12V adapter en even kijken welke CPU ik erin ga doen. In eerste instantie ga ik om te testen waarschijnlijk de G620 uit mijn mediacenter slopen :)

Morgen maar eens kijken of ik nog een voeding rond heb slingeren die genoeg stroom kan leveren...

Iemand in omgeving Arnhem nog goede 12V adapter te koop? kom ik hem morgen halen :+
Is je keuze voor de DQ77MK omwille van vPro? Intel is wat zuinigheid en betrouwbaarheid top uiteraard, maar het bord is wel flink aan de prijs en 5 x onboard sata is ook weer niet extreem veel..
Welke 2U behuizing heb je genomen trouwens als ik vragen mag?

[ Voor 3% gewijzigd door sloth op 19-08-2012 00:36 ]

Ja vPro is tof :) Maar vooral omdat het een van de zuinigste borden momenteel is.

Even niets...


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
FireDrunk schreef op zondag 19 augustus 2012 @ 00:15:
Zonder serverbord krijg je echt geen meldingen van ECC meldingen... Dat moet namelijk via IPMI.
Hmm ik meende wel eens MCE entries te hebben gezien in de dmesg output van een systeem met een 890FX bord, waarschijnlijk verkeerd gezien dan.
EDIT: Heb even nagezocht hoe ik hier bij kwam: Ik zag een tijd geleden op het phoronix forum dat men onder Linux met de edac driver ecc meldingen kan logen, dus ik ben er eigenlijk vanuit gegaan dat er onder BSD ook wel een methode voor zou zijn.
Als ik totaal geen ecc meldingen kan traceren heeft het voor mijn nas ook niet zoveel nut nee.

[ Voor 21% gewijzigd door dutch_warrior op 19-08-2012 01:08 ]

Naar mijn weten (en die kennis is gedateerd) worden alleen niet herstelbare fouten gezien door de kernel. Dus alleen voorbij multiple bit errors (single bit errors zijn te fixen). Die single bit error counters kun je met IPMI uitlezen. Misschien hebben ze onder Linux en FreeBSD wel speciale registers gemaakt, daar heb ik nog nooit naar gezocht eerlijk gezegd.

Even niets...


Verwijderd

Ik ken wel /usr/ports/sysutils/ipmitool en ../freeipmi. Dus wellicht dat je met FreeBSD ook kunt wat je met Linux kunt? Geen idee, want geen van mijn bordjes ondersteunen IPMI.
IPMI zelf is op bijna alle platformen uit te lezen. Zelfs in userspace met php als je gek genoeg doet... Dat zal het probleem niet zijn :)

Even niets...


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Firedrunk en Cipher bedankt voor de uitleg :).
Ik heb een probleem met het kort en bondig uitleggen van wat ik nou precies wil en wat mijn gedachtegang achter bepaalde keuzes is. Dit keer probeerde ik het iets korter te houden maar dat is weer mislukt :P.
- Intel valt af, Q67/77 met v-pro is erg leuk maar ook een stukje duurder en in mijn geval heb ik v-pro niet nodig, als ik de nas gebruik ben ik on-site.
- Ik wil de NAS ook gebruiken als "shared storage" binnen mijn virtualisatielab daarom dacht ik dat ecc misschien handig kon zijn omdat mijn virtualisatiehost sowieso ecc ram krijgt en dan dus de hele chain voorzien zou zijn van ecc.

Ik heb op dit moment de keuze tussen: socket FM1 (Llano) en socket AM3+, Ik neig naar een Llano setup omdat ik met de a6-3600 een zuinige chip heb met toch nog een beetje power.
- Hoe zit het met de ondersteuning voor Llano in FreeBSD/ZFSGuru? (Ik meende hier te hebben gelezen dat de cpu gewoon netjes in snelheid schaalt, maar de gpu klokt die zich ook terug?)

Mijn keuze voor ecc ram kwam vooral vanuit troubleshooting oogpunt, het opsporen van de foutieve geheugenmodules uit een set van vier sticks heeft me vrij veel tijd gekost omdat de foutieve module pas na ruim 6 uur met memtest fouten vertoonde. Ik moet even nakijken in hoeverre ecc meldingen onder freeBSD zijn uit te lezen met een 990fx bord, als ik geen meldingen van het geheugen kan inzien dan ga ik sowieso voor het Llano platform.
Cipher, in het verleden was jij toch altijd erg overtuigd van het belang van ecc voor een stabiel systeem, hoezo is dat nu iets minder? Er is nog een "discussie" geweest met Q, hij was van mening dat het belang van ecc sterk werd overdreven hier op het forum.

Ik lees bijvoorbeeld op hardforums soms het argument: "Als je het ram meteen na aanschaf goed test dan is er weinig kans op problemen want ram modules gaan niet zo snel kapot tijdens gebruik."
In mijn geval waren alle modules na aanschaf 8uur memtest stable terwijl een half jaar later een module toch defecten begon te vertonen. Uit de post van Cipher leid ik af dat je het in de praktijk snel genoeg zal merken wanneer geheugen fouten genereert omdat ZFS dan ook checksum errors zal genereren, correct?
Ik snap dat ZFS niet kan weten of data uit het geheugen corrupt is dus tijdens het wegschrijven van nieuwe data kan er corruptie optreden maar dat is denk ik wel een aanvaadbaar risico aangezien ik niet direct onvervangbare of bedrijfskritische data zal hebben.

  • kingmob
  • Registratie: Augustus 2003
  • Laatst online: 05-11 11:33
Durandal schreef op zondag 29 juli 2012 @ 01:33:
King, ik heb hier nu 3 HDs, 2 TV kaarten, een M1015 controller kaart en een Asus E45M1 PRO draaien en het piekvermogen (tijdens de spin-up van de HDs dus) is ongeveer 109W, op een 520W Coolermaster voeding. Neem je een kleinere voeding, zoals een picopsu, dan gaat daar nog wat vanaf, bij gelijke efficientie.
Ik wil zelf ong 8 disks aan kunnen dus ik denk aan zoiets.
80 W lijkt mij een beetje magertjes. Zoek even bij de fabrikant de datasheets van je disks voor het piekvermogen (spin-up).


[...]

Vooor zover ik kan zien zijn ze net zo efficient als alle andere voedingen (80+). Ze zijn wel kleiner in vermogen, dus heb je minder verlies. Voor zover ik begrijp heb je bv bij een 80% efficente voeding van 1000W al een verlies van 200W dat opgaat in warmte. Bij een van 100W@80% (over het algemeen een pico) is dat maar 20W.
Let wel, al die fabrikant specs worden gemeten bij kamertemperatuur en je raad het al; de PSU blijft niet op kamertemperatuur want die wordt warm en gaat dan slechter presteren.

Verder zijn (kleine) pico's wel stil, maar normale voedingen maken ook niet heel veel lawaai en als je de server niet in je woonkamer zet maakt het niet uit. Grotere pico's hebben een fan in de adapter.

Klein is ook relatief. 2/3 van je voeding zit buiten de kast. Is maar hoe je het ziet ;)
Hartelijk dank voor de reactie(s). Beetje laat maar ik ben tussendoor op vakantie geweest, dus ik heb een excuus O-)

Ik denk dat ik mijn systeempje binnenkort ga bouwen en dan kom ik uiteraard terug met de ervaringen 8)
Ik hecht niet zoveel waarde aan ECC zoals hier rondzingt. End to end data integeriteit ligt niet alleen bij ecc maar bij nog veel meer componenten. Zowel software als hardware... cpu, disk controller. En niet te vergeten de kernel. Ik geloof echt niet dat ecc zaligmakend is... Als je geheugen kapot is merk je dat snel genoeg... dat is niet een kwestie van dagen eerder van minuten. En aangezien zfs altijd consistent blijft ben je dus hooguit een paar minuten data kwijt.

Even niets...


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ja ik snap dat data integriteit niet alleen van het geheugen afhangt, het kan op zoveel plaatsen misgaan, een brakke voeding kan ook al een hoop rotzooi veroorzaken.
Ik ga denk ik toch voor onderstaande hardware, door geen ecc ram te nemen zou ik ongeveer 35 euro besparen dat geld kan ik gebruiken om een SSD aan te schaffen.
wenslijst: nas new

Wat is op dit moment een geschikte ssd in combinatie met ZFSGuru?
Ik ben een beetje kwijt hoe het ook alweer zat met de verschillende caching, volgens mij was het handig om ZIL & L2ARC op een paar SSD's in mirror te zetten klopt dit nog?

Kan ik het OS en de caching vanaf dezelfde disk doen of is dit niet verstandig? In principe vraagt het OS zelf niet veel IO dus dat zou ook wel vanaf een laptop schijfje kunnen draaien toch?
Ik zat zelf te denken aan 2x 64GB samsung 830 of crucial m4 in mirror is dit handig of is een paar andere SSD beter bijvoorbeeld vanwege een gebrek aan supercaps op de samsungs en crucial's?

[ Voor 4% gewijzigd door dutch_warrior op 20-08-2012 14:12 ]

ZIL is beter gemirrored, L2ARC niet. ZIL kan je wel ongemirrored draaien en zal je pool niet corrupt raken, maar je kan wel data verliezen.

En ja je kan prima je OS draaien vanaf diezelfde SSD.

[ Voor 17% gewijzigd door FireDrunk op 20-08-2012 14:06 ]

Even niets...


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Maar ZIl en L2Arc kan wel op dezelfde disk?
Ik kan onder FreeBSD toch mirroren per slice? (Zo heet een gedeelte van een disk geloof ik?)
Of maak ik het mezelf heel moeilijk door gedeeltes van een disk te gebruiken in een mirror configuratie?
Dat kan wel, maar of dat dan de performance ten goede komt, durf ik niet te zeggen.
Als je echt heel veel RAM (over) hebt, word je ZIL amper gebruikt, want dan blijft alles in memory.
Alleen als je systeem het niet meer bij kan houden met SYNC writes word je Zil aangesproken volgens mij.

Even niets...


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Even een vraag. Nu inmiddels 5 weken geleden is mijn Samsung HD204UI 2TB Disk overleden.
Ik had 5 van deze schijven in een raidz 1 array met zfsguru.
Ik heb hier een vervanger voor gekregen, een Seagate ST32000542AS Deze drive overleed na 1 dag.

Afgelopen donderdag heb ik hiervoor een vervanger gehad ook een Seagate ST32000542AS
Deze geeft tikken
IDLE: 4/6 tikken per 60 minuten
Als ik een film kijk vanaf de server hoor ik tikken om de 50/60 seconde.

De afwijking die ik zie is dat dit de Seagate ST32000542AS een 5900rpm schijf is, en de Samsung HD204UI een 5400rpm schijf.
De schijf heb ik gister weer RMA gestuurd dit keer rechtstreeks met Seagate.

Nu heb ik aangegeven dat ik een Samsung HD204UI er voor in de plaats wil. Alleen worden deze niet meer gemaakt de stock is daarom beperkt.

Nu krijg ik als alternatief de Seagate ST2000DL001 ook dit is een 5900rpm schijf.
Wat raden jullie mij aan te doen?

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Hmm vervelende situatie, volgens de informatie die ik heb gelezen zouden verschillende toerentallen geen probleem moeten zijn, de performance wordt bepaald door de traagste disk en in dit geval is de vervangende schijf niet trager dus zou je er niet teveel van moeten merken.
Zijn de tikken die je hoort niet toevallig bijgeluiden van beweging van de kop van de schijf? Sommige schijven maken vrij veel kabaal als de kop stopt en start of heen en weer gaat van het ene uiterste naar het andere uiterste.

Heb je de schijf al eens in een ander systeem getest om de smart waarden te bekijken en te horen hoe hij dan klinkt?

@Firedrunk:
Klopt inderdaad wat je zegt, ik heb even gelezen over ZIL en L2ARC op dezelfde SSD en het advies is eigenlijk dat ik de verschillende scenario's even moet testen om te zien wat voor mijn gebruikspatroon de beste prestaties biedt.

[ Voor 28% gewijzigd door dutch_warrior op 21-08-2012 14:24 ]

Het mixxen van schijven heeft mij persoonlijk nog nooit problemen opgeleverd. Ik heb zelf momenteel 4 * Samsung naast 4 * WD draaien. En in mijn 2e server zitten Samsung schijven gemidt met Seagates.
Nog nooit last mee gehad.

Even niets...


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Owk bedankt voor de antwoorden.
De schijf die gister terug gegaan is voor RMA geeft met S.M.A.R.T. status healthy.
Ik heb deze met seatools getest op mijn Windows 7 PC (Sata to USB2.0) Dit gaf ook geen fouten. En ik heb alleen 1 tik gehoord tijdens het starten van de test. Verder tijdens het testen geen tikken gehoord.

Een mederwerk adviceerde mij de firmware te upgraden naar C35 dit heb ik geprobeerd. De update gaf aan dat de schijf geschikt was. Alleen was het niet mogelijk om te updaten.
Hierop werd mij verzocht de schijf RMA te sturen.

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Vreemde situatie, dan zou ik inderdaad kiezen voor de RMA want een tikkende schijf is meestal geen goed teken.
Mja, dat vind ik dan ook wel weer een beetje vreemd... Is het ding niet te updaten, stuur dan maar terug... 8-)
Maar ja, lekker belangrijk, je krijgt een nieuwe schijf. Goede server wat dat betreft...

@dutch_warrior, Dan rest de vraag: Waarom wil je ZIL? Verwacht je veel SYNC writes? (Door iSCSI) of heb je veel concurrency waardoor er misschien veel SYNC vanuit NFS komt?

Even niets...


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
.@FireDrunk
Op dit moment verwacht ik nog niet veel sync writes, ik ga straks de data van mijn losse schijven op de nas gooien en dan af en toe raadplegen maar verder doe ik er nog niet veel mee.
Ik heb nu een enkele 64GB Samsung 830 besteld, als ik later mijn virtualisatiehost ga bouwen dan plaats ik (indien nodig) wel ram of een ssd voor ZIL bij.

En inderdaad het is ook vreemd dat een medewerker van de support het even niet meer weet en dan maar een RMA laat starten. Dat zullen ze misschien doen om de afhandeltijd van calls acceptabel te houden.

EDIT: (indien nodig) toegevoegd ter verduidelijking :)

[ Voor 29% gewijzigd door dutch_warrior op 21-08-2012 14:24 ]

Je wil VM's draaien op je array? Ik zou dat op een SSDtje doen, dan kunnen je slurpende disks lekker in spindown op het moment dat ze niet gebruikt worden :)

Even niets...


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Is een optie ja, dat zie ik t.z.t. wel, virtualisatiehost ga ik eind dit jaar pas bouwen. Het is meer omdat ik wil kunnen testen met shared storage dat ik iscsi wil gaan gebruiken. Ik denk dat ik voor test doeleinden geen ZIL cache nodig heb.

De virtualisatiehost zelf krijgt gewoon een setje SSD's als lokale storage, het is een machine die ik puur ga inzetten voor studie en test doeleinden, ik ga er niets 24/7 op draaien net als dat de nas niet 24/7 aan zal staan. Ik heb een Llano machine voor streamen en opnemen van DVB-S TV, die pc staat ongeveer 12 uur per dag aan, en dat is ook het enige systeem wat ik echt iedere dag aan wil hebben, alle andere "servers" heb ik uitstaan of helemaal weggedaan :).

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Blijf het toch knap vinden dat ook na het adden van de 4e disk in mijn Raid5 array de writes sneller zijn dan de reads.

code:
1
2
3
4
5
6
7
8
[root@DKNAS2 ~]# dd if=/dev/zero of=/media/data/speedtest.bin bs=1M count=10K
10240+0 records in
10240+0 records out
10737418240 bytes (11 GB) copied, 31.1785 s, 344 MB/s
[root@DKNAS2 ~]# dd if=/media/data/speedtest.bin of=/dev/zero bs=1M
10240+0 records in
10240+0 records out
10737418240 bytes (11 GB) copied, 36.4914 s, 294 MB/s


Misschien dat de 4K chunksize daar iets mee te maken heeft?
MD of ZFS? natuurlijk, want anders heet het RAIDZ (knuppol)...

Heb je je readahead ingesteld? (/sys enzo...)

[ Voor 84% gewijzigd door FireDrunk op 21-08-2012 23:44 ]

Even niets...


  • kingmob
  • Registratie: Augustus 2003
  • Laatst online: 05-11 11:33
Ik heb nog wat moeite tussen het kiezen voor RaidZ en Raid5 momenteel.

Ik ben van plan om ubuntu server te draaien, of met software raid5, of met raidz, met name zodat ik een beetje redundancy krijg. Voor zover ik kan zien is raidZ voor alles beter maar heeft het een voor mij enorm nadeel, namelijk dat het later niet meer uitbreidbaar is. Raid5 is iets onveiliger, ik geloof ook wat trager, maar is wel uitbreidbaar. De vraag is dus een beetje geworden, zijn de extra's van RaidZ het waard voor mij?
  • Heeft iemand een benchmark van de winst met deduplication op een fileserver. Het lijkt mij dat dat namelijk nooit groot kan zijn (weinig vergelijkbare data).
  • Is er toegevoegde waarde van ingebouwde compression e.d.? Dat soort dingen kan ik ook instellen met specifieke software bij Raid5 lijkt me.
  • Is de strain op de cpu te hebben met een AMD450 bordje bij Raid5?
  • Zie ik nog voordelen over het hoofd?
Pagina: 1 ... 106 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.