3 x Marstek Venus 5.12KW V151. CT003 V114 en HW P1
Verwijderd
15 HDDs zou ik uitgaan van 15 * 18W = 270W. Plus 100W van je systeem = 370W piek. Bedenk ook dat een voeding een hoger wattage moet kunnen leveren als piekspanning. Maar 400W zou moeten kunnen. Als je nog wilt uitbreiden is 500W een veiligere keuze.
En qua kabels: gebruik als het even kan géén Molex-splitters maar enkel SATA Power splitters, die dus een SATA power stekker nodig hebben en er meerdere voor terug geeft.
[ Voor 18% gewijzigd door Verwijderd op 09-08-2012 13:58 ]
Misschien dat ik een deel heb gemist, maar je kan toch gewoon naar single socket met intel c600 chipset nemen ?FireDrunk schreef op donderdag 09 augustus 2012 @ 13:12:
Klopt, voor meer dan 32GB geheugen moet je ofwel naar AMD (C32, G34) of naar Intel Dual sockets.
Intel single socket met meer dan 32GB is er nog niet.
Zit bijvoorbeeld in de dell t320 server.
En snelle google geeft me dit supermicro bordje :
http://www.supermicro.com...board/xeon/c600/x9sra.cfm
pricewatch: Adaptec mSASx4 (SFF-8087) to SATA (4)x1 Cable (2236700-R)
Carpe Diem
Dan zit ik op dit moment hier op:
| # | Product | Prijs | Subtotaal |
| 1 | Asus F1A75-V PRO | € 77,33 | € 77,33 |
| 2 | Hitachi Deskstar 7K3000 HDS723020BLA642, 2TB | € 107,50 | € 215,- |
| 1 | Fractal Design Define XL Titanium Grey USB 3.0 | € 119,99 | € 119,99 |
| 2 | Adaptec mSASx4 (SFF-8087) to SATA (4)x1 Cable (2236700-R) | € 29,60 | € 59,20 |
| 1 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 114,24 | € 114,24 |
| 1 | FSP Aurum 500 | € 68,70 | € 68,70 |
| 1 | Kingston ValueRAM KVR1066D3S8N7K2/4G | € 21,45 | € 21,45 |
| 1 | AMD A6-3650 Boxed | € 69,90 | € 69,90 |
| Bekijk collectie Importeer producten | Totaal | € 745,81 | |
3 x Marstek Venus 5.12KW V151. CT003 V114 en HW P1
De 3600 is namelijk 35Watt zuiniger, kost wel iets meer.
[ Voor 9% gewijzigd door muppet99 op 09-08-2012 14:13 ]
Carpe Diem
Misschien dat de FSP op efficiëntie het wint van een Corsair CX bij lage belasting (een 500W versie bestaat), maar hoe zit het met de rails van de FSP? De 400W heeft in ieder geval een heerlijke marketing term:Verwijderd schreef op donderdag 09 augustus 2012 @ 13:58:
500W Aurum versie kan ook: pricewatch: FSP Aurum 500
15 HDDs zou ik uitgaan van 15 * 18W = 270W. Plus 100W van je systeem = 370W piek. Bedenk ook dat een voeding een hoger wattage moet kunnen leveren als piekspanning. Maar 400W zou moeten kunnen. Als je nog wilt uitbreiden is 500W een veiligere keuze.
Nu ben ik er niet verder achteraan gegaan, maar bij menig Corsair is er sprake van een no-nonsense single rail rail voeding. Dan hoef je niet na te denken hoeveel schijven je aan elke rail / kabeltak hangt. Hoe zit dat bij de FSP?Hybrid Synergy 12V Rail Design
Hybrid Synergy Design on 12v rails with max loads pledges compatibility to graphics cards and systems
Mijn wat sceptische opstelling komt omdat ik inmiddels wat jeuk krijg van een term als xyz ready en hybrid is daar voor mij vaak wel een variant op. Het is vaak typisch een...'ja het is het nu nog net niet, maar ...' en vaak een recept gebleken voor een halfbakken product voor iets dat eigenlijk net te vroeg is en de toekomstige support doorgaans schimmig is.
[ Voor 15% gewijzigd door Dadona op 09-08-2012 14:34 ]
Let wel op dat de tdp van een processor niets zegt over het verbruik als de computer idle is.muppet99 schreef op donderdag 09 augustus 2012 @ 14:12:
Rusty, ik had nog wel 1 vraag. Ben je bewust voor een 100W proc gegaan? Gezien het feit dat het een bak wordt welke dag en nacht aan staat, kan ik mij voorstellen dat er setjes zijn waarvan de proc een stuk minder verbruikt. Het verhoogd wel je aanschafprijs, echter worden je lopende kosten lager.
De 3600 is namelijk 35Watt zuiniger, kost wel iets meer.
(Wat een nas merendeel van de dag is waarschijnlijk)
Verwijderd
http://www.pc-experience.de/wbb2/thread.php?threadid=31516
Je hebt natuurlijk een punt dat voor een NAS met spinup power je gewoon single rail +12V wilt hebben, en die Corsair doet het op dat gebied wel goed. Maar zolang het opspinnen maar lukt; dat duurt 5 seconden die piekampere daarna gaat het om de idle power consumption en wil je dus liever die Aurum hebben dan een goede voeding met veel vermogen. De Corsair X850 ofzoiets is mij in het verleden aangeraden voor véél spinup power op één +12V rails. Het zal best een hele goede voeding zijn; maar mijn ervaring leert dat een kwaliteitsvoeding niets zegt over vermogen/efficiency bij lage loads (<10%). Juist op dit vlak zitten er grote verschillen tussen voedingen, waarbij oudere voedingen het gek genoeg soms flink beter doen dan nieuwere.
Neemt niet weg dat het zeker klopt dat een kwaliteitsvoeding (ongeacht 80 plus) op efficiëntie het kan afleggen. Ik zou dan ook maar wat graag zien dat 80 plus uitgebreid zou worden (en de meting wat anders zou zijn).
Verwijderd schreef op donderdag 09 augustus 2012 @ 13:43:
Verder één stick lijkt me beter; zuiniger dan twee sticks

Mux heeft dit gemeten en een enkele DIMM verbruikt minder dan 0,5 watt. Zelfs bij 24/7 gebruik heb je het dan over minder dan 1 euro op jaarbasis, daarvoor hoef je het echt niet te laten
Wel natuurlijk met het oog op uitbreidbaarheid, maar dat is dan weer een ander punt.
[ Voor 10% gewijzigd door sloth op 09-08-2012 15:23 ]
0,5 watt extra is uiteraard meer dan 0. Maar waar ga je de grens trekken?
Je hebt het over een meerverbruik dat verwaarloosbaar is. Ik ken niet alle geheugenprijzen uit m'n hoofd,maar als het goedkoper of beter verkrijgbaar is dan een single dimm, dan kan je toch beter gewoon 2 reepjes aanschaffen?
Zelfs vanuit milieuaspect is de impact op het milieu nihiel. Dan kan je beter een minuut minder lang douchen of een keertje vaker de trap i.p.v. de lift nemen..
Waar het mij vooral om gaat om een kleine nuancering aan te brengen i.p.v. blind te verkondigen "1 extra dimm is dodelijk voor een zuinige config!!1"
Doe je dit bij een 2,5" bootdisk i.p.v. een 3,5" of bij de keuze van een efficiënte voeding, prima. In dit geval: myth still busted
[ Voor 23% gewijzigd door sloth op 09-08-2012 15:30 ]
Bij 0sloth schreef op donderdag 09 augustus 2012 @ 15:27:
0,5 watt extra is uiteraard meer dan 0. Maar waar ga je de grens trekken?
Maar ik zei toch al dat het zonder meer niet rendabel is. Het speelt vooral bij upgrades. Helaas is er nog geen addon om twee modules op één geheugenbank te plaatsen. (Wat zou dat geweldig zijn!)
Verwijderd
Dus stel je hebe en systeem van 100 watt wat kost dat per jaar?
NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM
Verwijderd
NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM
[ Voor 27% gewijzigd door job op 09-08-2012 15:57 ]
CASE: Fractal Design Define XL USB 3.0 Black Pearl
POWER: Corsair HX750
4in1: SuperMicro Mobile Rack CSE-M14T
BOARD: Supermicro X7SPA-HF-D525
SATA EXP: SuperMicro AOC-SASLP-MV8
MEM: Kingston KVR1333D3E9SK2/8G
CACHEDRIVE: SSD Samsung 830 series 256GB Basic KIT
FLASHDRIVE: Kingston MobileLite G2
Drives: Zet ik over van mijn vorige setup.
Parity: 3TB Hitachi Green
Data: 7 * WD 2TB Green + 1 * WD 3TB RED
Geplande uitbreiding voor als het nodig wordt:
5 IN 3: ICY BOX 545SSK
SATA EXP: SuperMicro AOC-SASLP-MV8
Even niets...
Klopt, links laten liggen, voor ca. tien euro meer heb je een IBM M1015 (verkapte LSI9211/9240) waarvan bekend is dat 3 TB HDD's ook ondersteund zijn. IT mode firmware flashen en perfect te gebruiken voor een ZFS server machine.FireDrunk schreef op donderdag 09 augustus 2012 @ 19:30:
Zoals een stukje terug staat, kies dan niet voor de SASLP-MV8, dat is een oudere op Marvell gebaseerde controller. Niet echt top controllers...
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Let op dat je flashed op een machine met een normale BIOS. Op een UEFI kan het wel maar wordt de procedure een stuk ingewikkelder.Klopt, links laten liggen, voor ca. tien euro meer heb je een IBM M1015 (verkapte LSI9211/9240) waarvan bekend is dat 3 TB HDD's ook ondersteund zijn. IT mode firmware flashen en perfect te gebruiken voor een ZFS server machine.
Voor wat betreft die 80+ Certificeringen; die zijn gemeten bij kamertemperatuur (23 gr). Iets wat je voeding natuurlijk nooit gaat zijn als die aan staat (in je pc). Wordt die warmer, dan neemt de efficientie af.
Let ook op dat je load altijd boven de 20% van het vermogen van je voeding blijft. Daar onder neemt de efficientie ook erg af. 5% is dus een no-go.
Hier een lijst met 80+ voedingen en hun efficienties.
Waar ik trouwens niemand over hoor, is Staggered Spinup, waarbij de harddisk niet tegelijk maar beurtelings opgespind worden en zo het piekvermogen behoorlijk gedempt kan worden waardoor een kleinere en efficientere voeding in zicht kan komen.
Heeft hier iemand ervaring mee?
Single socket S2011 doet ook 128GB met 8 dimmsloten. 64GB is nog betaalbaar.FireDrunk schreef op donderdag 09 augustus 2012 @ 13:12:
Klopt, voor meer dan 32GB geheugen moet je ofwel naar AMD (C32, G34) of naar Intel Dual sockets.
Intel single socket met meer dan 32GB is er nog niet.
Mijn AMD Opteron bordje kan daarentegen 64GB aan (dmv 4 * 16GB Registered modules).
Er zijn borden met 1 CPU en 8 DIMM Sloten die elk 16GB DIMM's aankunnen... Maar dat is duur
Na een jaar of 2 tevreden geweest te zijn met mijn Synology DS110J en eigenlijk redelijk anti zelfbouw geworden te zijn ben ik toch maar weer begonnen met het zelf bouwen. Inmiddels zit er een 3TB disk in, maar ook die raakt langzaam weer vol. Wat nu?
Optie 1 was een 2-Bay Synology NAS kopen. Minimaal 170 euro ben ik dan kwijt. Wel heb ik dan de fantastische Synology software. Dat moet ik ze wel nageven: Als ze die software los te koop zouden zetten, zou ik het zo aanschaffen, want alles werkt zo stabiel, makkelijk en uitgebreid.... on-evenaarbaar wat mij betreft!
Maar toch maar niet.....
Heb al 1.5 jaar een Intel D510MO boardje + 2GB liggen die eigenlijk alleen maar stof hapt. Doe er helemaal niets mee. Kwa hardware is dat superieur aan de Marvell CPU's die in de goedkopere Synology NASjes zit.
Maar als ik die Atom meuk verkoop krijg ik er nauwelijks wat voor weer. Bovendien: Wat als die 2e disk van de tragere Synology disk ook volzit? Een nog duurdere en grotere NAS? Wordt het wel een dure hobby
Ben me ook te raden gegaan wat ik nu dan eigenlijk gebruik van die Synology software.... Eigenlijk voornamelijk het SMB, Mac File Service, Apple Time Machine, HTTP (PHP/MySQL) en FTP. DSAudio gebruik ik niet meer sinds ik een mediacenter heb (audio afspelen en streamen vanaf NAS)
Ik heb dus de Fractal Design Array R2 gekocht. Daar wil ik dan mijn 3TB disk op aan sluiten. Tevens een extra disk bij wil aanschaffen van 3TB. (Nog aanschaffen)
Mijn moederbordje die ik nu heb heeft 2 SATA aansluitingen, maar in de toekomst kan ik dus wel uitbreiden voor een ander board met meer, of een PCI-E adaptertje in dat nieuwe moederbord erbij prikken. Ik ben wat dat betreft flexibeler geworden.
Wil voorlopig dus een 3TB disk extra aanschaffen daar OS partitie op aanmaken en de rest van de disk storage. Mijn huidige disk er ook bij als datadisk. 6TB opslag dus.
Twijfel alleen nog een beetje voor het OS.
Puur voor SMB/Mac file services/TimeMachine/FTP/HTTP/PHP/MySQL, wat zouden jullie aanraden?
Het PHP/MySQL zou alleen voor wat test doeleinden zijn voor mezelf, niet om te gaan hosten...
Twijfel tussen FreeNAS en OpenMediaVault
Je hebt helemaal gelijk, ik ben nog in de illusie dat S2011 nog niet leverbaar isjadjong schreef op donderdag 09 augustus 2012 @ 23:42:
[...]
Single socket S2011 doet ook 128GB met 8 dimmsloten. 64GB is nog betaalbaar.
@Duncan
Apache op FreeNAS? Heb je dan wel genoeg extra packages tot je beschikking zoals php-gd enzo?
===
Ik zit er zelf over na te denken om de meest gebruikte data op mijn server (Films, TV Series en wat documenten) te migreren naar een zuinigere kleine server zodat mijn main server uit kan als ik niets aan het testen ben.
Na de goede verhalen van AMD van anderen, ben ik eens op zoek gegaan naar statistieken.
Maar als ik dit diagram (Bron: http://www.xbitlabs.com/a...sion-intel-core-i3_8.html)

Mag geloven, is AMD dus echt niet zuiniger... Ookal stelt het diagram dat AMD zuiniger is, je ziet dat het het moederbord is dat bij Intel hier de test de nek omdraaid... De CPU's zijn in idle duidelijk zuiniger.
Iemand die hier meer van weet?
Misschien dat mensen zeggen, ja maar de A4 is een quadcore:

De dualcores van Intel rennen de quad cores van AMD er uit...
En WinRAR is nou juist een van de dingen die deze server veel gaat doen (SabNZBD / PAR2)
Overigens is Brazos geen optie, want dan heb ik te weinig PCIe lanes...
[ Voor 79% gewijzigd door FireDrunk op 10-08-2012 10:44 ]
Even niets...
Bordjes zijn wel flink aan de prijs nog vind ik, en ik denk dat de bijbehorende procs ook niet echt zuinig genoemd kunnen worden ?
Al met al wel een interessante oplossing voor de toekomst, mocht ik ooit geheugen tekort gaan komen (al lijkt me dat sterk).
Even niets...
Wat ik me afvraag bij deze aanpak is hoe jullie een overzicht bewaren met welke mappen en bestanden je op je offline nas staan hebt?
Je zou natuurlijk een scriptje kunnen schrijven wat "ls -l" loopt doorheen al je mappen en vervolgens naar een logbestand wegschrijjft, maar er moeten vast toch handigere manieren hiervoor bestaan?
Wat me erg handig lijkt is bv. een 1:1 kopie te hebben waarvan alle bestanden 0 byte groot zijn, zodat je precies weet wat de inhoud van je offline storage is.
Wat is jullie oplossing hiervoor?
Seriously ? The supermicro card work fine with 3 and 4 tb drives for a lot of users ( I am talking unraid, therefor linux and not windows). I would be fine with the ibm card but it is a bit more expensive (not much).Pantagruel schreef op donderdag 09 augustus 2012 @ 21:42:
[...]
Klopt, links laten liggen, voor ca. tien euro meer heb je een IBM M1015 (verkapte LSI9211/9240) waarvan bekend is dat 3 TB HDD's ook ondersteund zijn. IT mode firmware flashen en perfect te gebruiken voor een ZFS server machine.
Als je voedingen zonder MOV gaat adviseren voor een server zou ik er ook een overspanningsbeveiliging of UPS bij adviseren.Verwijderd schreef op donderdag 09 augustus 2012 @ 13:58:
500W Aurum versie kan ook: pricewatch: FSP Aurum 500
Maar ik zou sowieso geen FSP Aurum adviseren als je vaak voor een paar euro meer een veel betere Super Flower Golden Green kan krijgen.
[ Voor 16% gewijzigd door -The_Mask- op 11-08-2012 11:44 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
(bron)MOV (Metal Oxide Varistor) or varistor (...) is responsible for cutting voltage spikes (transients) found on the power line. This is the exact same component found on surge suppressors. The problem, though, is that cheap power supplies don’t carry this component in order to save costs. On power supplies with a MOV, surge suppressors are useless, since they have already a surge suppressor inside them.
[ Voor 11% gewijzigd door Dadona op 11-08-2012 11:51 ]
http://www.planet3dnow.de...838&garpg=5#content_startDadona schreef op zaterdag 11 augustus 2012 @ 11:45:
-The_Mask-, heb jij enig idee hoe die Super Flower het doet in vergelijking met de be quiet! Efficient F1 350W qua efficiëntie rond de 20W ?
Volgens deze review een rendement van bijna 81% op 230V.
Review's lezen, maar er zijn een aantal merken die weinig gebruik maken van een MOV dat zijn sowieso FSP en Super Flower.EnerQi schreef op zaterdag 11 augustus 2012 @ 11:48:
En hoe kun je zien of een voeding MOV heeft?Volgens mij staat het niet beschreven in de pricewatch of webshops.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
That defeats the whole point; het punt is hier lage idle power. Als je er toch een UPS op gaat hangen, hoe kom je dan aan de 15W idle aan het stopcontact? Dat lijkt mij lastig.-The_Mask- schreef op zaterdag 11 augustus 2012 @ 11:41:
Als je voedingen zonder MOV gaat adviseren voor een server zou ik er ook een overspanningsbeveiliging of UPS bij adviseren.
Beter in welke zin? Meer efficient bij 5% belasting? Dáár gaat het hier om namelijk. Een voeding met voldoende spinup power voor die 7 seconden dat je het nodig hebt tijdens de boot, en daarna een die op laag vermogen nog zeer efficiënt is. Die 80-plus testen maar op 20% load en héél soms 10%, maar lager dus niet. 10% van een 800W voeding is nog steeds 80W DC load dus zeg tegen de 90W AC. Heel wat anders dan 15W AC (nee, niet DC!).Maar ik zou sowieso geen FSP Aurum adviseren als je vaak voor een paar euro meer een veel betere Super Flower Golden Green kan krijgen.
Als jij zegt dat die andere voeding kwalitatief veel beter is, dan is dat een ander verhaal en ook het overwegen waard. In mijn ervaring kunnen kwalitatief hoogwaardige voedingen echter zeer onzuinig zijn op lage belastingen. Ze zijn vaak ook gemaakt voor systemen met meerdere videokaarten in SLI en aparte rails. Ik weet niet of jouw voeding daar onder valt, maar mijn punt is dat een kwalitatief hoogwaardige voeding nog niet de beste voeding voor een zuinige NAS hoeft te zijn.
Toevallig daarnet bij TreeCopy uitgekomen.sloth schreef op zaterdag 11 augustus 2012 @ 11:02:
Er zijn aardig wat tweakers die hun NAS uit laten, en 1x per week ofzo al hun files synchroniseren.
Wat ik me afvraag bij deze aanpak is hoe jullie een overzicht bewaren met welke mappen en bestanden je op je offline nas staan hebt?
Je zou natuurlijk een scriptje kunnen schrijven wat "ls -l" loopt doorheen al je mappen en vervolgens naar een logbestand wegschrijjft, maar er moeten vast toch handigere manieren hiervoor bestaan?
Wat me erg handig lijkt is bv. een 1:1 kopie te hebben waarvan alle bestanden 0 byte groot zijn, zodat je precies weet wat de inhoud van je offline storage is.
Wat is jullie oplossing hiervoor?
Dit was ongeveer wat ik hebben wou
Ik gebruik rdiff-backup.sloth schreef op zaterdag 11 augustus 2012 @ 20:58:
[...]
Toevallig daarnet bij TreeCopy uitgekomen.
Dit was ongeveer wat ik hebben wou
Sinds de 2 dagen regel reageer ik hier niet meer
Ben enkele maanden terug wel paar dagen bezig geweest om stuk of 20 software pakketten te testen voor syncen. Toen mee gestopt omdat ik geen geschikte kon vinden. Zal denk eerder een kwestie van inconsistente eisen zijn.
Het liefst zie ik elke week backup/sync van 1 of enkele folders.
Dan elke maand een full image van een systeem, zodat ik die later eventueel terug kan zetten.
Het laatste wat me opvalt, is dat Sabnzbd echt enorm slecht bezig is als het gaat om dingen uitpakken.
Zelfs als mijn data 100% correct is geeft die nog een CRC fout, soms pas na 3x opnieuw te doen lukt het.
Gezien data correct is, ga ik er niet vanuit dat het aan mijn newsserver ligt. Ben ik de enige met dit probleem?
Morgen maar eens spelen met backup mogelijkheden.
The config utility van mij SASUC8I controller zegt:
Direct Attached Spinup Delay (Secs)
This field specifies the number of seconds to wait between spinups of devices. Vaild only when the device is configured (jumpered) to require a spinup.
Hoe weet ik of het werkt?
Verwijderd
Voor m'n Rsync's gebruik ik QtdSync.
Easy en goed !
Die Rsync tool van Qnap zelf werkte voor geen meter, terwijl deze het prima doet
[ Voor 17% gewijzigd door Verwijderd op 12-08-2012 02:32 ]
Ik zal er morgen even één halen.GioStyle schreef op zondag 12 augustus 2012 @ 01:24:
Door een energiemeter te gebruiken? Eerst geen delay gebruiken, kijken wat de piek is bij een boot en vervolgens wel een delay instellen, en kijken of de piek dan lager is.
Echter ben ik wel benieuwd of dit standaard werkt met deze schijven.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik heb vanmorgen de review op hardware.info gelezen over energie meters. Ik dacht deze morgen even te halen Cresta RCE-1106 die kwam als beste uit de test. Iets anders is ook prima natuurlijk.-The_Mask- schreef op zondag 12 augustus 2012 @ 12:00:
Je zult wel een beetje goede meter moeten nemen, ik denk niet dat alle meters zullen voldoen, piek is immers mmaar vrij kort.
Luisteren en voelen?Phasis schreef op zondag 12 augustus 2012 @ 01:15:
Kan iemand mij vertellen of staggered spin-up met Samsung HD204UI schijven out of the box werkt of moet ik dit dmv jumpers doen? Gezien Samsung schijven nu via Seagate gaan is er eigenlijk geen informatie te vinden.
The config utility van mij SASUC8I controller zegt:
Direct Attached Spinup Delay (Secs)
This field specifies the number of seconds to wait between spinups of devices. Vaild only when the device is configured (jumpered) to require a spinup.
Hoe weet ik of het werkt?
Even niets...
Helaas valt die Cresta dus best tegen. De twee meters waar je achteraan zou moeten zijn of de Energy Monitor of de Energy Logger. Ze zijn duurder, maar ook beter. De twee meters zijn te koop bij Conrad en nog altijd niet in de aanbieding geweest in een paar weken tijd.Phasis schreef op zondag 12 augustus 2012 @ 12:05:
[...]
Ik heb vanmorgen de review op hardware.info gelezen over energie meters. Ik dacht deze morgen even te halen Cresta RCE-1106 die kwam als beste uit de test. Iets anders is ook prima natuurlijk.
De keuze tussen de twee hangt af van of je de logging functionaliteit wil en de iets betere interne componenten van de Logger. Uiteindelijk kun je met beide meters prima metingen afnemen, waar dat bij de Cresta tegenvalt.
Lees ook hier een aantal reacties door
Verwijderd
Dus afhankelijk van je schijf moet je pin 11 doorboren, althans dat herinner ik me in het verleden dat mensen dit deden. Zo gaat de schijf niet automatisch opspinnen zodra het stroom heeft, en werkt de staggered spinup van je controller dus zoals hij bedoeld is.It turns out that some SATA drives (notably from WD) have a jumper on the drive for enabling and disabling staggered spin up. Others (notably Seagate) use pin 11 of the SATA power connector for enabling staggered spinup. Disabling staggered spin up happens when pin 11 is grounded, enabling happens when it’s open. It took me a few days to find that out.
Thanks ik ga hier even naar kijken. Uit de test bij hardware.info kwam die van Conrad Energy Monitor en die Cresta goed uit te de test. En het prijs verschil is vrij pittig. Dus vandaar mijn keuze voor de Cresta.Dadona schreef op zondag 12 augustus 2012 @ 12:31:
[...]
Helaas valt die Cresta dus best tegen. De twee meters waar je achteraan zou moeten zijn of de Energy Monitor of de Energy Logger. Ze zijn duurder, maar ook beter. De twee meters zijn te koop bij Conrad en nog altijd niet in de aanbieding geweest in een paar weken tijd.
De keuze tussen de twee hangt af van of je de logging functionaliteit wil en de iets betere interne componenten van de Logger. Uiteindelijk kun je met beide meters prima metingen afnemen, waar dat bij de Cresta tegenvalt.
Lees ook hier een aantal reacties door
Dit had ik inderdaad ook gelezen alleen dit is voor WD schijven. Hoe dit bij de Samsung HD204UI zit kan ik nergens vinden. Ik lees hier dat staggered spin up wel wordt ondersteund. Dat is iedergeval goed nieuws.Verwijderd schreef op zondag 12 augustus 2012 @ 12:35:
Voor staggered spinup heb je volgens mij een aangepaste SATA power cable nodig:
[...]
Dus afhankelijk van je schijf moet je pin 11 doorboren, althans dat herinner ik me in het verleden dat mensen dit deden. Zo gaat de schijf niet automatisch opspinnen zodra het stroom heeft, en werkt de staggered spinup van je controller dus zoals hij bedoeld is.
Vandaar dat ik dacht even polsen er zullen vast mensen voor mij zijn geweest...
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
In theorie lijkt me dit best leuk:
-Goedkoop
-Fanless
-6x sata
-Zuinig
-Mini-ITX
Alleen maak ik me zorgen om de haalbare prestaties door de AMD C60 die maar op 1GHz werkt.
Veel kan ik er helaas niet over terugvinden. Iemand een idee of full gigabit snelheden hiermee haalbaar zijn indien je het alleen maar als dedicated NAS gebruikt?
Ook zijn er schijnbaar wat problemen met de onboard nic (Realtek 8111F) die niet meteen in FreeBSD herkent wordt. Dit met het oog op ZFSGuru compatibiliteit.
[ Voor 20% gewijzigd door sloth op 12-08-2012 22:55 ]
Verwijderd
En je netwerk zou wel moeten werken, getuige:
Dat betekent dat ZFSguru image 9.1-002 dus die nieuwe ondersteuning zou moeten hebben.Support for RTL8168/8111F was added after releasing 9.0-RELEASE.
Use 8.3-RELEASE or latest stable.
[ Voor 21% gewijzigd door Verwijderd op 12-08-2012 23:02 ]
Ben al een geruime tijd hier aan het meelezen, heb ook al lang een account maar nooit echt iets gepost, vandaag toch maar eens mijn eerste stapje zetten hier op de GoT.
Ik studeer informatica en ik ben ook heel erg geïnteresseerd in opslag/servers. Nu ga ik eindelijk mijn eigen server / NAS bouwen (de 1TB NASwerd echt veel te klein
Nu zit ik een beetje vast bij de harde schijven / het OS. Ik ben vrij nieuw in *UNIX systemen , maar ik zou toch graag Ubuntu Server willen gebruiken icm. een software raid (liefst raid5). Ik weet niet of ik gebruik moet gaan maken van ZFS of iets anders, en of Ubuntu Server ook harde schijven van 3TB ondersteunt.
Graag had ik 4 schijven van 3TB in een raid5. Dit verkies ik toch wel boven 6 schijven van 2TB in een raid 5. Ik zoek niet echt aankoop advies , obviously niet het goede topic voor
Ook heb ik gekeken naar FreeBSD/FreeNAS, maar hier werd ik niet echt wijs uit. Ubuntu Server lijkt mij het makkelijkst als torrent server / file server (samba) / LAMP server en als VM host. Het wordt dus eigenlijk een beetje een all-in-one type server
Alles wordt rechtstreeks op het MOBO aangesloten, geen raid controller, heb ik geen budget voor. (die studenten toch...)
Recap: Schijven >2TB mogelijk? Welk OS ? RAID config ? Tips?
Dude, er is een heel topic vol tips. Waar wil je dat we beginnen?Hendrikkkk schreef op zondag 12 augustus 2012 @ 23:23:
Recap: Schijven >2TB mogelijk? Welk OS ? RAID config ? Tips?
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
Ik heb echt heel veel gelezen, trust mewebfreakz.nl schreef op zondag 12 augustus 2012 @ 23:29:
[...]
Dude, er is een heel topic vol tips. Waar wil je dat we beginnen?![]()
Waarom wil je RAID5?Hendrikkkk schreef op zondag 12 augustus 2012 @ 23:30:
[...]
Ik heb echt heel veel gelezen, trust me, maar das net het probleem , ik zie door de bomen het bos niet meer. ZFS op Ubuntu , ja het gaat , maar anderen zeggen dat het weer niet zo goed is. In de documentatie op de ubuntu website stond iets dat >2TB niet mogelijk was. En toch wil ik graag Ubuntu Server als main OS. Daarom dat ik hier de vraag kom stellen
Omdat ik redundantie wil zonder al te veel aan plaats te moeten inboeten. Ik weet dat RAID5 alle data kan verliezen als je de array moet rebuilden , maar RAID6 , daar verlies je ineens al 2 schijven mee. Ik wil zoveel mogelijk opslag met zonder daar al te veel voor te hoeven inboeten. Op dit apparaat komen alle gegevens die ik bezit, dus het zou zonde zijn moest ik deze verliezen (al bestaat die kans ook wel bij het rebuilden van een raid5 array...)
Ik weet echt niet meer wat ik er mee moet
RAID is geen backup ... je belangrijkste data kan je beter backuppen, alle andere data classificeren en zo nodig ook een backup van maken als je dat nodig acht. RAID in een thuis oplossing is leuk maar het nut ontgaat me nogal. Dus die extra 3TB kan je ook voor iets anders inzettenHendrikkkk schreef op zondag 12 augustus 2012 @ 23:39:
[...]
Omdat ik redundantie wil zonder al te veel aan plaats te moeten inboeten. Ik weet dat RAID5 alle data kan verliezen als je de array moet rebuilden , maar RAID6 , daar verlies je ineens al 2 schijven mee. Ik wil zoveel mogelijk opslag met zonder daar al te veel voor te hoeven inboeten. Op dit apparaat komen alle gegevens die ik bezit, dus het zou zonde zijn moest ik deze verliezen (al bestaat die kans ook wel bij het rebuilden van een raid5 array...)
Ik weet echt niet meer wat ik er mee moet
RAID beschermd je ook niet tegen virussen of data corruptie, los van hardware uitval.
Ik wil films/foto's etc. op een grote schijf kunnen zetten (de grote schijf zijnde een combinatie van meerdere fysieke apparaten). Ook wil ik , dat als 1 van deze schijven stuk gaat, dat mijn data nog leesbaar is , en niet verloren gaat. Natuurlijk maak ik back ups van de belangrijkste dingen , maar redundantie acht ik ook wel hoog in het vaandel. Ik zie geen andere oplossing dan een RAID configuratie hier. Natuurlijk maak ik van de belangrijkste dingen ook nog extra back-up's hoor.redfoxert schreef op zondag 12 augustus 2012 @ 23:42:
[...]
RAID is geen backup ... je belangrijkste data kan je beter backuppen, alle andere data classificeren en zo nodig ook een backup van maken als je dat nodig acht. RAID in een thuis oplossing is leuk maar het nut ontgaat me nogal. Dus die extra 3TB kan je ook voor iets anders inzetten
RAID beschermd je ook niet tegen virussen of data corruptie, los van hardware uitval.
Verwijderd
Om zomaar te adviseren om twee fileservers te nemen is vaak onzin. Je kunt het slimmer aanpakken met:
- betrouwbare ZFS laag met redundantie voor casual data (films, muziek)
- extra backup op USB stick die je elders bewaart, extra belangrijke documenten kun je meerdere keren backuppen
Hierdoor hou je de kosten laag en bereik je ongeveer hetzelfde effect.
Aan Hendrik met vier k's: je kunt in virtualbox eerst wat oplossingen uitproberen: Linux met md/mdadm met ZFS module, FreeNAS, ZFSguru, Nexenta. Zo kun je iets vinden wat bij jouw wensen aansluit.
Zelf werk ik aan ZFSguru wat overigens wel voldoet aan je opgegeven wensen (torrent, samba, FAMP, virtualbox) - andere oplossingen zullen bijvoorbeeld standaard virtualbox functionaliteit missen, maar hebben wel weer andere voordelen. Gewoon uitproberen dus!
En voor een goedkope ZFS NAS build hoef je in dit topic toch niet ver terug te zoeken?
Als jij met Informatica bezig bent, is een zelfbouw ZFS NAS een uitstekende manier om kennis op te doen en je blikveld te verruimen!
[ Voor 5% gewijzigd door Verwijderd op 13-08-2012 00:08 ]
Dit is inderdaad heel interessant. Ik heb me in mijn virtueel lab al bezig gehouden met Ubuntu Server icm. ZFS. Dit werkte gewoon. Ook vind ik ZFS een heel interessant bestandssysteem. Mijn hardware heb ik praktisch allemaal, ik moet gewoon nog een resem schijven hebben en dan valt het nog te bezien hoe ik deze inricht , dus nog steeds benieuwd of 3TB ondersteund wordt in unix.Verwijderd schreef op maandag 13 augustus 2012 @ 00:07:
RAID is geen backup, maar ZFS is geen RAID. Ook ZFS is geen backup, maar het beschermt wel tegen meer gevaren dan alleen RAID kan. Hiermee doel ik specifiek op bescherming tegen corruptie en de snapshot functionaliteit, waarmee je ook bescherming krijgt tegen perongeluk verwijderen, virussen en dat soort ongein.
Om zomaar te adviseren om twee fileservers te nemen is vaak onzin. Je kunt het slimmer aanpakken met:
- betrouwbare ZFS laag met redundantie voor casual data (films, muziek)
- extra backup op USB stick die je elders bewaart, extra belangrijke documenten kun je meerdere keren backuppen
Hierdoor hou je de kosten laag en bereik je ongeveer hetzelfde effect.
Aan Hendrik met vier k's: je kunt in virtualbox eerst wat oplossingen uitproberen: Linux met md/mdadm met ZFS module, FreeNAS, ZFSguru, Nexenta. Zo kun je iets vinden wat bij jouw wensen aansluit.
Zelf werk ik aan ZFSguru wat overigens wel voldoet aan je opgegeven wensen (torrent, samba, FAMP, virtualbox) - andere oplossingen zullen bijvoorbeeld standaard virtualbox functionaliteit missen, maar hebben wel weer andere voordelen. Gewoon uitproberen dus!
En voor een goedkope ZFS NAS build hoef je in dit topic toch niet ver terug te zoeken?
Als jij met Informatica bezig bent, is een zelfbouw ZFS NAS een uitstekende manier om kennis op te doen en je blikveld te verruimen!
Mijn belangrijkste data heb ik op meerdere locaties natuurlijk, maar ik wil voorzien zijn op een faulty spare of het random crashen van 1 tot 2 hardeschijven (Raid5 of Raid6). Iemand een idee of 4 x 3TB werkt i.c.m. ZFS-fuse onder ubuntu ? (heb slechts getest met een 4 tal virtual box schijven van 8GB
Sloth, ik geef jou bij deze een one-size-fits-all paar:sloth schreef op zondag 12 augustus 2012 @ 22:49:
Heeft iemand ervaringen met een DIY NAS op basis van pricewatch: Asus C60M1-I?
Ik zit nu ook al een tijdje te wachten tot de eerste review verschijnt, vooral wat het verbruik betreft. Winstpunt is dat je niet met de ventilator zit, zoals op één van de mooiste (maar EOL ? ) Brazos borden, de borden van MSI (CiPHER heeft er één). Maar Asus liep altijd een eindje achter op MSI.
Nu ben ik nog wel zo eerlijk om te zeggen dat de snellere tegenhanger momenteel op V&A staat: V&A aangeboden: Asus E35M1-I Maar misschien dat een snelle test van CiPHER de grootste twijfel weg kan halen.
Waarschijnlijk de laatste kans dat je dit bord nog kan kopenV&A aangeboden: Asus E35M1-I Maar misschien dat een snelle test van CiPHER de grootste twijfel weg kan halen.
Zou der een opvolger komen?
NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM
3TB disks gaat wel werken onder Ubuntu hoor. Vorige week toevallig nog getest met 2xHItachi 4TBs en het OS zag ze gewoon (disks staan trouwens in V&A als iemand ze zoekt).Hendrikkkk schreef op maandag 13 augustus 2012 @ 00:13:
[...]
Dit is inderdaad heel interessant. Ik heb me in mijn virtueel lab al bezig gehouden met Ubuntu Server icm. ZFS. Dit werkte gewoon. Ook vind ik ZFS een heel interessant bestandssysteem. Mijn hardware heb ik praktisch allemaal, ik moet gewoon nog een resem schijven hebben en dan valt het nog te bezien hoe ik deze inricht , dus nog steeds benieuwd of 3TB ondersteund wordt in unix.
Mijn belangrijkste data heb ik op meerdere locaties natuurlijk, maar ik wil voorzien zijn op een faulty spare of het random crashen van 1 tot 2 hardeschijven (Raid5 of Raid6). Iemand een idee of 4 x 3TB werkt i.c.m. ZFS-fuse onder ubuntu ? (heb slechts getest met een 4 tal virtual box schijven van 8GB)
Ik geloof dat je er ook van kan booten mer een UEFI bios, maar dat heb ik niet geprobeerd.
Neem wel Ubuntu Server 12.04 LTS voor de long term support, anders moet je veel te snel weer herinstalleren.
Zelf heb ik niet voor fuse gekozen maar voor de kernel compilatie. Dit zou sneller moeten zijn. Er is een Ubuntu PPA file die de boel voor je installeert en voorlopig werkt het prima.
Nog FF wat anders - ik meen ergens tegengekomen te zijn dat het mogelijk is bepaalde folders op je ZFS volume uit te rusten met extra redundatie. B.v. je documenten met 2x redundant, en je films met 1x, op je RaidZ. Weet iemand hoe dit werkt?
Er zijn meerdere manieren om te zorgen dat een drive niet direct opspint als de voedingsspanning erop komt.
Op de controller wordt dit feature meestal 'staggered spinup' genoemd maar op de drive heet het 'power-on in standby'.
Een drive kent meerdere statussen met bijbehorend energieverbruik.
In volgorde van energiegebruik (hoog naar laag):
Seeking/reading/writing gebruiken het meeste energie.
Active-idle: de platters draaien en de heads zweven boven de platters (niet geparkeerd).
Na enige tijd in active-idle kan een drive de koppen optillen en even later parkeren.
Standy: de platters spinnen niet, alleen de electronica is aktief zodat commando's kunnen worden ontvangen.
Sleep: disk komt alleen op na reset of power-cycle.
Sommige drives kennen ook nog slowspin (bijvoorbeeld van 7200 naar 5200 tpm).
Wat je wil bereiken is dat de drive bij power-up naar standby gaat.
De opties:
Sommige drives hebben een jumper (zal wel met pin 11 verbonden zijn).
De meeste supporten een commando.
Pin11 disconnecten. Zit soms verwerkt in de backplane van een diskarray.
Om pin 11 te disconnecten kun je inderdaad door pin11 van je sata connector heenboren.
Dat trucje heb ik bedacht. Staat ergens een artikel van me over dat boren op tweakers met plaatjes.
Als je gaat boren zou ik dat eerst even lezen...
Maar waarschijnlijk kun je het af met het commando hdparm (ik heb het zelf nog niet geprobeerd).
Specifiek de optie -s, die je overigens absoluut niet op je bootdisk(en) moet toepassen anders zal je systeem nooit opkomen.
Van de manpage:
-s
Enable/disable the power-on in standby feature, if supported by the drive. VERY DANGEROUS. Do not use unless you are absolutely certain that both the system BIOS (or firmware) and the operating system kernel (Linux >= 2.6.22) support probing for drives that use this feature. When enabled, the drive is powered-up in the standby mode to allow the controller to sequence the spin-up of devices, reducing the instantaneous current draw burden when many drives share a power supply. Primarily for use in large RAID setups. This feature is usually disabled and the drive is powered-up in the active mode (see -C above). Note that a drive may also allow enabling this feature by a jumper. Some SATA drives support the control of this feature by pin 11 of the SATA power connector. In these cases, this command may be unsupported or may have no effect.
Volgens de pagina over hdparm op wikipedia:
Before using hdparm it is important to read its man page, and (if testing any of its dangerous parameters) to have a full backup of everything on the drive.
Probeer het met een oude disk (van hetzelfde merk).
Blijkbaar werkt het als een toggle. Om het commando weer uit te schakelen moet je nog een keer hdparm -s gebruiken.
Als je het niet kunt testen of niet aandurft dan zou ik het boren proberen...
Een sata powerkabel is een stuk goedkoper dan een disk.
Ik heb de sources van de Linux diskdrivers wel eens doorgenomen en daar zag ik dat een startup commando wordt gestuurd. Volgens die manpage van hdparm zit dat er sinds 2.6.22 in.
Het aktiveren van staggered spinup op de controller was op mijn Areca niet voldoende om te zorgen dat de controller ook de aangesloten disken ging programmeren met 'power-on in standby'.
Het enige wat ik indertijd kon vinden was die pin11 afhankelijkheid en omdat ik het niet zag zitten om aan de disken zelf te gaan solderen kwam ik op het doorboren van pin11 uit.
Maar bij de volgende server die ik bouw ga ik eerst dat commando proberen.
Succes!!
Wat bedoel je precies met one-size-fits-all? Ik vat 'm even niet.Dadona schreef op maandag 13 augustus 2012 @ 00:16:
[...]
Sloth, ik geef jou bij deze een one-size-fits-all paar:
[afbeelding]
Ik zit nu ook al een tijdje te wachten tot de eerste review verschijnt, vooral wat het verbruik betreft. Winstpunt is dat je niet met de ventilator zit, zoals op één van de mooiste (maar EOL ? ) Brazos borden, de borden van MSI (CiPHER heeft er één). Maar Asus liep altijd een eindje achter op MSI.
Asus loopt idd achter wat zuinigheid betreft op Intel / MSI. Toch verwacht je een laag verbruik omdat er niet veel overbodige meuk opzit.
Verder wist ik niet dat die C-60 clock-per-clock even snel als een E-350 is. Volgens deze vergelijking zijn ze m.u.v. de kloksnelheid en TDP identiek.
De C-60 heeft blijkbaar trouwens een turbo optie waardoor je wanneer je het nodig hebt 1,33GHz ter beschikking hebt. Dit is slechts 267MHz minder dan een E-350. Verwaarloosbaar lijkt me.
Dat kan met copies=x. Is voor mij een van dé redenen om op ZFS over te stappen.Durandal schreef op maandag 13 augustus 2012 @ 01:53:
[...]
Nog FF wat anders - ik meen ergens tegengekomen te zijn dat het mogelijk is bepaalde folders op je ZFS volume uit te rusten met extra redundatie. B.v. je documenten met 2x redundant, en je films met 1x, op je RaidZ. Weet iemand hoe dit werkt?
Erg interessant om te lezen, bedankt voor je post!Dutchtraveller schreef op maandag 13 augustus 2012 @ 02:06:
staggered spin-up verhaal
Voor overige lezers die benieuwd zijn naar het oude artikel van Dutchtraveller: Staggered spin-up aktiveren
Het verbaast me dat je zelf moet gaan boren om die pin 11 functionaliteit ongedaan te maken. Zouden er dan echt geen sata kabels te koop zijn waarmee je hetzelfde kan bereiken?
Begrijp ik verder goed dat je, in theorie, staggered spin-up kan toepassen op elke drive op elke controller? Indien je hdparm -s uitvoert op een drive gaat deze tijdens boot niet opspinnen. Als je dan gewoon als bootscript hdparm weer aanzwengelt met het command om de drive terug actief te maken zou dit erg gaaf zijn
Dan kan je gewoon een PicoPSU nemen van 80watt met 6 drives, dan heb je zowel zuinigheid, fanless, genoeg uitbreidingsmogelijkheden én een schappelijke prijs
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
@-The_Mask-: welke ATX voedingen zijn zuinig dan met een laag vermogen? Je zegt dat een ATX voeding een PicoPSU kan verslaan? Daar ben ik wel heel benieuwd naar. En alhoewel je enorm veel meer kennis hebt van voedingen, ben ik toch erg wantrouwend. Het strookt namelijk niet met mijn eigen tests waar een 14.2 PicoPSU in de praktijk door ATX voeding rond de 36W afgeeft, gemeten met Voltcraft Energy Check 3000.
Verder: de PicoPSU doet toch niets met +12V? Dat is een nadeel in jouw ogen, in mijn ogen juist een voordeel omdat je altijd de adapter kunt vervangen voor meer wattage, of zelfs één ATX voeding gebruiken om meerdere PicoPSU machines mee te poweren; iets wat ik voor mijn eigen setup in gedachte had. Als de 'kwaliteit' van de +12V output beter zou moeten, zou je een betere +12V power brick moeten kopen die wel dergelijke bescherming heeft. Dat heeft in principe niets met de PicoPSU te maken, toch?
Daarnaast: een ATX voeding is zo massief groot; zo groot als het hele (Mini-ITX) systeem bijna. Zo'n PicoPSU is ergonomisch veel makkelijker kwijt en maakt het mogelijk om véél systemen in kleine ruimte te installeren. Daarnaast heb je gewoon heel lage idle power terwijl dat bij een ATX voeding vrijwel nooit zo is. Als jij me wilt tegenspreken: be my guest; maar kun je dan ook specifieke ATX voedingen noemen? Stel ik zou zo'n voeding kopen en ik koppel hem aan mijn 14,2W AC Brazos setup (of 9,2W AC kaal), hoeveel zou die ATX voeding dan aan het stopcontact trekken volgens jou?
Ik ben zelf erg op zoek geweest naar laag idle power; maar heb geen verstand van electronica. Het is mijn ervaring dat lage idle power iets is waar niemand op zit te wachten behalve ik. Alle producten zijn ontworpen om VEEL energie te verbruiken voor overclocken en andere zaken. Zuinigheid en efficiëntie zijn gewoon geen verkoopargumenten in de mondiale computermarkt die gedomineerd wordt door Amerika die over goedkope olie/electriciteit beschikt, en door Azië die net blij zijn dat ze wat technologie hebben en de zuinigheid nog iets is waar ze niet naar kijken. Wij Europeanen kijken daarnaar, maar er is dus eigenlijk geen markt voor. Geen moederbord die een idle waarde opgeeft, geen voeding die zegt hoe efficiënt deze is met 10W DC belasting. Nee, dat soort informatie willen ze gewoon niet vrijgeven en dat lijkt me logisch omdat een hoge kwaliteitsvoeding zo opeens er heel slecht uit kan komen te zien als de efficiency op 10W DC vermogen beneden de 40% blijkt te liggen. Vanaf 20% van zijn vermogen is het wel 80-90% sure, maar dat is extreem hoog voor een zuinig systeem.
Het probleem is dus dat je een voeding wilt die zuinig is in 5 tot 15 watt, terwijl je toch 200W+ spinup power wilt hebben voor enkele seconden; de efficiency daarvan is irrelevant. Maar het gevolg is wel dat als je een 400W voeding neemt dat de geteste 20% load alweer 80W DC load betekent, niet 15W of 10W AC. Low idle power blijkt een nichemarkt te zijn....
Verwijderd
Kan je niet gewoon ZFSGuru installeren (FreeBSD dus) met VirtualBox en dan een Ubuntu in VB draaien? Op die manier heb je je OS keuze maar heb je wel de ZFS stabiliteit van een FreeBSD install.
Ik ben van plan het zo te doen en al mijn custom apps zoals sabnzbd, couchpotato, etc in 1 VM te draaien dewelke je in bridge zet met FreeBSD.
Best of both worlds imo.
2de probleem is RAIDZ en niet RAIDZ2. Je kan een apparte mount maken voor je werk / persoonlijke bestanden en copies op 2 of 3 zetten. Ik meen dat als je het op copies=3 zet en je pool op RAIDZ draait (dus 1 parity disk) dat je zo goed als zeker al je persoonlijke files nog kan terugkrijgen indien er een 2de HD crasht tijdens een degraded state.
Je moet dan gewoon de HD's swappen en een rescrub doen. De 'gewone' files zoals films & series etc die je kan terugkrijgen ben je deels kwijt. Maar de persoonlijke files krijg je terug omdat ze minstens op 3 disks stonden. Ik denk wel dat als je HD's zo goed als vol stonden en je hebt veel persoonlijke files dan ben je ze wel kwijt.
Stel dat je maar een paar GB aan personal data hebt dan lijkt me deze oplossing perfect ok als je geen 2 parity disks wilt. Dan is er maar een hele kleine kans dat je echt alles kwijt kan raken.
Klopt mijn redenering hier? Zelf nog niet getest.
Ik heb me deze voormiddag eens bezig gehouden met FreeNAS , en dit is echt ongelooflijk simpel. Getest in een VM met 4 schijven , zfs pooltje gemaakt, virtuele schijf ontkoppeld, en ZFS gaf Degraded aan. Schijf terug aangekoppeld, en de pool was terug healthy, heel handig. Het enige nadeel van FreeNAS is natuurlijk dat het vrij beperkt is. Als NAS is het helemaal compleet, maar om er ook nog een VM op te draaien... Dadelijk FreeBSD (of ZFSGuru) eens uitgebreid testen. Ik ben er wel vrij zeker van dat ik voor ZFS ga gaan, heel interessant systeem!Verwijderd schreef op maandag 13 augustus 2012 @ 14:30:
@Hendrikkkk
Kan je niet gewoon ZFSGuru installeren (FreeBSD dus) met VirtualBox en dan een Ubuntu in VB draaien? Op die manier heb je je OS keuze maar heb je wel de ZFS stabiliteit van een FreeBSD install.
Ik ben van plan het zo te doen en al mijn custom apps zoals sabnzbd, couchpotato, etc in 1 VM te draaien dewelke je in bridge zet met FreeBSD.
Best of both worlds imo.
2de probleem is RAIDZ en niet RAIDZ2. Je kan een apparte mount maken voor je werk / persoonlijke bestanden en copies op 2 of 3 zetten. Ik meen dat als je het op copies=3 zet en je pool op RAIDZ draait (dus 1 parity disk) dat je zo goed als zeker al je persoonlijke files nog kan terugkrijgen indien er een 2de HD crasht tijdens een degraded state.
Je moet dan gewoon de HD's swappen en een rescrub doen. De 'gewone' files zoals films & series etc die je kan terugkrijgen ben je deels kwijt. Maar de persoonlijke files krijg je terug omdat ze minstens op 3 disks stonden. Ik denk wel dat als je HD's zo goed als vol stonden en je hebt veel persoonlijke files dan ben je ze wel kwijt.
Stel dat je maar een paar GB aan personal data hebt dan lijkt me deze oplossing perfect ok als je geen 2 parity disks wilt. Dan is er maar een hele kleine kans dat je echt alles kwijt kan raken.
Klopt mijn redenering hier? Zelf nog niet getest.
Het was vooral een uitdaging dat je daadwerkelijk aan de slag gaat met het moederbord.sloth schreef op maandag 13 augustus 2012 @ 12:11:
[...]
Wat bedoel je precies met one-size-fits-all? Ik vat 'm even niet.
Asus loopt idd achter wat zuinigheid betreft op Intel / MSI. Toch verwacht je een laag verbruik omdat er niet veel overbodige meuk opzit.
Verder wist ik niet dat die C-60 clock-per-clock even snel als een E-350 is. Volgens deze vergelijking zijn ze m.u.v. de kloksnelheid en TDP identiek.
De C-60 heeft blijkbaar trouwens een turbo optie waardoor je wanneer je het nodig hebt 1,33GHz ter beschikking hebt. Dit is slechts 267MHz minder dan een E-350. Verwaarloosbaar lijkt me.
Dat is toch juist het punt. Het is hetzelfde productieproces, dezelfde architectuur, procedé, .. Alleen is de C-60 gelimiteerd in topsnelheid en van een turbo voorzien. Het is simpelweg een processor die een lagere TDP heeft. Daarom zou zo'n test van CiPHER ook zinnig zijn. Limiteer de E-350 tot de snelheid van de C-60 en je hebt een eerlijke vergelijking.
CiPHER, als je de tijd en zin zou vinden, zou je dan een keer wat benchmarks willen doen op je Brazos systeem?
Waar ik benieuwd naar ben is de throughput performance via CIFS / NFS i.c.m. ZFS of het dan de processor is die de bottleneck is.
Helemaal ideaal zou het zijn als je dit kan testen zonder RAID, dus met een zpool van 1 disk.
Vermits de C-60 in turbo modus slechts 267MHz langzamer is dan de E-350 op je Brazos zouden bovenstaande resultaten met een afwijking van ongeveer 15% een mooie indicatie kunnen geven wat we daar van kunnen verwachten
Wat de beste voeding is hangt af van de toepassing.
In het algemeen:
Een PicoPSU + 12V adapter is het zuinigst bij hele lage belastingen.
Wanneer je in de buurt van de 60-80W komt zal een goede ATX voeding zuiniger zijn.
Het rendement bij hele lage vermogens wordt vooral bepaald door het eigen verbruik van de voeding zonder belasting (= idle verbruik).
Een Antec Earthwatts Platinum van 650W kan wel een platinum voeding zijn maar in idle verbruikt hij nog steeds 14,5W. Deze is geoptimaliseerd voor de 80+ benchmark..
Ik neem voor de berekening aan dat het eigen verbruik onafhankelijk van de belasting is.
Bij 40W load verbruikt de voeding ongeveer 57W.
Als je daar het idle verbruik van af trekt dan zie dat er in de conversie maar 2,5W verloren gaat.
Dat is een rendement van 94% bij 6% load...
Maar het totale rendement is toch maar 70%.
Toch is die voeding heel geschikt voor een gamer met een zware videokaart
Die zal vooral in de regionen verkeren waar die voeding juist heel goed scoort.
Niet alle ATX voedingen hebben zo'n hoog idle verbruik. 7-11W is een normaal voor een moderne voeding.
Het laagste wat ik tegen ben gekomen is 5,1W voor een ATX voeding en 0,5W voor een laptop adapter (19V output).
Hier zie je dat een goede brick bij lage belastingen veel gunstiger uit kan komen dan een ATX voeding.
Wat de 12V bricks doen die voor de PicoPSU worden ingezet weet ik niet.
Je kunt het makkelijk zelf meten door alleen die brick aan te sluiten.
De Cresta verbruiksmeter die ik voor 10 euro heb gekocht was indertijd het meest nauwkeurig bij lage belastingen.
Als je een PicoPSU combineert met staggered spin-up heb je aan een brick van 80W genoeg om een paar disken (afhankelijk van de load van de rest van je systeem) te bedienen.
Als je een aantal van die zuinige systemen tegelijk laat draaien kun je beter een ATX voeding nemen i.c.m. een PicoPSU per systeem. Als je ze niet allemaal tegelijk opstart heb je zelfs geen staggered spin-up nodig.
Ik heb goede resultaten gezien van de Be Quiet Straight Power E9-400W. Die ga ik voor mijn komende server inzetten. Die krijgt af en toe iets meer te verwerken...
Zoals je ziet ben je toch niet de enige met interesse in zuinige systemen...
Custom-built voedingen voor servers scoren overigens het hoogst op het gebied van efficiëncy maar zijn meestal niet los te koop en passen niet in een normale kast.
[ Voor 13% gewijzigd door Dutchtraveller op 13-08-2012 21:28 ]
Overigens is je Cresta meter zo goed niet (zie deze post van Mux: mux in "Energiemeters... deel hier je ervaringen")
Overigens is je verhaal wel een goede korte samenvatting
[ Voor 11% gewijzigd door FireDrunk op 13-08-2012 23:35 ]
Even niets...
Ik was eens aan het kijken naar hardware raid oplossingen maar ik raak er niet veel wijzer uit. Dan is het SAS, dan is het Sata, dan zijn het x kanalen , etc etc. Ik heb al wel begrepen dat SAS omgezet kan worden naar 4 x SATA dus in principe zou een controller met 2 x SAS 8 SATA harde schijven moeten kunnen ondersteunen , klopt dit?
Iemand een suggestie voor een controller waar ik
-raid 5 (met eventueel raid 6) ondersteuning heb
- ondersteuning voor >2TB drives (3TB..obviously
- werkend met server 2008 r2 (heb nog wat gratis officiële MS licenties , lang leve msdnaa
-tussen de 4 tot 8 drives.
Geen idee of ik dan een controller nodig heb met 2SAS poorten of 8 SATA poorten of een combinatie, of sata-300 of 150 of 600 en welke firmwares ...
ZFS is leuk om mee te experimenteren , maar dit vloekt met Windows (Ik weet dat ik via windows via CIFS /SAMBA een ZFS NAS kan gebruiken , maar ik heb het hier over Windows + ZFS op dezelfde machine). en vermits ik toch graag mijn server 2008 licentie wil gebruiken zoek ik dus een andere oplossing.
Ik heb in het 10+TB storage showoff topic ook iemand gezien die ESXi draait met daarboven op een VM met Server 2008 i.c.m FlexRAID , maar ik veronderstel dat het het wel waard is om te sparen voor een effectieve controller
edit: typo
Als je wil gaan virtualiseren, gebruik dan gewoon ook meteen een methode om je data tank in een VM te stoppen. Je kan bijvoorbeeld Debian of Ubuntu installeren zonder GUI's e.d., daar xen op dumpen, en daarop ZFSguru en Windows 2k8R2, en misschien nog een Linux server ernaast.. Werkt prima. Heb het zelf (Zonder Windows) op een Q6600 gedaan, dus als het daar op kan, zou je het met elke willekeurige VT-d proc moeten kunnen doen.
Als je Xen niet leuk vind, heb je ook nog KVM, erg goed. En een soort van noob-style ding is er ook, heet ESXi, kan vooral handig zijn als je je met het hypervisor gedeelte niet echt bezig wil houden, dat is een soort van plug & play met beperkingen.
Je bedoelt hiermee dat ik mijn ZFS pool maak in een virtuele machine?johnkeates schreef op dinsdag 14 augustus 2012 @ 00:46:
@Hendrik:
Als je wil gaan virtualiseren, gebruik dan gewoon ook meteen een methode om je data tank in een VM te stoppen. Je kan bijvoorbeeld Debian of Ubuntu installeren zonder GUI's e.d., daar xen op dumpen, en daarop ZFSguru en Windows 2k8R2, en misschien nog een Linux server ernaast.. Werkt prima. Heb het zelf (Zonder Windows) op een Q6600 gedaan, dus als het daar op kan, zou je het met elke willekeurige VT-d proc moeten kunnen doen.
Als je Xen niet leuk vind, heb je ook nog KVM, erg goed. En een soort van noob-style ding is er ook, heet ESXi, kan vooral handig zijn als je je met het hypervisor gedeelte niet echt bezig wil houden, dat is een soort van plug & play met beperkingen.
Verwijderd
Baat het niet dan schaadt het niet
Bedankt voor de info over de Cresta.
Gelukkig heb ik de meter die door mux wordt aangeraden (de datalogger) ook.
Altijd gedacht dat die Cresta beter was...
Verwijderd
Een ander nadeel is dat je feitelijk geen bescherming tegen corruptie hebt; je draait 'ouderwets' RAID met een ouderwets filesystem. Dat betekent dat je corruptie nooit kunt detecteren, hooguit handmatig als er gaten in je data zitten. Het niveau van bescherming is flink lager dan een ZFS oplossing. Dus grofweg...
Windows NAS voordelen:
- vertrouwde interface
- veel software beschikbaar
- makkelijk installeren en beheren
- geen echte bescherming voor je data
- silent corruption
- hoge investeringen nodig voor parity RAID op Windows (Hardware RAID, BBU, TLER schijven)
- deze investeringen zijn enkel nuttig voor een Windows NAS; niet voor een Linux software RAID of ZFS systeem, waardoor je opties in de toekomst wel beperkt worden.
Succes!
een Areca ARC-1223-8i kun je gewoon onder Windows draaien en werkt prima. Naar mijn mening heb je met zo'n controller een prima oplossing.Hendrikkkk schreef op dinsdag 14 augustus 2012 @ 01:04:
Ik heb nu een perfect werkende setup onder windows 7 pro x64, maar hier mis ik vooral opslag en redundantie (gewoon een 1x 1TB drive en 1 x 640GB voor OS).
Areca heeft in de firmware opties waardoor de noodzaak van TLER op de schijven er volgens mij niet is. Ik draai zelf nu enkele jaren (denk sinds 2007) met een Areca controller met minimaal 8 schijven en er is nog nooit een schijf uit de array gevallen om dat er een probleem was door een schijf die geen TLER ondersteund. Ik gebruik enkel normale (lees de minst dure in €/GB) consumer harddisks.
Grote voordeel vind ik dat het probleemloos onder Windows 7 64 werkt. Ik draai op mijn NAS dus Windows en doe beheer via remote desktop. Voor mij persoonlijk werkt dat ideaal.
Windows 8 krijgt ReFS, waarmee het eigenlijk hetzelfde (op file niveau) doet als ZFS.Verwijderd schreef op dinsdag 14 augustus 2012 @ 01:24:
Windows NAS nadelen:
- geen echte bescherming voor je data
- silent corruption
- hoge investeringen nodig voor parity RAID op Windows (Hardware RAID, BBU, TLER schijven)
- deze investeringen zijn enkel nuttig voor een Windows NAS; niet voor een Linux software RAID of ZFS systeem, waardoor je opties in de toekomst wel beperkt worden.
Er zijn dus ook RAID controllers waarbij TLER niet nodig is.
Neemt niet weg dat ikzelf ZFS de mooiere oplossing vindt, tot nu toe.
Even niets...
software raid loopt technisch inderdaad voor maar wanneer je zelf iets werkends wilt bouwen is Linux voor mij net een stap te ver.wjn schreef op dinsdag 14 augustus 2012 @ 11:49:
[...]Neemt niet weg dat ikzelf ZFS de mooiere oplossing vindt, tot nu toe.
Enige wat ik onder Linux draai is XBMC en dan een OpenElec versie waarbij Linux wat mij betreft doet wat het moet doen en ik geen Linux command line hoef te gebruiken (hoezo Tweaker
Verwijderd
Daarnaast: RAID controllers die geen TLER nodig hebben. Ja er zijn wel meer verhalen van mensen die al jaren een configuratie draaien zonder TLER. de grote vraag daarbij is:
Hebben ze überhaupt al bad sectors gekregen op hun schijven of niet; hoeveel reallocated sector count in hun schijven hoeveel pending sectors? Als je simpelweg nog niet gebeten bent door bad sectors, weet je nog helemaal niets of je controller TLER nodig heeft of niet. Bedenk ook dat oudere schijven met lagere datadichtheid minder snel onleesbare bad sectors ontwikkelen die fysiek gewoon in orde zijn, maar onvoldoende ECC beschikbaar om deze te fixen. Dit soort bad sectors wordt niet door een reserve sector omgewisseld omdat er geen fysieke schade is. Dit soort bad sectors komt steeds meer voor naarmate de datadichtheid toeneemt.
Dat gezegd kunnen hardeschijven inderdaad veel intelligenter omgaan met disk failures en timeouts. Bijvoorbeeld door andere sectoren proberen te lezen en op die manier onderscheid maken tussen een gefaalde schijf en een goed werkende schijf met een onleesbare sector. Want daar dit hem het probleem: hardware RAID beschouwt alles wat niet binnen 10 seconden reageert, als gefaald. Dit soort timeouts kan wel worden opgerekt met firmware, en ik ben heel benieuwd naar concrete informatie hieromtrent. Helaas heeft niemand mij die ooit kunnen geven, waardoor het verhaal 'je hebt geen TLER nodig' onvoldoende onderbouwd is. Het kan simpelweg zijn dat de betreffende gebruiker al die tijd geluk heeft gehad omdat er zich geen pending sectoren voortdeden.
Een paar posts terug word juist gezegd dat Areca die funtionaliteite veranderd heeft en een optie heeft "No timeouts ever". Dat helpt al heel erg.Want daar dit hem het probleem: hardware RAID beschouwt alles wat niet binnen 10 seconden reageert, als gefaald.
Dan blijft de vraag of de Areca na 10 Seconden de data automatisch vanaf pariteit gaat leveren (en dus zelf gaat reconstrueren) of gewoon de IO aanvraag delayed.
Even niets...
Daar heb je inderdaad wel een punt. Ik vind het ook wel leuk om nieuwe dingen te ontdekken. Ook ZFS met snapshots / corruptie spreekt me nog steeds erg aan en de meerprijs van hardware RAID met TLER schijven vind ik dan opeens niet meer gerechtvaardigd en ja, je bent tweaker voor iets
FreeNAS heeft excellente ZFS support en vond ik ook ideaal voor een NAS, enkel ja, compleetheid hé
Dan maar eens ZFSGuru/FreeBSD proberen met daar boven op een server 2008 in VM.
Volgende week een leuk mobo+cpu'tje aanschaffen, grote /stille case en een hele resem 3TB schijven
edit: wou ZFSguru downloaden van hun officiele site, maar de links naar de downloads lopen dood
[ Voor 5% gewijzigd door Hendrikkkk op 14-08-2012 12:26 ]
Verwijderd
Maar hoe moet ik me dat voorstellen; geen timeout? Je zult toch EEN timeout moeten hebben om die request opnieuw te versturen of een I/O error te krijgen; anders blijf je eeuwig wachten. Ik ben dus heel benieuwd naar wat die optie precies betekent. Daarnaast, om echt zekerheid te hebben zul je een schijf met pending sectoren moeten hebben en daarmee testen; probeer de onleesbare sectoren te lezen en kijk hoe de controller zich gedraagt.
Als die optie in feite betekent dat er wel timeouts zijn, zoals ook MOET, maar dat er bij een timeout niet gelijk de schijf uit de RAID set wordt geknikkerd, dan is dat een hele andere optie en is de naam misleidend. Voor mij is dus onduidelijk of ook moderne RAID controllers nu wél normaal omgaan met schijven en bad sectors.
Andersom zou het ook kunnen.
Ik ben steeds meer fan aan het worden van ZFS, grootste nadeel is dat je de pool niet kan uitbreiden.
Nu wil ik het liefst Linux behouden voor alle applicaties die ik draai, Couch, sab, torrent, dlna, backup.
Het voordeel hiervan ook wat ik me net bedenk is dat ik dan HD kan toevoegen in Linux, en deze net zolang spaar totdat ik een nieuwe pool kan aanmaken.
Ik heb wel slechts een G530 processor, met enkel VT-X en geen VT-D.
Ik heb dit even getest met een virtualbox en freenas boven op een windows (zou in principe voor Linux hetzelfde moeten zijn als deze gewoon een virtualbox /vmware / ... draait). ZFS werkt hier gewoon via 4 virtuele schijven van 8GB, zelfs in RAIDZ(2). Ik kan ook via samba files plaatsen naar deze ZFS pool. Heb ook vrituele schijven ontkoppeld om te kijken of ZFS dit aangaf dat er een HDD vervangen moest worden en ook dit ging goed.Dennisik schreef op dinsdag 14 augustus 2012 @ 12:29:
Zijn er al mensen die Linux (11,1/12.04) draaien en daarboven op (Virtueel) Freenas om ZFS te realiseren?
Andersom zou het ook kunnen.
Ik ben steeds meer fan aan het worden van ZFS, grootste nadeel is dat je de pool niet kan uitbreiden.
Nu wil ik het liefst Linux behouden voor alle applicaties die ik draai, Couch, sab, torrent, dlna, backup.
Het voordeel hiervan ook wat ik me net bedenk is dat ik dan HD kan toevoegen in Linux, en deze net zolang spaar totdat ik een nieuwe pool kan aanmaken.
Ik heb wel slechts een G530 processor, met enkel VT-X en geen VT-D.
Het nadeel was dat filetransfers in mijn geval enorm traag gingen (zal wel door het feit komen dat ik virtuele disks gebruikte die dynamisch gealloceerd werden). Het is dus mogelijk op windows ..ik gebruik een core i5 430m (dacht dat deze zowel VT-x , VT-D had, maar niet zeker).
Je wilt ofwel een dedicated NAS met ZFS, ofwel upgraden naar een (overkill) VT-D compatible build met een aparte HBA waar je via passthrough je disks aan kan doorgeven.
ZFS i.c.m. ESXi en RDM zonder VT-D
Zie reactie CiPHER
[ Voor 5% gewijzigd door sloth op 14-08-2012 12:58 ]
Verwijderd
Vorig bericht is aangepast.
Maar in het geval van Dennisik heb je toch Linux als Host OS met daarin een FreeNAS VM waardoor ZFS niet de controle over de disk heeft?
[ Voor 57% gewijzigd door sloth op 14-08-2012 13:00 ]
was denk ik een post van mij in het 10TB+ topic. Ziet er in de Areca webinterface zo uit,Verwijderd schreef op dinsdag 14 augustus 2012 @ 12:25:
@FireDrunk: ik dacht dat ook gelezen te hebben, maar kan die post nergens meer terugvinden.. ?

Ik weet niet zeker of het werkt. "TLER setting" optie zit al langere tijd in de Areca firmware en de optie "Fail Disk For Any Timeout" sinds kort.
Verwijderd
Ik lees tot op heden dat er toch performanceproblemen mee zijn... Het leek mij de ideale oplossing, eindelijk m'n schijven in de standby kunnen gooien en nog wat zaken op de host draaienwjn schreef op dinsdag 14 augustus 2012 @ 11:49:
[...]
Windows 8 krijgt ReFS, waarmee het eigenlijk hetzelfde (op file niveau) doet als ZFS.
Er zijn dus ook RAID controllers waarbij TLER niet nodig is.
Neemt niet weg dat ikzelf ZFS de mooiere oplossing vindt, tot nu toe.
De manier van timeout en daadwerkelijke timeout lijkt me een OS implementatie? FreeBSD heeft misschien andere timeouts foor de fread.c optie dan Linux heeft.Verwijderd schreef op dinsdag 14 augustus 2012 @ 12:25:
@FireDrunk: ik dacht dat ook gelezen te hebben, maar kan die post nergens meer terugvinden.. ?
Maar hoe moet ik me dat voorstellen; geen timeout? Je zult toch EEN timeout moeten hebben om die request opnieuw te versturen of een I/O error te krijgen; anders blijf je eeuwig wachten. Ik ben dus heel benieuwd naar wat die optie precies betekent. Daarnaast, om echt zekerheid te hebben zul je een schijf met pending sectoren moeten hebben en daarmee testen; probeer de onleesbare sectoren te lezen en kijk hoe de controller zich gedraagt.
Als die optie in feite betekent dat er wel timeouts zijn, zoals ook MOET, maar dat er bij een timeout niet gelijk de schijf uit de RAID set wordt geknikkerd, dan is dat een hele andere optie en is de naam misleidend. Voor mij is dus onduidelijk of ook moderne RAID controllers nu wél normaal omgaan met schijven en bad sectors.
Waarom vind je de optie TLER disabled misleidend dan? Want het betekend in mijn ogen dat er geen Tijds limiet is voor IO en er dus ook geen schijven uitgeknikkerd worden, maar de Areca de request gewoon aan de disk overlaat.
Als de disk zelf na 3 minuten beslist dat een request niet voldaan kan worden, dan resulteert de Areca controller gewoon dezelfde foutmelding als de disk geeft neem ik aan?
(Let op: Pure aannames, ik heb geen Areca controller
Even niets...
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.