• Rusty
  • Registratie: Juni 1999
  • Laatst online: 24-11 13:59
muppet99 schreef op donderdag 09 augustus 2012 @ 13:54:
Rusty neem je in je plaatje ook je kabels mee van je controller naar de HDD. Zou toch zonde zijn als je die vergeet te bestellen. Zie ze namelijk niet genoemd staan bij de levering van de controller.
Ja dat realiseer ik me, komt hoofdzakelijk omdat ik nog uit moet vinden welke kabels ik precies nodig heb.
Maar zal ze inderdaad meenemen.

3 x Marstek Venus 5.12KW V151. CT003 V114 en HW P1


Verwijderd

500W Aurum versie kan ook: pricewatch: FSP Aurum 500

15 HDDs zou ik uitgaan van 15 * 18W = 270W. Plus 100W van je systeem = 370W piek. Bedenk ook dat een voeding een hoger wattage moet kunnen leveren als piekspanning. Maar 400W zou moeten kunnen. Als je nog wilt uitbreiden is 500W een veiligere keuze.

En qua kabels: gebruik als het even kan géén Molex-splitters maar enkel SATA Power splitters, die dus een SATA power stekker nodig hebben en er meerdere voor terug geeft.

[ Voor 18% gewijzigd door Verwijderd op 09-08-2012 13:58 ]


  • DDX
  • Registratie: April 2001
  • Laatst online: 21:31

DDX

FireDrunk schreef op donderdag 09 augustus 2012 @ 13:12:
Klopt, voor meer dan 32GB geheugen moet je ofwel naar AMD (C32, G34) of naar Intel Dual sockets.
Intel single socket met meer dan 32GB is er nog niet.
Misschien dat ik een deel heb gemist, maar je kan toch gewoon naar single socket met intel c600 chipset nemen ?
Zit bijvoorbeeld in de dell t320 server.
En snelle google geeft me dit supermicro bordje :
http://www.supermicro.com...board/xeon/c600/x9sra.cfm

https://www.strava.com/athletes/2323035


  • muppet99
  • Registratie: Juli 2002
  • Laatst online: 13-12 12:32
@Rusty: Waarschijnlijk zoek jij deze kabels:

pricewatch: Adaptec mSASx4 (SFF-8087) to SATA (4)x1 Cable (2236700-R)

Carpe Diem


  • Rusty
  • Registratie: Juni 1999
  • Laatst online: 24-11 13:59
@CiPHER en muppet99 bedankt voor de input!

Dan zit ik op dit moment hier op:

#ProductPrijsSubtotaal
1Asus F1A75-V PRO€ 77,33€ 77,33
2Hitachi Deskstar 7K3000 HDS723020BLA642, 2TB€ 107,50€ 215,-
1Fractal Design Define XL Titanium Grey USB 3.0€ 119,99€ 119,99
2Adaptec mSASx4 (SFF-8087) to SATA (4)x1 Cable (2236700-R)€ 29,60€ 59,20
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 114,24€ 114,24
1FSP Aurum 500€ 68,70€ 68,70
1Kingston ValueRAM KVR1066D3S8N7K2/4G€ 21,45€ 21,45
1AMD A6-3650 Boxed€ 69,90€ 69,90
Bekijk collectie
Importeer producten
Totaal€ 745,81

3 x Marstek Venus 5.12KW V151. CT003 V114 en HW P1


  • muppet99
  • Registratie: Juli 2002
  • Laatst online: 13-12 12:32
Rusty, ik had nog wel 1 vraag. Ben je bewust voor een 100W proc gegaan? Gezien het feit dat het een bak wordt welke dag en nacht aan staat, kan ik mij voorstellen dat er setjes zijn waarvan de proc een stuk minder verbruikt. Het verhoogd wel je aanschafprijs, echter worden je lopende kosten lager.

De 3600 is namelijk 35Watt zuiniger, kost wel iets meer.

[ Voor 9% gewijzigd door muppet99 op 09-08-2012 14:13 ]

Carpe Diem


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Verwijderd schreef op donderdag 09 augustus 2012 @ 13:58:
500W Aurum versie kan ook: pricewatch: FSP Aurum 500

15 HDDs zou ik uitgaan van 15 * 18W = 270W. Plus 100W van je systeem = 370W piek. Bedenk ook dat een voeding een hoger wattage moet kunnen leveren als piekspanning. Maar 400W zou moeten kunnen. Als je nog wilt uitbreiden is 500W een veiligere keuze.
Misschien dat de FSP op efficiëntie het wint van een Corsair CX bij lage belasting (een 500W versie bestaat), maar hoe zit het met de rails van de FSP? De 400W heeft in ieder geval een heerlijke marketing term:
Hybrid Synergy 12V Rail Design
Hybrid Synergy Design on 12v rails with max loads pledges compatibility to graphics cards and systems
Nu ben ik er niet verder achteraan gegaan, maar bij menig Corsair is er sprake van een no-nonsense single rail rail voeding. Dan hoef je niet na te denken hoeveel schijven je aan elke rail / kabeltak hangt. Hoe zit dat bij de FSP?

Mijn wat sceptische opstelling komt omdat ik inmiddels wat jeuk krijg van een term als xyz ready en hybrid is daar voor mij vaak wel een variant op. Het is vaak typisch een...'ja het is het nu nog net niet, maar ...' en vaak een recept gebleken voor een halfbakken product voor iets dat eigenlijk net te vroeg is en de toekomstige support doorgaans schimmig is.

[ Voor 15% gewijzigd door Dadona op 09-08-2012 14:34 ]

De CSL/OT kroeg !


  • DDX
  • Registratie: April 2001
  • Laatst online: 21:31

DDX

muppet99 schreef op donderdag 09 augustus 2012 @ 14:12:
Rusty, ik had nog wel 1 vraag. Ben je bewust voor een 100W proc gegaan? Gezien het feit dat het een bak wordt welke dag en nacht aan staat, kan ik mij voorstellen dat er setjes zijn waarvan de proc een stuk minder verbruikt. Het verhoogd wel je aanschafprijs, echter worden je lopende kosten lager.

De 3600 is namelijk 35Watt zuiniger, kost wel iets meer.
Let wel op dat de tdp van een processor niets zegt over het verbruik als de computer idle is.
(Wat een nas merendeel van de dag is waarschijnlijk)

https://www.strava.com/athletes/2323035


Verwijderd

@Dadona, tja voedingen is zoiets abstract voor veel mensen dat die Marketing-afdeling toch creatief moet zijn om iets te verzinnen. Maar deze voeding is wel degelijk goed getest op lage idle waardes, zie:
http://www.pc-experience.de/wbb2/thread.php?threadid=31516

Je hebt natuurlijk een punt dat voor een NAS met spinup power je gewoon single rail +12V wilt hebben, en die Corsair doet het op dat gebied wel goed. Maar zolang het opspinnen maar lukt; dat duurt 5 seconden die piekampere daarna gaat het om de idle power consumption en wil je dus liever die Aurum hebben dan een goede voeding met veel vermogen. De Corsair X850 ofzoiets is mij in het verleden aangeraden voor véél spinup power op één +12V rails. Het zal best een hele goede voeding zijn; maar mijn ervaring leert dat een kwaliteitsvoeding niets zegt over vermogen/efficiency bij lage loads (<10%). Juist op dit vlak zitten er grote verschillen tussen voedingen, waarbij oudere voedingen het gek genoeg soms flink beter doen dan nieuwere.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Oké, even pesten. :P Je kunt met een op zeker single rail voeding wat krapper met het vermogen gaan zitten wat weer een voordeel is voor je efficiëntie.
Neemt niet weg dat het zeker klopt dat een kwaliteitsvoeding (ongeacht 80 plus) op efficiëntie het kan afleggen. Ik zou dan ook maar wat graag zien dat 80 plus uitgebreid zou worden (en de meting wat anders zou zijn).

De CSL/OT kroeg !


  • sloth
  • Registratie: Januari 2010
  • Niet online
Verwijderd schreef op donderdag 09 augustus 2012 @ 13:43:
Verder één stick lijkt me beter; zuiniger dan twee sticks
Afbeeldingslocatie: http://3.bp.blogspot.com/-cFl4G-aVv5M/T-m2dKhMIoI/AAAAAAAAAWs/V9FU8eajxJA/s1600/MythBusted.gif
:+

Mux heeft dit gemeten en een enkele DIMM verbruikt minder dan 0,5 watt. Zelfs bij 24/7 gebruik heb je het dan over minder dan 1 euro op jaarbasis, daarvoor hoef je het echt niet te laten :)

Wel natuurlijk met het oog op uitbreidbaarheid, maar dat is dan weer een ander punt.

[ Voor 10% gewijzigd door sloth op 09-08-2012 15:23 ]


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Het klopt toch, dat het niet rendabel is, dat is een ander verhaal. Maar busted, echt niet. :)

De CSL/OT kroeg !


  • sloth
  • Registratie: Januari 2010
  • Niet online
Nou ja..

0,5 watt extra is uiteraard meer dan 0. Maar waar ga je de grens trekken?
Je hebt het over een meerverbruik dat verwaarloosbaar is. Ik ken niet alle geheugenprijzen uit m'n hoofd,maar als het goedkoper of beter verkrijgbaar is dan een single dimm, dan kan je toch beter gewoon 2 reepjes aanschaffen?

Zelfs vanuit milieuaspect is de impact op het milieu nihiel. Dan kan je beter een minuut minder lang douchen of een keertje vaker de trap i.p.v. de lift nemen..

Waar het mij vooral om gaat om een kleine nuancering aan te brengen i.p.v. blind te verkondigen "1 extra dimm is dodelijk voor een zuinige config!!1"
Doe je dit bij een 2,5" bootdisk i.p.v. een 3,5" of bij de keuze van een efficiënte voeding, prima. In dit geval: myth still busted :+

[ Voor 23% gewijzigd door sloth op 09-08-2012 15:30 ]


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
sloth schreef op donderdag 09 augustus 2012 @ 15:27:
0,5 watt extra is uiteraard meer dan 0. Maar waar ga je de grens trekken?
Bij 0 :+
Maar ik zei toch al dat het zonder meer niet rendabel is. Het speelt vooral bij upgrades. Helaas is er nog geen addon om twee modules op één geheugenbank te plaatsen. (Wat zou dat geweldig zijn!)

De CSL/OT kroeg !


Verwijderd

Sloth: ik heb cijfers van 1.35V - 1.5V geheugen met meerdere reepjes of maar 1. Als je wilt kan ik die eens opzoeken; het scheelt uiteindelijk toch wel wat hoor.
Ik ben erg benieuwd... :)

Even niets...


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Hoe kan je de kosten per jaar uitrekenen eigenlijk?

Dus stel je hebe en systeem van 100 watt wat kost dat per jaar?

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


Verwijderd

100W = 200 euro per jaar in Nederland aangenomen dat hij 24/7 aanstaat. Dus lekker makkelijk *2 = kosten in euro's per jaar.

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Dat valt reuze mee :) Maar wat is de uitgebreide uitleg dan? :)

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • job
  • Registratie: Februari 2002
  • Laatst online: 16-12 12:05
verbruik (in kilowatt) maal prijs van een kilowattuur, maal het aantal uren in een jaar.

[ Voor 27% gewijzigd door job op 09-08-2012 15:57 ]


  • helm71
  • Registratie: Februari 2012
  • Laatst online: 17:45
Het laatste jaar heb ik getest met oude hardware en unraid, bevalt me prima dus nu tijd voor echte build met spulleboel waar ik nog een paar jaar mee vooruit kan:


CASE: Fractal Design Define XL USB 3.0 Black Pearl
POWER: Corsair HX750
4in1: SuperMicro Mobile Rack CSE-M14T
BOARD: Supermicro X7SPA-HF-D525
SATA EXP: SuperMicro AOC-SASLP-MV8
MEM: Kingston KVR1333D3E9SK2/8G
CACHEDRIVE: SSD Samsung 830 series 256GB Basic KIT
FLASHDRIVE: Kingston MobileLite G2

Drives: Zet ik over van mijn vorige setup.

Parity: 3TB Hitachi Green
Data: 7 * WD 2TB Green + 1 * WD 3TB RED

Geplande uitbreiding voor als het nodig wordt:

5 IN 3: ICY BOX 545SSK
SATA EXP: SuperMicro AOC-SASLP-MV8
Zoals een stukje terug staat, kies dan niet voor de SASLP-MV8, dat is een oudere op Marvell gebaseerde controller. Niet echt top controllers...

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 09 augustus 2012 @ 19:30:
Zoals een stukje terug staat, kies dan niet voor de SASLP-MV8, dat is een oudere op Marvell gebaseerde controller. Niet echt top controllers...
Klopt, links laten liggen, voor ca. tien euro meer heb je een IBM M1015 (verkapte LSI9211/9240) waarvan bekend is dat 3 TB HDD's ook ondersteund zijn. IT mode firmware flashen en perfect te gebruiken voor een ZFS server machine.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Klopt, links laten liggen, voor ca. tien euro meer heb je een IBM M1015 (verkapte LSI9211/9240) waarvan bekend is dat 3 TB HDD's ook ondersteund zijn. IT mode firmware flashen en perfect te gebruiken voor een ZFS server machine.
Let op dat je flashed op een machine met een normale BIOS. Op een UEFI kan het wel maar wordt de procedure een stuk ingewikkelder.


Voor wat betreft die 80+ Certificeringen; die zijn gemeten bij kamertemperatuur (23 gr). Iets wat je voeding natuurlijk nooit gaat zijn als die aan staat (in je pc). Wordt die warmer, dan neemt de efficientie af.
Let ook op dat je load altijd boven de 20% van het vermogen van je voeding blijft. Daar onder neemt de efficientie ook erg af. 5% is dus een no-go.
Hier een lijst met 80+ voedingen en hun efficienties.

Waar ik trouwens niemand over hoor, is Staggered Spinup, waarbij de harddisk niet tegelijk maar beurtelings opgespind worden en zo het piekvermogen behoorlijk gedempt kan worden waardoor een kleinere en efficientere voeding in zicht kan komen.
Heeft hier iemand ervaring mee?

  • jadjong
  • Registratie: Juli 2001
  • Niet online
FireDrunk schreef op donderdag 09 augustus 2012 @ 13:12:
Klopt, voor meer dan 32GB geheugen moet je ofwel naar AMD (C32, G34) of naar Intel Dual sockets.
Intel single socket met meer dan 32GB is er nog niet.

Mijn AMD Opteron bordje kan daarentegen 64GB aan (dmv 4 * 16GB Registered modules).
Er zijn borden met 1 CPU en 8 DIMM Sloten die elk 16GB DIMM's aankunnen... Maar dat is duur :+
Single socket S2011 doet ook 128GB met 8 dimmsloten. 64GB is nog betaalbaar.

  • Dnc1n
  • Registratie: Juli 2001
  • Laatst online: 18-11 22:42
Ben ook maar weer aan het zelfbouwen gegaan. :D

Na een jaar of 2 tevreden geweest te zijn met mijn Synology DS110J en eigenlijk redelijk anti zelfbouw geworden te zijn ben ik toch maar weer begonnen met het zelf bouwen. Inmiddels zit er een 3TB disk in, maar ook die raakt langzaam weer vol. Wat nu?

Optie 1 was een 2-Bay Synology NAS kopen. Minimaal 170 euro ben ik dan kwijt. Wel heb ik dan de fantastische Synology software. Dat moet ik ze wel nageven: Als ze die software los te koop zouden zetten, zou ik het zo aanschaffen, want alles werkt zo stabiel, makkelijk en uitgebreid.... on-evenaarbaar wat mij betreft!

Maar toch maar niet.....
Heb al 1.5 jaar een Intel D510MO boardje + 2GB liggen die eigenlijk alleen maar stof hapt. Doe er helemaal niets mee. Kwa hardware is dat superieur aan de Marvell CPU's die in de goedkopere Synology NASjes zit.
Maar als ik die Atom meuk verkoop krijg ik er nauwelijks wat voor weer. Bovendien: Wat als die 2e disk van de tragere Synology disk ook volzit? Een nog duurdere en grotere NAS? Wordt het wel een dure hobby :p

Ben me ook te raden gegaan wat ik nu dan eigenlijk gebruik van die Synology software.... Eigenlijk voornamelijk het SMB, Mac File Service, Apple Time Machine, HTTP (PHP/MySQL) en FTP. DSAudio gebruik ik niet meer sinds ik een mediacenter heb (audio afspelen en streamen vanaf NAS)

Ik heb dus de Fractal Design Array R2 gekocht. Daar wil ik dan mijn 3TB disk op aan sluiten. Tevens een extra disk bij wil aanschaffen van 3TB. (Nog aanschaffen)

Mijn moederbordje die ik nu heb heeft 2 SATA aansluitingen, maar in de toekomst kan ik dus wel uitbreiden voor een ander board met meer, of een PCI-E adaptertje in dat nieuwe moederbord erbij prikken. Ik ben wat dat betreft flexibeler geworden.

Wil voorlopig dus een 3TB disk extra aanschaffen daar OS partitie op aanmaken en de rest van de disk storage. Mijn huidige disk er ook bij als datadisk. 6TB opslag dus.

Twijfel alleen nog een beetje voor het OS.
Puur voor SMB/Mac file services/TimeMachine/FTP/HTTP/PHP/MySQL, wat zouden jullie aanraden?
Het PHP/MySQL zou alleen voor wat test doeleinden zijn voor mezelf, niet om te gaan hosten...
Twijfel tussen FreeNAS en OpenMediaVault
jadjong schreef op donderdag 09 augustus 2012 @ 23:42:
[...]

Single socket S2011 doet ook 128GB met 8 dimmsloten. 64GB is nog betaalbaar.
Je hebt helemaal gelijk, ik ben nog in de illusie dat S2011 nog niet leverbaar is :+

@Duncan
Apache op FreeNAS? Heb je dan wel genoeg extra packages tot je beschikking zoals php-gd enzo?

===

Ik zit er zelf over na te denken om de meest gebruikte data op mijn server (Films, TV Series en wat documenten) te migreren naar een zuinigere kleine server zodat mijn main server uit kan als ik niets aan het testen ben.

Na de goede verhalen van AMD van anderen, ben ik eens op zoek gegaan naar statistieken.
Maar als ik dit diagram (Bron: http://www.xbitlabs.com/a...sion-intel-core-i3_8.html)
Afbeeldingslocatie: http://www.xbitlabs.com/images/cpu/amd-fusion-intel-core-i3/power-1.png
Mag geloven, is AMD dus echt niet zuiniger... Ookal stelt het diagram dat AMD zuiniger is, je ziet dat het het moederbord is dat bij Intel hier de test de nek omdraaid... De CPU's zijn in idle duidelijk zuiniger.

Iemand die hier meer van weet?

Misschien dat mensen zeggen, ja maar de A4 is een quadcore:

Afbeeldingslocatie: http://www.xbitlabs.com/images/cpu/amd-fusion-intel-core-i3/winrar.png

De dualcores van Intel rennen de quad cores van AMD er uit...
En WinRAR is nou juist een van de dingen die deze server veel gaat doen (SabNZBD / PAR2)

Overigens is Brazos geen optie, want dan heb ik te weinig PCIe lanes...

[ Voor 79% gewijzigd door FireDrunk op 10-08-2012 10:44 ]

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 21:24
S2011 met 8 DIMM slots heeft inderdaad wel leuke mogelijkheden als je veel RAM in een (ESX) server wil stoppen :P
Bordjes zijn wel flink aan de prijs nog vind ik, en ik denk dat de bijbehorende procs ook niet echt zuinig genoemd kunnen worden ?

Al met al wel een interessante oplossing voor de toekomst, mocht ik ooit geheugen tekort gaan komen (al lijkt me dat sterk).
S2011 is idle niet zo zuinig volgens mij, maar performance-per-watt is weer hoog. Dus voor zakelijke bestemmingen erg goed.

Even niets...


  • sloth
  • Registratie: Januari 2010
  • Niet online
Er zijn aardig wat tweakers die hun NAS uit laten, en 1x per week ofzo al hun files synchroniseren.
Wat ik me afvraag bij deze aanpak is hoe jullie een overzicht bewaren met welke mappen en bestanden je op je offline nas staan hebt?

Je zou natuurlijk een scriptje kunnen schrijven wat "ls -l" loopt doorheen al je mappen en vervolgens naar een logbestand wegschrijjft, maar er moeten vast toch handigere manieren hiervoor bestaan?
Wat me erg handig lijkt is bv. een 1:1 kopie te hebben waarvan alle bestanden 0 byte groot zijn, zodat je precies weet wat de inhoud van je offline storage is.

Wat is jullie oplossing hiervoor?

  • helm71
  • Registratie: Februari 2012
  • Laatst online: 17:45
Pantagruel schreef op donderdag 09 augustus 2012 @ 21:42:
[...]


Klopt, links laten liggen, voor ca. tien euro meer heb je een IBM M1015 (verkapte LSI9211/9240) waarvan bekend is dat 3 TB HDD's ook ondersteund zijn. IT mode firmware flashen en perfect te gebruiken voor een ZFS server machine.
Seriously ? The supermicro card work fine with 3 and 4 tb drives for a lot of users ( I am talking unraid, therefor linux and not windows). I would be fine with the ibm card but it is a bit more expensive (not much).

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Als je voedingen zonder MOV gaat adviseren voor een server zou ik er ook een overspanningsbeveiliging of UPS bij adviseren.

Maar ik zou sowieso geen FSP Aurum adviseren als je vaak voor een paar euro meer een veel betere Super Flower Golden Green kan krijgen.

[ Voor 16% gewijzigd door -The_Mask- op 11-08-2012 11:44 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
-The_Mask-, heb jij enig idee hoe die Super Flower het doet in vergelijking met de be quiet! Efficient F1 350W qua efficiëntie rond de 20W ?
MOV (Metal Oxide Varistor) or varistor (...) is responsible for cutting voltage spikes (transients) found on the power line. This is the exact same component found on surge suppressors. The problem, though, is that cheap power supplies don’t carry this component in order to save costs. On power supplies with a MOV, surge suppressors are useless, since they have already a surge suppressor inside them.
(bron)

[ Voor 11% gewijzigd door Dadona op 11-08-2012 11:51 ]

De CSL/OT kroeg !


  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 21:46
En hoe kun je zien of een voeding MOV heeft? ;) Volgens mij staat het niet beschreven in de pricewatch of webshops.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Dadona schreef op zaterdag 11 augustus 2012 @ 11:45:
-The_Mask-, heb jij enig idee hoe die Super Flower het doet in vergelijking met de be quiet! Efficient F1 350W qua efficiëntie rond de 20W ?
http://www.planet3dnow.de...838&garpg=5#content_start
Volgens deze review een rendement van bijna 81% op 230V.
EnerQi schreef op zaterdag 11 augustus 2012 @ 11:48:
En hoe kun je zien of een voeding MOV heeft? ;) Volgens mij staat het niet beschreven in de pricewatch of webshops.
Review's lezen, maar er zijn een aantal merken die weinig gebruik maken van een MOV dat zijn sowieso FSP en Super Flower. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Verwijderd

@sloth: rsync is je vriend. :)
-The_Mask- schreef op zaterdag 11 augustus 2012 @ 11:41:
Als je voedingen zonder MOV gaat adviseren voor een server zou ik er ook een overspanningsbeveiliging of UPS bij adviseren.
That defeats the whole point; het punt is hier lage idle power. Als je er toch een UPS op gaat hangen, hoe kom je dan aan de 15W idle aan het stopcontact? Dat lijkt mij lastig.
Maar ik zou sowieso geen FSP Aurum adviseren als je vaak voor een paar euro meer een veel betere Super Flower Golden Green kan krijgen.
Beter in welke zin? Meer efficient bij 5% belasting? Dáár gaat het hier om namelijk. Een voeding met voldoende spinup power voor die 7 seconden dat je het nodig hebt tijdens de boot, en daarna een die op laag vermogen nog zeer efficiënt is. Die 80-plus testen maar op 20% load en héél soms 10%, maar lager dus niet. 10% van een 800W voeding is nog steeds 80W DC load dus zeg tegen de 90W AC. Heel wat anders dan 15W AC (nee, niet DC!).

Als jij zegt dat die andere voeding kwalitatief veel beter is, dan is dat een ander verhaal en ook het overwegen waard. In mijn ervaring kunnen kwalitatief hoogwaardige voedingen echter zeer onzuinig zijn op lage belastingen. Ze zijn vaak ook gemaakt voor systemen met meerdere videokaarten in SLI en aparte rails. Ik weet niet of jouw voeding daar onder valt, maar mijn punt is dat een kwalitatief hoogwaardige voeding nog niet de beste voeding voor een zuinige NAS hoeft te zijn.

  • sloth
  • Registratie: Januari 2010
  • Niet online
sloth schreef op zaterdag 11 augustus 2012 @ 11:02:
Er zijn aardig wat tweakers die hun NAS uit laten, en 1x per week ofzo al hun files synchroniseren.
Wat ik me afvraag bij deze aanpak is hoe jullie een overzicht bewaren met welke mappen en bestanden je op je offline nas staan hebt?

Je zou natuurlijk een scriptje kunnen schrijven wat "ls -l" loopt doorheen al je mappen en vervolgens naar een logbestand wegschrijjft, maar er moeten vast toch handigere manieren hiervoor bestaan?
Wat me erg handig lijkt is bv. een 1:1 kopie te hebben waarvan alle bestanden 0 byte groot zijn, zodat je precies weet wat de inhoud van je offline storage is.

Wat is jullie oplossing hiervoor?
Toevallig daarnet bij TreeCopy uitgekomen.
Dit was ongeveer wat ik hebben wou :)

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:52
sloth schreef op zaterdag 11 augustus 2012 @ 20:58:
[...]


Toevallig daarnet bij TreeCopy uitgekomen.
Dit was ongeveer wat ik hebben wou :)
Ik gebruik rdiff-backup.

Sinds de 2 dagen regel reageer ik hier niet meer

Locate db?

Even niets...


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Ik vroeg me af welke software jullie hebben draaien op de linux server om windows pc's te backuppen.

Ben enkele maanden terug wel paar dagen bezig geweest om stuk of 20 software pakketten te testen voor syncen. Toen mee gestopt omdat ik geen geschikte kon vinden. Zal denk eerder een kwestie van inconsistente eisen zijn.

Het liefst zie ik elke week backup/sync van 1 of enkele folders.
Dan elke maand een full image van een systeem, zodat ik die later eventueel terug kan zetten.

Het laatste wat me opvalt, is dat Sabnzbd echt enorm slecht bezig is als het gaat om dingen uitpakken.
Zelfs als mijn data 100% correct is geeft die nog een CRC fout, soms pas na 3x opnieuw te doen lukt het.
Gezien data correct is, ga ik er niet vanuit dat het aan mijn newsserver ligt. Ben ik de enige met dit probleem?

Morgen maar eens spelen met backup mogelijkheden.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Kan iemand mij vertellen of staggered spin-up met Samsung HD204UI schijven out of the box werkt of moet ik dit dmv jumpers doen? Gezien Samsung schijven nu via Seagate gaan is er eigenlijk geen informatie te vinden.

The config utility van mij SASUC8I controller zegt:

Direct Attached Spinup Delay (Secs)
This field specifies the number of seconds to wait between spinups of devices. Vaild only when the device is configured (jumpered) to require a spinup.

Hoe weet ik of het werkt?

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 23:54
Door een energiemeter te gebruiken? Eerst geen delay gebruiken, kijken wat de piek is bij een boot en vervolgens wel een delay instellen, en kijken of de piek dan lager is. ;)

Verwijderd

Voor m'n Rsync's gebruik ik QtdSync.
Easy en goed !
Die Rsync tool van Qnap zelf werkte voor geen meter, terwijl deze het prima doet :>

[ Voor 17% gewijzigd door Verwijderd op 12-08-2012 02:32 ]


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
GioStyle schreef op zondag 12 augustus 2012 @ 01:24:
Door een energiemeter te gebruiken? Eerst geen delay gebruiken, kijken wat de piek is bij een boot en vervolgens wel een delay instellen, en kijken of de piek dan lager is. ;)
Ik zal er morgen even één halen.
Echter ben ik wel benieuwd of dit standaard werkt met deze schijven.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Je zult wel een beetje goede meter moeten nemen, ik denk niet dat alle meters zullen voldoen, piek is immers mmaar vrij kort.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
-The_Mask- schreef op zondag 12 augustus 2012 @ 12:00:
Je zult wel een beetje goede meter moeten nemen, ik denk niet dat alle meters zullen voldoen, piek is immers mmaar vrij kort.
Ik heb vanmorgen de review op hardware.info gelezen over energie meters. Ik dacht deze morgen even te halen Cresta RCE-1106 die kwam als beste uit de test. Iets anders is ook prima natuurlijk. :)
Phasis schreef op zondag 12 augustus 2012 @ 01:15:
Kan iemand mij vertellen of staggered spin-up met Samsung HD204UI schijven out of the box werkt of moet ik dit dmv jumpers doen? Gezien Samsung schijven nu via Seagate gaan is er eigenlijk geen informatie te vinden.

The config utility van mij SASUC8I controller zegt:

Direct Attached Spinup Delay (Secs)
This field specifies the number of seconds to wait between spinups of devices. Vaild only when the device is configured (jumpered) to require a spinup.

Hoe weet ik of het werkt?
Luisteren en voelen?

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Phasis schreef op zondag 12 augustus 2012 @ 12:05:
[...]


Ik heb vanmorgen de review op hardware.info gelezen over energie meters. Ik dacht deze morgen even te halen Cresta RCE-1106 die kwam als beste uit de test. Iets anders is ook prima natuurlijk. :)
Helaas valt die Cresta dus best tegen. De twee meters waar je achteraan zou moeten zijn of de Energy Monitor of de Energy Logger. Ze zijn duurder, maar ook beter. De twee meters zijn te koop bij Conrad en nog altijd niet in de aanbieding geweest in een paar weken tijd. :(
De keuze tussen de twee hangt af van of je de logging functionaliteit wil en de iets betere interne componenten van de Logger. Uiteindelijk kun je met beide meters prima metingen afnemen, waar dat bij de Cresta tegenvalt.
Lees ook hier een aantal reacties door

De CSL/OT kroeg !


Verwijderd

Voor staggered spinup heb je volgens mij een aangepaste SATA power cable nodig:
It turns out that some SATA drives (notably from WD) have a jumper on the drive for enabling and disabling staggered spin up. Others (notably Seagate) use pin 11 of the SATA power connector for enabling staggered spinup. Disabling staggered spin up happens when pin 11 is grounded, enabling happens when it’s open. It took me a few days to find that out.
Dus afhankelijk van je schijf moet je pin 11 doorboren, althans dat herinner ik me in het verleden dat mensen dit deden. Zo gaat de schijf niet automatisch opspinnen zodra het stroom heeft, en werkt de staggered spinup van je controller dus zoals hij bedoeld is.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Dadona schreef op zondag 12 augustus 2012 @ 12:31:
[...]
Helaas valt die Cresta dus best tegen. De twee meters waar je achteraan zou moeten zijn of de Energy Monitor of de Energy Logger. Ze zijn duurder, maar ook beter. De twee meters zijn te koop bij Conrad en nog altijd niet in de aanbieding geweest in een paar weken tijd. :(
De keuze tussen de twee hangt af van of je de logging functionaliteit wil en de iets betere interne componenten van de Logger. Uiteindelijk kun je met beide meters prima metingen afnemen, waar dat bij de Cresta tegenvalt.
Lees ook hier een aantal reacties door
Thanks ik ga hier even naar kijken. Uit de test bij hardware.info kwam die van Conrad Energy Monitor en die Cresta goed uit te de test. En het prijs verschil is vrij pittig. Dus vandaar mijn keuze voor de Cresta.
Verwijderd schreef op zondag 12 augustus 2012 @ 12:35:
Voor staggered spinup heb je volgens mij een aangepaste SATA power cable nodig:


[...]


Dus afhankelijk van je schijf moet je pin 11 doorboren, althans dat herinner ik me in het verleden dat mensen dit deden. Zo gaat de schijf niet automatisch opspinnen zodra het stroom heeft, en werkt de staggered spinup van je controller dus zoals hij bedoeld is.
Dit had ik inderdaad ook gelezen alleen dit is voor WD schijven. Hoe dit bij de Samsung HD204UI zit kan ik nergens vinden. Ik lees hier dat staggered spin up wel wordt ondersteund. Dat is iedergeval goed nieuws.
Vandaar dat ik dacht even polsen er zullen vast mensen voor mij zijn geweest...

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Als je de HD in je hand houdt kun je misschien wel voelen wanneer die opspint, als je het zo instelt dat het na enkele seconden gebeurt moet je het kunnen voelen of het wel of niet werkt. :)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • sloth
  • Registratie: Januari 2010
  • Niet online
Heeft iemand ervaringen met een DIY NAS op basis van pricewatch: Asus C60M1-I?

In theorie lijkt me dit best leuk:

-Goedkoop
-Fanless
-6x sata
-Zuinig
-Mini-ITX

Alleen maak ik me zorgen om de haalbare prestaties door de AMD C60 die maar op 1GHz werkt.
Veel kan ik er helaas niet over terugvinden. Iemand een idee of full gigabit snelheden hiermee haalbaar zijn indien je het alleen maar als dedicated NAS gebruikt?

Ook zijn er schijnbaar wat problemen met de onboard nic (Realtek 8111F) die niet meteen in FreeBSD herkent wordt. Dit met het oog op ZFSGuru compatibiliteit.

[ Voor 20% gewijzigd door sloth op 12-08-2012 22:55 ]


Verwijderd

Ik ben er ook benieuwd naar, en misschien kan ik het wel testen ook een keer. Door mijn 1.6GHz brazos op 1.0GHz te laten draaien bijvoorbeeld. Ik denk eigenlijk dat het prima kan; het geheugen blijft het belangrijkst. Voorwaarde is natuurlijk wel geen compressie enzo, maar RAID-Z2 met 6 disks op Brazos gaat prima. Wil je echt persé gigabit voltrekken zou ik het een riskante investering vinden, als je 75MB/s zou halen zou ik er ook tevreden mee zijn.

En je netwerk zou wel moeten werken, getuige:
Support for RTL8168/8111F was added after releasing 9.0-RELEASE.
Use 8.3-RELEASE or latest stable.
Dat betekent dat ZFSguru image 9.1-002 dus die nieuwe ondersteuning zou moeten hebben.

[ Voor 21% gewijzigd door Verwijderd op 12-08-2012 23:02 ]


  • Hendrikkkk
  • Registratie: December 2009
  • Laatst online: 12-09 16:45
Beste tweakers,

Ben al een geruime tijd hier aan het meelezen, heb ook al lang een account maar nooit echt iets gepost, vandaag toch maar eens mijn eerste stapje zetten hier op de GoT.

Ik studeer informatica en ik ben ook heel erg geïnteresseerd in opslag/servers. Nu ga ik eindelijk mijn eigen server / NAS bouwen (de 1TB NASwerd echt veel te klein :X ).

Nu zit ik een beetje vast bij de harde schijven / het OS. Ik ben vrij nieuw in *UNIX systemen , maar ik zou toch graag Ubuntu Server willen gebruiken icm. een software raid (liefst raid5). Ik weet niet of ik gebruik moet gaan maken van ZFS of iets anders, en of Ubuntu Server ook harde schijven van 3TB ondersteunt.
Graag had ik 4 schijven van 3TB in een raid5. Dit verkies ik toch wel boven 6 schijven van 2TB in een raid 5. Ik zoek niet echt aankoop advies , obviously niet het goede topic voor :p maar eerder een hulp wat betreft software RAID of ZFS ...

Ook heb ik gekeken naar FreeBSD/FreeNAS, maar hier werd ik niet echt wijs uit. Ubuntu Server lijkt mij het makkelijkst als torrent server / file server (samba) / LAMP server en als VM host. Het wordt dus eigenlijk een beetje een all-in-one type server :)

Alles wordt rechtstreeks op het MOBO aangesloten, geen raid controller, heb ik geen budget voor. (die studenten toch...)

Recap: Schijven >2TB mogelijk? Welk OS ? RAID config ? Tips? :D

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Hendrikkkk schreef op zondag 12 augustus 2012 @ 23:23:
Recap: Schijven >2TB mogelijk? Welk OS ? RAID config ? Tips? :D
Dude, er is een heel topic vol tips. Waar wil je dat we beginnen? :P 8)7

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


  • Hendrikkkk
  • Registratie: December 2009
  • Laatst online: 12-09 16:45
webfreakz.nl schreef op zondag 12 augustus 2012 @ 23:29:
[...]

Dude, er is een heel topic vol tips. Waar wil je dat we beginnen? :P 8)7
Ik heb echt heel veel gelezen, trust me :p , maar das net het probleem , ik zie door de bomen het bos niet meer. ZFS op Ubuntu , ja het gaat , maar anderen zeggen dat het weer niet zo goed is. In de documentatie op de ubuntu website stond iets dat >2TB niet mogelijk was. En toch wil ik graag Ubuntu Server als main OS. Daarom dat ik hier de vraag kom stellen :p

  • redfoxert
  • Registratie: December 2000
  • Niet online
Hendrikkkk schreef op zondag 12 augustus 2012 @ 23:30:
[...]


Ik heb echt heel veel gelezen, trust me :p , maar das net het probleem , ik zie door de bomen het bos niet meer. ZFS op Ubuntu , ja het gaat , maar anderen zeggen dat het weer niet zo goed is. In de documentatie op de ubuntu website stond iets dat >2TB niet mogelijk was. En toch wil ik graag Ubuntu Server als main OS. Daarom dat ik hier de vraag kom stellen :p
Waarom wil je RAID5?

https://discord.com/invite/tweakers


  • Hendrikkkk
  • Registratie: December 2009
  • Laatst online: 12-09 16:45
Omdat ik redundantie wil zonder al te veel aan plaats te moeten inboeten. Ik weet dat RAID5 alle data kan verliezen als je de array moet rebuilden , maar RAID6 , daar verlies je ineens al 2 schijven mee. Ik wil zoveel mogelijk opslag met zonder daar al te veel voor te hoeven inboeten. Op dit apparaat komen alle gegevens die ik bezit, dus het zou zonde zijn moest ik deze verliezen (al bestaat die kans ook wel bij het rebuilden van een raid5 array...)
Ik weet echt niet meer wat ik er mee moet |:(

  • redfoxert
  • Registratie: December 2000
  • Niet online
Hendrikkkk schreef op zondag 12 augustus 2012 @ 23:39:
[...]


Omdat ik redundantie wil zonder al te veel aan plaats te moeten inboeten. Ik weet dat RAID5 alle data kan verliezen als je de array moet rebuilden , maar RAID6 , daar verlies je ineens al 2 schijven mee. Ik wil zoveel mogelijk opslag met zonder daar al te veel voor te hoeven inboeten. Op dit apparaat komen alle gegevens die ik bezit, dus het zou zonde zijn moest ik deze verliezen (al bestaat die kans ook wel bij het rebuilden van een raid5 array...)
Ik weet echt niet meer wat ik er mee moet |:(
RAID is geen backup ... je belangrijkste data kan je beter backuppen, alle andere data classificeren en zo nodig ook een backup van maken als je dat nodig acht. RAID in een thuis oplossing is leuk maar het nut ontgaat me nogal. Dus die extra 3TB kan je ook voor iets anders inzetten :)

RAID beschermd je ook niet tegen virussen of data corruptie, los van hardware uitval.

https://discord.com/invite/tweakers


  • Hendrikkkk
  • Registratie: December 2009
  • Laatst online: 12-09 16:45
redfoxert schreef op zondag 12 augustus 2012 @ 23:42:
[...]


RAID is geen backup ... je belangrijkste data kan je beter backuppen, alle andere data classificeren en zo nodig ook een backup van maken als je dat nodig acht. RAID in een thuis oplossing is leuk maar het nut ontgaat me nogal. Dus die extra 3TB kan je ook voor iets anders inzetten :)

RAID beschermd je ook niet tegen virussen of data corruptie, los van hardware uitval.
Ik wil films/foto's etc. op een grote schijf kunnen zetten (de grote schijf zijnde een combinatie van meerdere fysieke apparaten). Ook wil ik , dat als 1 van deze schijven stuk gaat, dat mijn data nog leesbaar is , en niet verloren gaat. Natuurlijk maak ik back ups van de belangrijkste dingen , maar redundantie acht ik ook wel hoog in het vaandel. Ik zie geen andere oplossing dan een RAID configuratie hier. Natuurlijk maak ik van de belangrijkste dingen ook nog extra back-up's hoor.

Verwijderd

RAID is geen backup, maar ZFS is geen RAID. Ook ZFS is geen backup, maar het beschermt wel tegen meer gevaren dan alleen RAID kan. Hiermee doel ik specifiek op bescherming tegen corruptie en de snapshot functionaliteit, waarmee je ook bescherming krijgt tegen perongeluk verwijderen, virussen en dat soort ongein.

Om zomaar te adviseren om twee fileservers te nemen is vaak onzin. Je kunt het slimmer aanpakken met:
- betrouwbare ZFS laag met redundantie voor casual data (films, muziek)
- extra backup op USB stick die je elders bewaart, extra belangrijke documenten kun je meerdere keren backuppen

Hierdoor hou je de kosten laag en bereik je ongeveer hetzelfde effect.

Aan Hendrik met vier k's: je kunt in virtualbox eerst wat oplossingen uitproberen: Linux met md/mdadm met ZFS module, FreeNAS, ZFSguru, Nexenta. Zo kun je iets vinden wat bij jouw wensen aansluit.

Zelf werk ik aan ZFSguru wat overigens wel voldoet aan je opgegeven wensen (torrent, samba, FAMP, virtualbox) - andere oplossingen zullen bijvoorbeeld standaard virtualbox functionaliteit missen, maar hebben wel weer andere voordelen. Gewoon uitproberen dus!

En voor een goedkope ZFS NAS build hoef je in dit topic toch niet ver terug te zoeken? ;)

Als jij met Informatica bezig bent, is een zelfbouw ZFS NAS een uitstekende manier om kennis op te doen en je blikveld te verruimen!

[ Voor 5% gewijzigd door Verwijderd op 13-08-2012 00:08 ]


  • Hendrikkkk
  • Registratie: December 2009
  • Laatst online: 12-09 16:45
Verwijderd schreef op maandag 13 augustus 2012 @ 00:07:
RAID is geen backup, maar ZFS is geen RAID. Ook ZFS is geen backup, maar het beschermt wel tegen meer gevaren dan alleen RAID kan. Hiermee doel ik specifiek op bescherming tegen corruptie en de snapshot functionaliteit, waarmee je ook bescherming krijgt tegen perongeluk verwijderen, virussen en dat soort ongein.

Om zomaar te adviseren om twee fileservers te nemen is vaak onzin. Je kunt het slimmer aanpakken met:
- betrouwbare ZFS laag met redundantie voor casual data (films, muziek)
- extra backup op USB stick die je elders bewaart, extra belangrijke documenten kun je meerdere keren backuppen

Hierdoor hou je de kosten laag en bereik je ongeveer hetzelfde effect.

Aan Hendrik met vier k's: je kunt in virtualbox eerst wat oplossingen uitproberen: Linux met md/mdadm met ZFS module, FreeNAS, ZFSguru, Nexenta. Zo kun je iets vinden wat bij jouw wensen aansluit.

Zelf werk ik aan ZFSguru wat overigens wel voldoet aan je opgegeven wensen (torrent, samba, FAMP, virtualbox) - andere oplossingen zullen bijvoorbeeld standaard virtualbox functionaliteit missen, maar hebben wel weer andere voordelen. Gewoon uitproberen dus!

En voor een goedkope ZFS NAS build hoef je in dit topic toch niet ver terug te zoeken? ;)

Als jij met Informatica bezig bent, is een zelfbouw ZFS NAS een uitstekende manier om kennis op te doen en je blikveld te verruimen!
Dit is inderdaad heel interessant. Ik heb me in mijn virtueel lab al bezig gehouden met Ubuntu Server icm. ZFS. Dit werkte gewoon. Ook vind ik ZFS een heel interessant bestandssysteem. Mijn hardware heb ik praktisch allemaal, ik moet gewoon nog een resem schijven hebben en dan valt het nog te bezien hoe ik deze inricht , dus nog steeds benieuwd of 3TB ondersteund wordt in unix.
Mijn belangrijkste data heb ik op meerdere locaties natuurlijk, maar ik wil voorzien zijn op een faulty spare of het random crashen van 1 tot 2 hardeschijven (Raid5 of Raid6). Iemand een idee of 4 x 3TB werkt i.c.m. ZFS-fuse onder ubuntu ? (heb slechts getest met een 4 tal virtual box schijven van 8GB :p )

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
sloth schreef op zondag 12 augustus 2012 @ 22:49:
Heeft iemand ervaringen met een DIY NAS op basis van pricewatch: Asus C60M1-I?
Sloth, ik geef jou bij deze een one-size-fits-all paar:
Afbeeldingslocatie: http://upload.wikimedia.org/wikipedia/commons/thumb/a/a9/Handschoenen-nappaleer0859.JPG/300px-Handschoenen-nappaleer0859.JPG

Ik zit nu ook al een tijdje te wachten tot de eerste review verschijnt, vooral wat het verbruik betreft. Winstpunt is dat je niet met de ventilator zit, zoals op één van de mooiste (maar EOL ? ) Brazos borden, de borden van MSI (CiPHER heeft er één). Maar Asus liep altijd een eindje achter op MSI.

Nu ben ik nog wel zo eerlijk om te zeggen dat de snellere tegenhanger momenteel op V&A staat: V&A aangeboden: Asus E35M1-I Maar misschien dat een snelle test van CiPHER de grootste twijfel weg kan halen.

De CSL/OT kroeg !


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
V&A aangeboden: Asus E35M1-I Maar misschien dat een snelle test van CiPHER de grootste twijfel weg kan halen.
Waarschijnlijk de laatste kans dat je dit bord nog kan kopen :)

Zou der een opvolger komen?

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Tsja, het ziet er slecht uit. Dat is ook een belangrijke reden dat ik niet teveel ermee bezig ben. Ik wil niet nu zo'n bord testen en over twee weken zien dat het ding alweer EOL is. Ik snap ook echt niet waarom die twee heerlijke MSI bordjes EOL zijn gegaan. Ik vermoed dat dit simpelweg het gevolg is van tegenvallende verkopen omdat de prijs iets te hoog blijft. Maar als de E35M1-l nu dat voorbeeld is gevolgd en de C60M1-l overblijft...

De CSL/OT kroeg !


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Hendrikkkk schreef op maandag 13 augustus 2012 @ 00:13:
[...]

Dit is inderdaad heel interessant. Ik heb me in mijn virtueel lab al bezig gehouden met Ubuntu Server icm. ZFS. Dit werkte gewoon. Ook vind ik ZFS een heel interessant bestandssysteem. Mijn hardware heb ik praktisch allemaal, ik moet gewoon nog een resem schijven hebben en dan valt het nog te bezien hoe ik deze inricht , dus nog steeds benieuwd of 3TB ondersteund wordt in unix.
Mijn belangrijkste data heb ik op meerdere locaties natuurlijk, maar ik wil voorzien zijn op een faulty spare of het random crashen van 1 tot 2 hardeschijven (Raid5 of Raid6). Iemand een idee of 4 x 3TB werkt i.c.m. ZFS-fuse onder ubuntu ? (heb slechts getest met een 4 tal virtual box schijven van 8GB :p )
3TB disks gaat wel werken onder Ubuntu hoor. Vorige week toevallig nog getest met 2xHItachi 4TBs en het OS zag ze gewoon (disks staan trouwens in V&A als iemand ze zoekt).
Ik geloof dat je er ook van kan booten mer een UEFI bios, maar dat heb ik niet geprobeerd.
Neem wel Ubuntu Server 12.04 LTS voor de long term support, anders moet je veel te snel weer herinstalleren.

Zelf heb ik niet voor fuse gekozen maar voor de kernel compilatie. Dit zou sneller moeten zijn. Er is een Ubuntu PPA file die de boel voor je installeert en voorlopig werkt het prima.

Nog FF wat anders - ik meen ergens tegengekomen te zijn dat het mogelijk is bepaalde folders op je ZFS volume uit te rusten met extra redundatie. B.v. je documenten met 2x redundant, en je films met 1x, op je RaidZ. Weet iemand hoe dit werkt?

  • Dutchtraveller
  • Registratie: Oktober 2006
  • Laatst online: 26-11 22:50
@Phasis & CiPHER
Er zijn meerdere manieren om te zorgen dat een drive niet direct opspint als de voedingsspanning erop komt.
Op de controller wordt dit feature meestal 'staggered spinup' genoemd maar op de drive heet het 'power-on in standby'.
Een drive kent meerdere statussen met bijbehorend energieverbruik.
In volgorde van energiegebruik (hoog naar laag):
Seeking/reading/writing gebruiken het meeste energie.
Active-idle: de platters draaien en de heads zweven boven de platters (niet geparkeerd).
Na enige tijd in active-idle kan een drive de koppen optillen en even later parkeren.
Standy: de platters spinnen niet, alleen de electronica is aktief zodat commando's kunnen worden ontvangen.
Sleep: disk komt alleen op na reset of power-cycle.

Sommige drives kennen ook nog slowspin (bijvoorbeeld van 7200 naar 5200 tpm).

Wat je wil bereiken is dat de drive bij power-up naar standby gaat.
De opties:
Sommige drives hebben een jumper (zal wel met pin 11 verbonden zijn).
De meeste supporten een commando.
Pin11 disconnecten. Zit soms verwerkt in de backplane van een diskarray.

Om pin 11 te disconnecten kun je inderdaad door pin11 van je sata connector heenboren.
Dat trucje heb ik bedacht. Staat ergens een artikel van me over dat boren op tweakers met plaatjes.
Als je gaat boren zou ik dat eerst even lezen...

Maar waarschijnlijk kun je het af met het commando hdparm (ik heb het zelf nog niet geprobeerd).
Specifiek de optie -s, die je overigens absoluut niet op je bootdisk(en) moet toepassen anders zal je systeem nooit opkomen.

Van de manpage:
-s
Enable/disable the power-on in standby feature, if supported by the drive. VERY DANGEROUS. Do not use unless you are absolutely certain that both the system BIOS (or firmware) and the operating system kernel (Linux >= 2.6.22) support probing for drives that use this feature. When enabled, the drive is powered-up in the standby mode to allow the controller to sequence the spin-up of devices, reducing the instantaneous current draw burden when many drives share a power supply. Primarily for use in large RAID setups. This feature is usually disabled and the drive is powered-up in the active mode (see -C above). Note that a drive may also allow enabling this feature by a jumper. Some SATA drives support the control of this feature by pin 11 of the SATA power connector. In these cases, this command may be unsupported or may have no effect.

Volgens de pagina over hdparm op wikipedia:
Before using hdparm it is important to read its man page, and (if testing any of its dangerous parameters) to have a full backup of everything on the drive.

Probeer het met een oude disk (van hetzelfde merk).
Blijkbaar werkt het als een toggle. Om het commando weer uit te schakelen moet je nog een keer hdparm -s gebruiken.
Als je het niet kunt testen of niet aandurft dan zou ik het boren proberen...
Een sata powerkabel is een stuk goedkoper dan een disk.

Ik heb de sources van de Linux diskdrivers wel eens doorgenomen en daar zag ik dat een startup commando wordt gestuurd. Volgens die manpage van hdparm zit dat er sinds 2.6.22 in.

Het aktiveren van staggered spinup op de controller was op mijn Areca niet voldoende om te zorgen dat de controller ook de aangesloten disken ging programmeren met 'power-on in standby'.
Het enige wat ik indertijd kon vinden was die pin11 afhankelijkheid en omdat ik het niet zag zitten om aan de disken zelf te gaan solderen kwam ik op het doorboren van pin11 uit.
Maar bij de volgende server die ik bouw ga ik eerst dat commando proberen.

Succes!!

  • sloth
  • Registratie: Januari 2010
  • Niet online
Dadona schreef op maandag 13 augustus 2012 @ 00:16:
[...]
Sloth, ik geef jou bij deze een one-size-fits-all paar:
[afbeelding]

Ik zit nu ook al een tijdje te wachten tot de eerste review verschijnt, vooral wat het verbruik betreft. Winstpunt is dat je niet met de ventilator zit, zoals op één van de mooiste (maar EOL ? ) Brazos borden, de borden van MSI (CiPHER heeft er één). Maar Asus liep altijd een eindje achter op MSI.
Wat bedoel je precies met one-size-fits-all? Ik vat 'm even niet.

Asus loopt idd achter wat zuinigheid betreft op Intel / MSI. Toch verwacht je een laag verbruik omdat er niet veel overbodige meuk opzit.
Verder wist ik niet dat die C-60 clock-per-clock even snel als een E-350 is. Volgens deze vergelijking zijn ze m.u.v. de kloksnelheid en TDP identiek.
De C-60 heeft blijkbaar trouwens een turbo optie waardoor je wanneer je het nodig hebt 1,33GHz ter beschikking hebt. Dit is slechts 267MHz minder dan een E-350. Verwaarloosbaar lijkt me.
Durandal schreef op maandag 13 augustus 2012 @ 01:53:
[...]
Nog FF wat anders - ik meen ergens tegengekomen te zijn dat het mogelijk is bepaalde folders op je ZFS volume uit te rusten met extra redundatie. B.v. je documenten met 2x redundant, en je films met 1x, op je RaidZ. Weet iemand hoe dit werkt?
Dat kan met copies=x. Is voor mij een van dé redenen om op ZFS over te stappen.
Erg interessant om te lezen, bedankt voor je post! :)

Voor overige lezers die benieuwd zijn naar het oude artikel van Dutchtraveller: Staggered spin-up aktiveren

Het verbaast me dat je zelf moet gaan boren om die pin 11 functionaliteit ongedaan te maken. Zouden er dan echt geen sata kabels te koop zijn waarmee je hetzelfde kan bereiken? :?

Begrijp ik verder goed dat je, in theorie, staggered spin-up kan toepassen op elke drive op elke controller? Indien je hdparm -s uitvoert op een drive gaat deze tijdens boot niet opspinnen. Als je dan gewoon als bootscript hdparm weer aanzwengelt met het command om de drive terug actief te maken zou dit erg gaaf zijn :)
Dan kan je gewoon een PicoPSU nemen van 80watt met 6 drives, dan heb je zowel zuinigheid, fanless, genoeg uitbreidingsmogelijkheden én een schappelijke prijs :D

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
PicoPSU's van 80W hebben normaal gesproken een 12V input en deze dingen zijn amper zuiniger dan een zuinige ATX voeding, daarnaast zijn de prestaties vaak belabberd door dat de 12V uit de adapter niet gefilterd wordt door de PicoPSU.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Verwijderd

@DutchTraveler: hee bedankt voor die extreem nuttige info; die ga ik even bookmaken. :)

@-The_Mask-: welke ATX voedingen zijn zuinig dan met een laag vermogen? Je zegt dat een ATX voeding een PicoPSU kan verslaan? Daar ben ik wel heel benieuwd naar. En alhoewel je enorm veel meer kennis hebt van voedingen, ben ik toch erg wantrouwend. Het strookt namelijk niet met mijn eigen tests waar een 14.2 PicoPSU in de praktijk door ATX voeding rond de 36W afgeeft, gemeten met Voltcraft Energy Check 3000.

Verder: de PicoPSU doet toch niets met +12V? Dat is een nadeel in jouw ogen, in mijn ogen juist een voordeel omdat je altijd de adapter kunt vervangen voor meer wattage, of zelfs één ATX voeding gebruiken om meerdere PicoPSU machines mee te poweren; iets wat ik voor mijn eigen setup in gedachte had. Als de 'kwaliteit' van de +12V output beter zou moeten, zou je een betere +12V power brick moeten kopen die wel dergelijke bescherming heeft. Dat heeft in principe niets met de PicoPSU te maken, toch?

Daarnaast: een ATX voeding is zo massief groot; zo groot als het hele (Mini-ITX) systeem bijna. Zo'n PicoPSU is ergonomisch veel makkelijker kwijt en maakt het mogelijk om véél systemen in kleine ruimte te installeren. Daarnaast heb je gewoon heel lage idle power terwijl dat bij een ATX voeding vrijwel nooit zo is. Als jij me wilt tegenspreken: be my guest; maar kun je dan ook specifieke ATX voedingen noemen? Stel ik zou zo'n voeding kopen en ik koppel hem aan mijn 14,2W AC Brazos setup (of 9,2W AC kaal), hoeveel zou die ATX voeding dan aan het stopcontact trekken volgens jou?

Ik ben zelf erg op zoek geweest naar laag idle power; maar heb geen verstand van electronica. Het is mijn ervaring dat lage idle power iets is waar niemand op zit te wachten behalve ik. Alle producten zijn ontworpen om VEEL energie te verbruiken voor overclocken en andere zaken. Zuinigheid en efficiëntie zijn gewoon geen verkoopargumenten in de mondiale computermarkt die gedomineerd wordt door Amerika die over goedkope olie/electriciteit beschikt, en door Azië die net blij zijn dat ze wat technologie hebben en de zuinigheid nog iets is waar ze niet naar kijken. Wij Europeanen kijken daarnaar, maar er is dus eigenlijk geen markt voor. Geen moederbord die een idle waarde opgeeft, geen voeding die zegt hoe efficiënt deze is met 10W DC belasting. Nee, dat soort informatie willen ze gewoon niet vrijgeven en dat lijkt me logisch omdat een hoge kwaliteitsvoeding zo opeens er heel slecht uit kan komen te zien als de efficiency op 10W DC vermogen beneden de 40% blijkt te liggen. Vanaf 20% van zijn vermogen is het wel 80-90% sure, maar dat is extreem hoog voor een zuinig systeem.

Het probleem is dus dat je een voeding wilt die zuinig is in 5 tot 15 watt, terwijl je toch 200W+ spinup power wilt hebben voor enkele seconden; de efficiency daarvan is irrelevant. Maar het gevolg is wel dat als je een 400W voeding neemt dat de geteste 20% load alweer 80W DC load betekent, niet 15W of 10W AC. Low idle power blijkt een nichemarkt te zijn....

Verwijderd

@Hendrikkkk

Kan je niet gewoon ZFSGuru installeren (FreeBSD dus) met VirtualBox en dan een Ubuntu in VB draaien? Op die manier heb je je OS keuze maar heb je wel de ZFS stabiliteit van een FreeBSD install.

Ik ben van plan het zo te doen en al mijn custom apps zoals sabnzbd, couchpotato, etc in 1 VM te draaien dewelke je in bridge zet met FreeBSD.

Best of both worlds imo.


2de probleem is RAIDZ en niet RAIDZ2. Je kan een apparte mount maken voor je werk / persoonlijke bestanden en copies op 2 of 3 zetten. Ik meen dat als je het op copies=3 zet en je pool op RAIDZ draait (dus 1 parity disk) dat je zo goed als zeker al je persoonlijke files nog kan terugkrijgen indien er een 2de HD crasht tijdens een degraded state.

Je moet dan gewoon de HD's swappen en een rescrub doen. De 'gewone' files zoals films & series etc die je kan terugkrijgen ben je deels kwijt. Maar de persoonlijke files krijg je terug omdat ze minstens op 3 disks stonden. Ik denk wel dat als je HD's zo goed als vol stonden en je hebt veel persoonlijke files dan ben je ze wel kwijt.

Stel dat je maar een paar GB aan personal data hebt dan lijkt me deze oplossing perfect ok als je geen 2 parity disks wilt. Dan is er maar een hele kleine kans dat je echt alles kwijt kan raken.

Klopt mijn redenering hier? Zelf nog niet getest.

  • Hendrikkkk
  • Registratie: December 2009
  • Laatst online: 12-09 16:45
Verwijderd schreef op maandag 13 augustus 2012 @ 14:30:
@Hendrikkkk

Kan je niet gewoon ZFSGuru installeren (FreeBSD dus) met VirtualBox en dan een Ubuntu in VB draaien? Op die manier heb je je OS keuze maar heb je wel de ZFS stabiliteit van een FreeBSD install.

Ik ben van plan het zo te doen en al mijn custom apps zoals sabnzbd, couchpotato, etc in 1 VM te draaien dewelke je in bridge zet met FreeBSD.

Best of both worlds imo.


2de probleem is RAIDZ en niet RAIDZ2. Je kan een apparte mount maken voor je werk / persoonlijke bestanden en copies op 2 of 3 zetten. Ik meen dat als je het op copies=3 zet en je pool op RAIDZ draait (dus 1 parity disk) dat je zo goed als zeker al je persoonlijke files nog kan terugkrijgen indien er een 2de HD crasht tijdens een degraded state.

Je moet dan gewoon de HD's swappen en een rescrub doen. De 'gewone' files zoals films & series etc die je kan terugkrijgen ben je deels kwijt. Maar de persoonlijke files krijg je terug omdat ze minstens op 3 disks stonden. Ik denk wel dat als je HD's zo goed als vol stonden en je hebt veel persoonlijke files dan ben je ze wel kwijt.

Stel dat je maar een paar GB aan personal data hebt dan lijkt me deze oplossing perfect ok als je geen 2 parity disks wilt. Dan is er maar een hele kleine kans dat je echt alles kwijt kan raken.

Klopt mijn redenering hier? Zelf nog niet getest.
Ik heb me deze voormiddag eens bezig gehouden met FreeNAS , en dit is echt ongelooflijk simpel. Getest in een VM met 4 schijven , zfs pooltje gemaakt, virtuele schijf ontkoppeld, en ZFS gaf Degraded aan. Schijf terug aangekoppeld, en de pool was terug healthy, heel handig. Het enige nadeel van FreeNAS is natuurlijk dat het vrij beperkt is. Als NAS is het helemaal compleet, maar om er ook nog een VM op te draaien... Dadelijk FreeBSD (of ZFSGuru) eens uitgebreid testen. Ik ben er wel vrij zeker van dat ik voor ZFS ga gaan, heel interessant systeem!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
sloth schreef op maandag 13 augustus 2012 @ 12:11:
[...]


Wat bedoel je precies met one-size-fits-all? Ik vat 'm even niet.

Asus loopt idd achter wat zuinigheid betreft op Intel / MSI. Toch verwacht je een laag verbruik omdat er niet veel overbodige meuk opzit.
Verder wist ik niet dat die C-60 clock-per-clock even snel als een E-350 is. Volgens deze vergelijking zijn ze m.u.v. de kloksnelheid en TDP identiek.
De C-60 heeft blijkbaar trouwens een turbo optie waardoor je wanneer je het nodig hebt 1,33GHz ter beschikking hebt. Dit is slechts 267MHz minder dan een E-350. Verwaarloosbaar lijkt me.
Het was vooral een uitdaging dat je daadwerkelijk aan de slag gaat met het moederbord. ;)

Dat is toch juist het punt. Het is hetzelfde productieproces, dezelfde architectuur, procedé, .. Alleen is de C-60 gelimiteerd in topsnelheid en van een turbo voorzien. Het is simpelweg een processor die een lagere TDP heeft. Daarom zou zo'n test van CiPHER ook zinnig zijn. Limiteer de E-350 tot de snelheid van de C-60 en je hebt een eerlijke vergelijking. :)

De CSL/OT kroeg !


  • sloth
  • Registratie: Januari 2010
  • Niet online
Bij deze dan maar ;)

CiPHER, als je de tijd en zin zou vinden, zou je dan een keer wat benchmarks willen doen op je Brazos systeem?

Waar ik benieuwd naar ben is de throughput performance via CIFS / NFS i.c.m. ZFS of het dan de processor is die de bottleneck is.
Helemaal ideaal zou het zijn als je dit kan testen zonder RAID, dus met een zpool van 1 disk.

Vermits de C-60 in turbo modus slechts 267MHz langzamer is dan de E-350 op je Brazos zouden bovenstaande resultaten met een afwijking van ongeveer 15% een mooie indicatie kunnen geven wat we daar van kunnen verwachten :)

  • Dutchtraveller
  • Registratie: Oktober 2006
  • Laatst online: 26-11 22:50
@CiPHER

Wat de beste voeding is hangt af van de toepassing.
In het algemeen:
Een PicoPSU + 12V adapter is het zuinigst bij hele lage belastingen.
Wanneer je in de buurt van de 60-80W komt zal een goede ATX voeding zuiniger zijn.

Het rendement bij hele lage vermogens wordt vooral bepaald door het eigen verbruik van de voeding zonder belasting (= idle verbruik).
Een Antec Earthwatts Platinum van 650W kan wel een platinum voeding zijn maar in idle verbruikt hij nog steeds 14,5W. Deze is geoptimaliseerd voor de 80+ benchmark.. 8)
Ik neem voor de berekening aan dat het eigen verbruik onafhankelijk van de belasting is.
Bij 40W load verbruikt de voeding ongeveer 57W.
Als je daar het idle verbruik van af trekt dan zie dat er in de conversie maar 2,5W verloren gaat.
Dat is een rendement van 94% bij 6% load... :*) De conversie zelf is efficiënt.
Maar het totale rendement is toch maar 70%. :'(

Toch is die voeding heel geschikt voor een gamer met een zware videokaart
Die zal vooral in de regionen verkeren waar die voeding juist heel goed scoort.

Niet alle ATX voedingen hebben zo'n hoog idle verbruik. 7-11W is een normaal voor een moderne voeding.
Het laagste wat ik tegen ben gekomen is 5,1W voor een ATX voeding en 0,5W voor een laptop adapter (19V output).
Hier zie je dat een goede brick bij lage belastingen veel gunstiger uit kan komen dan een ATX voeding.
Wat de 12V bricks doen die voor de PicoPSU worden ingezet weet ik niet.
Je kunt het makkelijk zelf meten door alleen die brick aan te sluiten.
De Cresta verbruiksmeter die ik voor 10 euro heb gekocht was indertijd het meest nauwkeurig bij lage belastingen.

Als je een PicoPSU combineert met staggered spin-up heb je aan een brick van 80W genoeg om een paar disken (afhankelijk van de load van de rest van je systeem) te bedienen.

Als je een aantal van die zuinige systemen tegelijk laat draaien kun je beter een ATX voeding nemen i.c.m. een PicoPSU per systeem. Als je ze niet allemaal tegelijk opstart heb je zelfs geen staggered spin-up nodig.
Ik heb goede resultaten gezien van de Be Quiet Straight Power E9-400W. Die ga ik voor mijn komende server inzetten. Die krijgt af en toe iets meer te verwerken... >:)

Zoals je ziet ben je toch niet de enige met interesse in zuinige systemen... :)

Custom-built voedingen voor servers scoren overigens het hoogst op het gebied van efficiëncy maar zijn meestal niet los te koop en passen niet in een normale kast.

[ Voor 13% gewijzigd door Dutchtraveller op 13-08-2012 21:28 ]

Je vertelt volgens mij een hele hoop dingen die CiPHER allang weet :+ (no offense)

Overigens is je Cresta meter zo goed niet (zie deze post van Mux: mux in "Energiemeters... deel hier je ervaringen")

Overigens is je verhaal wel een goede korte samenvatting :+

[ Voor 11% gewijzigd door FireDrunk op 13-08-2012 23:35 ]

Even niets...


  • Hendrikkkk
  • Registratie: December 2009
  • Laatst online: 12-09 16:45
Even een update over mijn soon-to-be NAS/homeserver.
Ik was eens aan het kijken naar hardware raid oplossingen maar ik raak er niet veel wijzer uit. Dan is het SAS, dan is het Sata, dan zijn het x kanalen , etc etc. Ik heb al wel begrepen dat SAS omgezet kan worden naar 4 x SATA dus in principe zou een controller met 2 x SAS 8 SATA harde schijven moeten kunnen ondersteunen , klopt dit?

Iemand een suggestie voor een controller waar ik
-raid 5 (met eventueel raid 6) ondersteuning heb
- ondersteuning voor >2TB drives (3TB..obviously :+ )
- werkend met server 2008 r2 (heb nog wat gratis officiële MS licenties , lang leve msdnaa :D )
-tussen de 4 tot 8 drives.

Geen idee of ik dan een controller nodig heb met 2SAS poorten of 8 SATA poorten of een combinatie, of sata-300 of 150 of 600 en welke firmwares ... :X

ZFS is leuk om mee te experimenteren , maar dit vloekt met Windows (Ik weet dat ik via windows via CIFS /SAMBA een ZFS NAS kan gebruiken , maar ik heb het hier over Windows + ZFS op dezelfde machine). en vermits ik toch graag mijn server 2008 licentie wil gebruiken zoek ik dus een andere oplossing.
Ik heb in het 10+TB storage showoff topic ook iemand gezien die ESXi draait met daarboven op een VM met Server 2008 i.c.m FlexRAID , maar ik veronderstel dat het het wel waard is om te sparen voor een effectieve controller ;)

edit: typo

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
@Hendrik:

Als je wil gaan virtualiseren, gebruik dan gewoon ook meteen een methode om je data tank in een VM te stoppen. Je kan bijvoorbeeld Debian of Ubuntu installeren zonder GUI's e.d., daar xen op dumpen, en daarop ZFSguru en Windows 2k8R2, en misschien nog een Linux server ernaast.. Werkt prima. Heb het zelf (Zonder Windows) op een Q6600 gedaan, dus als het daar op kan, zou je het met elke willekeurige VT-d proc moeten kunnen doen.

Als je Xen niet leuk vind, heb je ook nog KVM, erg goed. En een soort van noob-style ding is er ook, heet ESXi, kan vooral handig zijn als je je met het hypervisor gedeelte niet echt bezig wil houden, dat is een soort van plug & play met beperkingen.

  • Hendrikkkk
  • Registratie: December 2009
  • Laatst online: 12-09 16:45
johnkeates schreef op dinsdag 14 augustus 2012 @ 00:46:
@Hendrik:

Als je wil gaan virtualiseren, gebruik dan gewoon ook meteen een methode om je data tank in een VM te stoppen. Je kan bijvoorbeeld Debian of Ubuntu installeren zonder GUI's e.d., daar xen op dumpen, en daarop ZFSguru en Windows 2k8R2, en misschien nog een Linux server ernaast.. Werkt prima. Heb het zelf (Zonder Windows) op een Q6600 gedaan, dus als het daar op kan, zou je het met elke willekeurige VT-d proc moeten kunnen doen.

Als je Xen niet leuk vind, heb je ook nog KVM, erg goed. En een soort van noob-style ding is er ook, heet ESXi, kan vooral handig zijn als je je met het hypervisor gedeelte niet echt bezig wil houden, dat is een soort van plug & play met beperkingen.
Je bedoelt hiermee dat ik mijn ZFS pool maak in een virtuele machine?

Verwijderd

Heb ik ook, onder ESXi via RDM gedaan, werkt als een trein. Mijn experimenten met KVM liepen op niks uit, hoop geklooi en problemen met de i/o doorvoer..

  • Hendrikkkk
  • Registratie: December 2009
  • Laatst online: 12-09 16:45
Allemaal heel leuk , maar ik denk dat dit soort virtualiseren mij toch wat te ver gaat. Ik gebruik het maar als test lab om snel een nieuwe distro van ubuntu /mint / debian te testen, maar niet om 24/24 VM's te draaien met hun eigen nut. Ik zoek eerder een NAS , die krachtig genoeg is om af en toe wat VM's te draaien , die Server 2008 draait met redundante opslag. Verder verwacht ik nog Apache, MySQL, PHP , SSH&SFTP, Torrent server , beheer voor series zoals couchpotato? , ... Ik heb nu een perfect werkende setup onder windows 7 pro x64, maar hier mis ik vooral opslag en redundantie (gewoon een 1x 1TB drive en 1 x 640GB voor OS).

  • Dutchtraveller
  • Registratie: Oktober 2006
  • Laatst online: 26-11 22:50
@FireDrunk
Baat het niet dan schaadt het niet ;)

Bedankt voor de info over de Cresta.
Gelukkig heb ik de meter die door mux wordt aangeraden (de datalogger) ook. :*)
Altijd gedacht dat die Cresta beter was... :o

Verwijderd

@Hendrikkkk: je kunt natuurlijk voor een standaard Windows machine gaan. Dan hoef je niets te leren, weinig tijd te besteden aan het configureren en weet je wat je softwarematig allemaal kunt. Nadeel is wel de hogere investeringen in Hardware RAID, battery backup unit (BBU) en schijven met TLER support. Die investeringen zullen nutteloos zijn als je ooit wél iets als ZFS wilt draaien. Dat is een belangrijke beperking die je je goed moet realiseren; ga je de Windows route dan is dat een route die 180 graden gedraaid staat ten opzichte van de route voor Linux software RAID of ZFS, waarbij je non-TLER schijven wilt, geen hardware RAID controller en geen BBU nodig hebt.

Een ander nadeel is dat je feitelijk geen bescherming tegen corruptie hebt; je draait 'ouderwets' RAID met een ouderwets filesystem. Dat betekent dat je corruptie nooit kunt detecteren, hooguit handmatig als er gaten in je data zitten. Het niveau van bescherming is flink lager dan een ZFS oplossing. Dus grofweg...

Windows NAS voordelen:
  • vertrouwde interface
  • veel software beschikbaar
  • makkelijk installeren en beheren
Windows NAS nadelen:
  • geen echte bescherming voor je data
  • silent corruption
  • hoge investeringen nodig voor parity RAID op Windows (Hardware RAID, BBU, TLER schijven)
  • deze investeringen zijn enkel nuttig voor een Windows NAS; niet voor een Linux software RAID of ZFS systeem, waardoor je opties in de toekomst wel beperkt worden.
Als ik heel eerlijk mag zijn... Windows kan iedereen. Als jij Informatica studeert en dus verder wilt komen dan de gemiddelde computergebruiker, helpt het niet erg door voor 'hapklare' oplossingen te gaan. Daar leer je weinig nieuws van. Daarom leek me een ZFS server (of op Linux basis met md-raid) juist een mooie uitdaging voor jou. Maar je moet zelf je keuze maken, hopelijk kan bovenstaande hierbij helpen.

Succes!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
Hendrikkkk schreef op dinsdag 14 augustus 2012 @ 01:04:
Ik heb nu een perfect werkende setup onder windows 7 pro x64, maar hier mis ik vooral opslag en redundantie (gewoon een 1x 1TB drive en 1 x 640GB voor OS).
een Areca ARC-1223-8i kun je gewoon onder Windows draaien en werkt prima. Naar mijn mening heb je met zo'n controller een prima oplossing.
Areca heeft in de firmware opties waardoor de noodzaak van TLER op de schijven er volgens mij niet is. Ik draai zelf nu enkele jaren (denk sinds 2007) met een Areca controller met minimaal 8 schijven en er is nog nooit een schijf uit de array gevallen om dat er een probleem was door een schijf die geen TLER ondersteund. Ik gebruik enkel normale (lees de minst dure in €/GB) consumer harddisks.
Grote voordeel vind ik dat het probleemloos onder Windows 7 64 werkt. Ik draai op mijn NAS dus Windows en doe beheer via remote desktop. Voor mij persoonlijk werkt dat ideaal.

  • wjn
  • Registratie: Juli 2012
  • Laatst online: 26-11 13:40

wjn

Verwijderd schreef op dinsdag 14 augustus 2012 @ 01:24:
Windows NAS nadelen:
  • geen echte bescherming voor je data
  • silent corruption
  • hoge investeringen nodig voor parity RAID op Windows (Hardware RAID, BBU, TLER schijven)
  • deze investeringen zijn enkel nuttig voor een Windows NAS; niet voor een Linux software RAID of ZFS systeem, waardoor je opties in de toekomst wel beperkt worden.
Windows 8 krijgt ReFS, waarmee het eigenlijk hetzelfde (op file niveau) doet als ZFS.
Er zijn dus ook RAID controllers waarbij TLER niet nodig is.

Neemt niet weg dat ikzelf ZFS de mooiere oplossing vindt, tot nu toe.
ReFS is nog niet zo goed als ZFS, het heeft wel checksums, maar volgens mij nog geen variabele checksums zodat write hole problemen opgelost worden. (en zo zijn er volgens mij nog meer verschillen.)

Even niets...


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
wjn schreef op dinsdag 14 augustus 2012 @ 11:49:
[...]Neemt niet weg dat ikzelf ZFS de mooiere oplossing vindt, tot nu toe.
software raid loopt technisch inderdaad voor maar wanneer je zelf iets werkends wilt bouwen is Linux voor mij net een stap te ver.
Enige wat ik onder Linux draai is XBMC en dan een OpenElec versie waarbij Linux wat mij betreft doet wat het moet doen en ik geen Linux command line hoef te gebruiken (hoezo Tweaker :+ ).

Verwijderd

Windows 8 consumer edities krijgen toch geen ReFS? Alleen de enterprise/server edities als ik goed begrepen had? Ik weet niet hoe duur die zijn, maar zou best kunnen dat een legale Windows NAS met ReFS voorlopig niet betaalbaar is.

Daarnaast: RAID controllers die geen TLER nodig hebben. Ja er zijn wel meer verhalen van mensen die al jaren een configuratie draaien zonder TLER. de grote vraag daarbij is:

Hebben ze überhaupt al bad sectors gekregen op hun schijven of niet; hoeveel reallocated sector count in hun schijven hoeveel pending sectors? Als je simpelweg nog niet gebeten bent door bad sectors, weet je nog helemaal niets of je controller TLER nodig heeft of niet. Bedenk ook dat oudere schijven met lagere datadichtheid minder snel onleesbare bad sectors ontwikkelen die fysiek gewoon in orde zijn, maar onvoldoende ECC beschikbaar om deze te fixen. Dit soort bad sectors wordt niet door een reserve sector omgewisseld omdat er geen fysieke schade is. Dit soort bad sectors komt steeds meer voor naarmate de datadichtheid toeneemt.

Dat gezegd kunnen hardeschijven inderdaad veel intelligenter omgaan met disk failures en timeouts. Bijvoorbeeld door andere sectoren proberen te lezen en op die manier onderscheid maken tussen een gefaalde schijf en een goed werkende schijf met een onleesbare sector. Want daar dit hem het probleem: hardware RAID beschouwt alles wat niet binnen 10 seconden reageert, als gefaald. Dit soort timeouts kan wel worden opgerekt met firmware, en ik ben heel benieuwd naar concrete informatie hieromtrent. Helaas heeft niemand mij die ooit kunnen geven, waardoor het verhaal 'je hebt geen TLER nodig' onvoldoende onderbouwd is. Het kan simpelweg zijn dat de betreffende gebruiker al die tijd geluk heeft gehad omdat er zich geen pending sectoren voortdeden.
Want daar dit hem het probleem: hardware RAID beschouwt alles wat niet binnen 10 seconden reageert, als gefaald.
Een paar posts terug word juist gezegd dat Areca die funtionaliteite veranderd heeft en een optie heeft "No timeouts ever". Dat helpt al heel erg.

Dan blijft de vraag of de Areca na 10 Seconden de data automatisch vanaf pariteit gaat leveren (en dus zelf gaat reconstrueren) of gewoon de IO aanvraag delayed.

Even niets...


  • Duskwither
  • Registratie: Maart 2010
  • Laatst online: 19:37
Windows server 8 krijgt Storage Spaces, waarmee fysieke raid controllers vermoedelijk ook redelijk nutteloos worden voor thuis gebruik.

  • Hendrikkkk
  • Registratie: December 2009
  • Laatst online: 12-09 16:45
@CiPHER
Daar heb je inderdaad wel een punt. Ik vind het ook wel leuk om nieuwe dingen te ontdekken. Ook ZFS met snapshots / corruptie spreekt me nog steeds erg aan en de meerprijs van hardware RAID met TLER schijven vind ik dan opeens niet meer gerechtvaardigd en ja, je bent tweaker voor iets :p Het is inderdaad tijd om af te stappen van die vertrouwde windows omgeving (na 12 jaar). Ubuntu server vertrouw ik nog wel als 'productie systeem' , maar ZFS via FUSE gaat daar niet zo snel en heb op verschillende plaatsen gelezen dat het nog niet zo stabiel is.
FreeNAS heeft excellente ZFS support en vond ik ook ideaal voor een NAS, enkel ja, compleetheid hé :p
Dan maar eens ZFSGuru/FreeBSD proberen met daar boven op een server 2008 in VM.
Volgende week een leuk mobo+cpu'tje aanschaffen, grote /stille case en een hele resem 3TB schijven :)

edit: wou ZFSguru downloaden van hun officiele site, maar de links naar de downloads lopen dood :(

[ Voor 5% gewijzigd door Hendrikkkk op 14-08-2012 12:26 ]


Verwijderd

@FireDrunk: ik dacht dat ook gelezen te hebben, maar kan die post nergens meer terugvinden.. ?

Maar hoe moet ik me dat voorstellen; geen timeout? Je zult toch EEN timeout moeten hebben om die request opnieuw te versturen of een I/O error te krijgen; anders blijf je eeuwig wachten. Ik ben dus heel benieuwd naar wat die optie precies betekent. Daarnaast, om echt zekerheid te hebben zul je een schijf met pending sectoren moeten hebben en daarmee testen; probeer de onleesbare sectoren te lezen en kijk hoe de controller zich gedraagt.

Als die optie in feite betekent dat er wel timeouts zijn, zoals ook MOET, maar dat er bij een timeout niet gelijk de schijf uit de RAID set wordt geknikkerd, dan is dat een hele andere optie en is de naam misleidend. Voor mij is dus onduidelijk of ook moderne RAID controllers nu wél normaal omgaan met schijven en bad sectors.

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Zijn er al mensen die Linux (11,1/12.04) draaien en daarboven op (Virtueel) Freenas om ZFS te realiseren?
Andersom zou het ook kunnen.

Ik ben steeds meer fan aan het worden van ZFS, grootste nadeel is dat je de pool niet kan uitbreiden.
Nu wil ik het liefst Linux behouden voor alle applicaties die ik draai, Couch, sab, torrent, dlna, backup.

Het voordeel hiervan ook wat ik me net bedenk is dat ik dan HD kan toevoegen in Linux, en deze net zolang spaar totdat ik een nieuwe pool kan aanmaken.

Ik heb wel slechts een G530 processor, met enkel VT-X en geen VT-D.

  • Hendrikkkk
  • Registratie: December 2009
  • Laatst online: 12-09 16:45
Dennisik schreef op dinsdag 14 augustus 2012 @ 12:29:
Zijn er al mensen die Linux (11,1/12.04) draaien en daarboven op (Virtueel) Freenas om ZFS te realiseren?
Andersom zou het ook kunnen.

Ik ben steeds meer fan aan het worden van ZFS, grootste nadeel is dat je de pool niet kan uitbreiden.
Nu wil ik het liefst Linux behouden voor alle applicaties die ik draai, Couch, sab, torrent, dlna, backup.

Het voordeel hiervan ook wat ik me net bedenk is dat ik dan HD kan toevoegen in Linux, en deze net zolang spaar totdat ik een nieuwe pool kan aanmaken.

Ik heb wel slechts een G530 processor, met enkel VT-X en geen VT-D.
Ik heb dit even getest met een virtualbox en freenas boven op een windows (zou in principe voor Linux hetzelfde moeten zijn als deze gewoon een virtualbox /vmware / ... draait). ZFS werkt hier gewoon via 4 virtuele schijven van 8GB, zelfs in RAIDZ(2). Ik kan ook via samba files plaatsen naar deze ZFS pool. Heb ook vrituele schijven ontkoppeld om te kijken of ZFS dit aangaf dat er een HDD vervangen moest worden en ook dit ging goed.
Het nadeel was dat filetransfers in mijn geval enorm traag gingen (zal wel door het feit komen dat ik virtuele disks gebruikte die dynamisch gealloceerd werden). Het is dus mogelijk op windows ..ik gebruik een core i5 430m (dacht dat deze zowel VT-x , VT-D had, maar niet zeker).

  • sloth
  • Registratie: Januari 2010
  • Niet online
Geen goed idee.
Je wilt ofwel een dedicated NAS met ZFS, ofwel upgraden naar een (overkill) VT-D compatible build met een aparte HBA waar je via passthrough je disks aan kan doorgeven.

ZFS i.c.m. ESXi en RDM zonder VT-D


Zie reactie CiPHER

[ Voor 5% gewijzigd door sloth op 14-08-2012 12:58 ]


Verwijderd

ZFS OS als host kan met virtualbox/qemu of whatever om wat andere zaken te virtualiseren. Zolang ZFS maar directe controle over de disks houdt.

  • sloth
  • Registratie: Januari 2010
  • Niet online
Juist, I stand corrected.
Vorig bericht is aangepast.

Maar in het geval van Dennisik heb je toch Linux als Host OS met daarin een FreeNAS VM waardoor ZFS niet de controle over de disk heeft?

[ Voor 57% gewijzigd door sloth op 14-08-2012 13:00 ]


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
Verwijderd schreef op dinsdag 14 augustus 2012 @ 12:25:
@FireDrunk: ik dacht dat ook gelezen te hebben, maar kan die post nergens meer terugvinden.. ?
was denk ik een post van mij in het 10TB+ topic. Ziet er in de Areca webinterface zo uit,
Afbeeldingslocatie: https://lh5.googleusercontent.com/-UXE4S-fF204/UCotsKqi5JI/AAAAAAAAAGE/xUz-VkWFBtw/s550/areca_tler.gif

Ik weet niet zeker of het werkt. "TLER setting" optie zit al langere tijd in de Areca firmware en de optie "Fail Disk For Any Timeout" sinds kort.

Verwijderd

wjn schreef op dinsdag 14 augustus 2012 @ 11:49:
[...]

Windows 8 krijgt ReFS, waarmee het eigenlijk hetzelfde (op file niveau) doet als ZFS.
Er zijn dus ook RAID controllers waarbij TLER niet nodig is.

Neemt niet weg dat ikzelf ZFS de mooiere oplossing vindt, tot nu toe.
Ik lees tot op heden dat er toch performanceproblemen mee zijn... Het leek mij de ideale oplossing, eindelijk m'n schijven in de standby kunnen gooien en nog wat zaken op de host draaien :)
Verwijderd schreef op dinsdag 14 augustus 2012 @ 12:25:
@FireDrunk: ik dacht dat ook gelezen te hebben, maar kan die post nergens meer terugvinden.. ?

Maar hoe moet ik me dat voorstellen; geen timeout? Je zult toch EEN timeout moeten hebben om die request opnieuw te versturen of een I/O error te krijgen; anders blijf je eeuwig wachten. Ik ben dus heel benieuwd naar wat die optie precies betekent. Daarnaast, om echt zekerheid te hebben zul je een schijf met pending sectoren moeten hebben en daarmee testen; probeer de onleesbare sectoren te lezen en kijk hoe de controller zich gedraagt.

Als die optie in feite betekent dat er wel timeouts zijn, zoals ook MOET, maar dat er bij een timeout niet gelijk de schijf uit de RAID set wordt geknikkerd, dan is dat een hele andere optie en is de naam misleidend. Voor mij is dus onduidelijk of ook moderne RAID controllers nu wél normaal omgaan met schijven en bad sectors.
De manier van timeout en daadwerkelijke timeout lijkt me een OS implementatie? FreeBSD heeft misschien andere timeouts foor de fread.c optie dan Linux heeft.

Waarom vind je de optie TLER disabled misleidend dan? Want het betekend in mijn ogen dat er geen Tijds limiet is voor IO en er dus ook geen schijven uitgeknikkerd worden, maar de Areca de request gewoon aan de disk overlaat.

Als de disk zelf na 3 minuten beslist dat een request niet voldaan kan worden, dan resulteert de Areca controller gewoon dezelfde foutmelding als de disk geeft neem ik aan?

(Let op: Pure aannames, ik heb geen Areca controller :+ )

Even niets...

Pagina: 1 ... 105 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.