• Earzz
  • Registratie: December 2006
  • Laatst online: 15-12 18:41
jacovn schreef op zondag 06 januari 2013 @ 21:38:
Ik zie het licht wat aan de late kant. Unraid heeft me veel uren en ook wat desinvesteringen gekost.
Ik moet 3 stuks supermicro SAS2LP-MV8 kaarten gaan vervangen door m1015 omdat ze niet werken onder bsd. Verder de licentie kosten. Maar ik hoop dan de sata controllers en de licenties te verkopen via het unraid forum
Wat zijn je redenen om van Unraid af te stappen?
Ik zit er zelf over te dubben om een Unraid server te bouwen of een Synology NAS er bij te kopen.
Een ZFS systeem zie ik niet zo zitten vanwege de complexheid ervan en mijn geringe Linux kennis, daarbij komt ook nog eens dat ik graag mijn oudere schijven graag in 1 array heb en op het bestaande array kan uitbreiden.
Eventueel heb ik wel interesse in je Unraid licentie.

XboxLive: Dave 130R


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
ZFS met Nas4free en zelf met zfsguru is helemaal niet zo complex. Je heb een prima webmenu om alle zaken regelen. En de zfs commando's in de console zijn echt heel simpel en goed te begrijpen. ZFS is niet moeilijk :)

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
ZFS niet, maar als je ook andere software er graag bij wil draaien, moet je toch iets meer doen.
ZFSGuru's services zijn wel een leuk begin, maar dekken nog niet de hele lading.

SabNZBd heb ik sinds kort niet meer in een VM, maar als service bare metal op ZFSguru draaien...

Scheelt ongeveer 600% performance :P ( ruim 200MB/s uitpakken, en ruim 300MB/s par2 checken)

Even niets...


  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
@casss. Ik zie een aantal adviezen met betrekking tot ZFS maar ik zou deze graag willen nuanceren/toelichten omdat ze verwarrend kunnen overkomen:

- firedrunk schrijft dat bij aankoop van schijven hij lieftst ogv even snel is en advanced disk format heeft (4 KB sectoren ivm de 4k optimized array). Volgens mij is dat helemaal niet noodzakelijk, ik heb zelf een array waarbij 512 byte en 4096 byte sectoren-schijven door elkaar worden gebruikt en dat bijt elkaar totaal niet. Ik heb echter wel gekozen om de array te MAKEN met ashift=12, dus geoptimaliseeerd voor 4 KB sectoren omdat er her en der te lezen is dat je een enorme performance penalty hebt als je de 4 KB drive aanspreekt als 512 sector-drive. Zeker tijdens rebuilden/resilveren. Ik heb dat niet getest omdat ik daar de ruimte niet voor heb.

Je kan dus elke schijf mix-en-matchen, oud of nieuw maar ik zou wel aanraden hem de array te bouwen als 4KB-optimized (just for sure en voor bij eventuele toekomstige vervanging van schijven).

- Enerqi schijft dat de langzaamste schijf de snelheid bepaalt. Dat is waar, maar als het gaat om lineaire doorvoer dan hoeft dat geen belemmering te zijn en je moet het ook niet zo lezen dat een trage schijf de hele boel verziekt. Stel je heb 6 schijven waarvan 5 er 100 MB/sec halen en 1 25 MB/sec. Als je geen RAID/ZFS array zou hebben dan is je doorvoor dus sowieso nooit meer dan 100 MB/sec. In een array van 6 schijven is de doorvoer gelimiteerd door het ding die 25 MB/sec haalt maar opgeteld zit je alsnog met 6 schijven die samen dus 6*25 MB/sec = 150 MB/sec doorvoeren en dat is nog altijd meer dan de schijven los. Uiteraard allemaal theoretisch want in de praktijk schaalt de snelheid met meer schijven niet lineair mee maar toch. Mijn 13 disk array haalt zo'n 500-600 MB/sec terwijl de traagste schijven in de array ver onder de 100MB/sec kunnen lezen en de snelste rond de 200 MB/sec. Een ZFS array levert hier dus zowel snelheid als veilligheid op.

- Phuncz schrijft dat je met 6 disks beter naar RAID-Z2 kan en er maar 1 mag uitvallen. Uiteraard is dat zo, maar de kans dat er 2 van 6 schijven tegelijk compleet uitvallen (en ook totaal niet te repareren zijn) is niet heel groot. Een aantal niet werkende sectoren verspreidt over diverse schijven is voor ZFS geen enkel probleem in tegenstelling tot hoe dit bij Linux software RAID (mdadm) geregeld is. Voor 6 disks zou ik bij Raid-Z1 blijven. ZFS is enrom krachtig bij gedeeltelijke uitval of tijdelijke uitval van een disk. Metadata staat ook over alle schijven verspreidt en als er ook maar een reden is waarom er even meer dan 1 disk niet toegankelijk is, dan zet ZFS de hele array uit om problemen te voorkomen. Je kan dan gaat diagnosticeren wat er mis is (bijv een stroomspitter is er uit gevallen), de zaak weer poweren en in veruit de meeste gevallen is er niks aan de hand.

  • casss
  • Registratie: Augustus 2010
  • Laatst online: 06-11 05:25
Ik heb er voor gekozen om precies dezelfde samsung 2TB schijf te kopen. Een nieuwe schijf via V&A hier op tweakers. Komt deze week binnen. Ben benieuwd.

Je uitleg is duidelijk. Het is prettig te weten dat een falende schijf vervangen kan worden door een ander merk/type. Nu kan ik aan dezelfde komen maar dit zal over een tijd lastig zijn. Aangezien ik nu Advanced Format schijven heb zou ik bij vervangen hier ook voor gaan. Ik heb het nog even opgezocht maar aan je schrijven dacht ik het al te kunnen lezen. De optimalisatie voor 4KB sectoren moet tijdens het maken van de array middels ashift=12. Nadien is dit niet meer te veranderen toch. Ik ben nu aan het spelen met de schijven die ik al heb en mijn ashift staat nu op 0. Wist niet dat je dit specifiek vooraf moet toewijzen.

Qua snelheid heb ik geen idee wat ik ga halen met 5 schijven RAIDZ1 en misschien een cache ssd partitie. Kom nu van een Raid0 met 2 schijven en had over snelheid niet te klagen. Vooral de veiligheid spreekt mij aan. De opties als compressie, snapshots etc lijken me tevens leuke functies waar ik profijt van ga hebben. Ik heb nu atime=off en compressie op =on gezet. Is er een bepaald type compressie wat voordelen bied, bijv. op bepaalde data op een filesystem? Ik neem aan dat bij zwaardere compressie je performance achteruit gaat en de cpu meer wordt belast.

Ik heb nu 2 x 2 GB OCZ geheugen. Ik lees dat ik het moet uitbreiden naar ± 10GB om het lekker draaiend te krijgen? Kan ik nu zomaar bijv. 2 x 4 GB DDR3-1333 er bij plaatsen?

Bedankt voor je nadere toelichting op de reacties, het wordt me elke keer wat duidelijker :D.

Verwijderd

Als ik ook mijn nuanceringen mag verwoorden. :P
Contagion schreef op woensdag 09 januari 2013 @ 13:51:
- firedrunk schrijft dat bij aankoop van schijven hij lieftst ogv even snel is en advanced disk format heeft (4 KB sectoren ivm de 4k optimized array). Volgens mij is dat helemaal niet noodzakelijk, ik heb zelf een array waarbij 512 byte en 4096 byte sectoren-schijven door elkaar worden gebruikt en dat bijt elkaar totaal niet. Ik heb echter wel gekozen om de array te MAKEN met ashift=12, dus geoptimaliseeerd voor 4 KB sectoren
Omdat je hebt geoptimaliseerd voor 4K zal het combineren van 512-byte met 4096-byte sector schijven elkaar niet bijten inderdaad. Maar dat is een issue apart van het 'probleem' of de zwakte die inherent is aan RAID-Z en die RAID5 niet heeft. RAID-Z is wel superieur aan RAID5 in veel opzichten, maar niet op àlle vlakken.

Zo werkt RAID-Z meer als een RAID3 waarbij elke I/O alle schijven zal betrekken. Om die reden heb je ook maar de random read performance van een enkele disk per RAID-Z1/2/3 vdev. Zelfs iets lager, omdat de traagste schijf die over de streep komt de prestaties bepaalt. Dat laatste is nu juist waar het advies om gelijke schijven voor RAID-Z te gebruiken vandaan komt, dit staat volledig los van 4K sector schijven.

Wat je zegt is echter wel waar. Zolang je je pool maar optimaliseert voor 4K (ashift=12) hoef je niet zoveel hinder te ondervinden van het mixen van verschillende schijven, voor wat betreft sequential I/O dus grote blokken data inlezen. Het probleem is dat ZFS uiteindelijk ook veel random reads zal moeten doen. Bijvoorbeeld als na een tijd gebruik je data erg gefragmenteerd staat, je intensief snapshots gebruikt en geen L2ARC cache beschikbaar hebt. Je hardeschijven moeten dan steeds meer random reads gaan doen, en juist daar kunnen wel grotere verschillen ontstaan tussen verschillende schijven. En dat kan je uiteindelijk gaan merken met een schijf die voor het schrijven van nieuwe grote bestanden wel snel is, maar bestaande snapshotted data toch erg traag aanvoelt met kleine haperingen die soms zichtbaar kunnen zijn.

De oplossing is vrij simpel: gebruik een SSD als L2ARC cache in de juiste configuratie. Zelfs alleen metadata cachen kan al een heleboel random reads schelen op je RAID-Z. Qua random writes is RAID-Z juist veel sneller dan RAID5, namelijk de performance van een enkele disk, terwijl RAID5 zonder buffering juist hier heel traag in is (read-modify-write).
- Phuncz schrijft dat je met 6 disks beter naar RAID-Z2 kan en er maar 1 mag uitvallen. Uiteraard is dat zo, maar de kans dat er 2 van 6 schijven tegelijk compleet uitvallen (en ook totaal niet te repareren zijn) is niet heel groot. Een aantal niet werkende sectoren verspreidt over diverse schijven is voor ZFS geen enkel probleem
Dat klopt, tot op zekere hoogte natuurlijk:
  • als je een RAID-Z hebt en geen schijven mist, ben je vrijwel immuun voor bad sectors
  • als je een degraded RAID-Z hebt, kunnen er gaten in je bestanden komen. Die bestanden worden dan ontoegankelijk (je mag ze niet lezen) en hun namen komen voor in de zpool status -v output. Je kunt de bestanden verwijderen en de error status resetten. Hier heb je dus wel gegevensverlies! Maar ZFS blijft intact omdat de metadata van het filesystem ook in degraded toestand en single disk nog steeds redundantie heeft middels ditto copies (copies=2).
  • voor RAID-Z2 en RAID-Z3 geldt hetzelfde als hierboven, behalve dan dat je bij RAID-Z2 nog immuun bent voor bad sectors terwijl je één schijf mist. Bij RAID-Z3 is dat twee schijven. Kortom, deze levels beschermen met één disk failure nog steeds adequaat je data tegen bad sectors.
Nu kan het zijn dat bepaalde gebruikers gegevens hebben die niet héél belangrijk zijn. Als de gebruiker maar wéét wanneer er corruptie heeft plaatsgevonden en welke files dit betreft, is dat voor hen mogelijk voldoende bescherming. Deze afweging kan ook de keuze tussen RAID-Z en RAID-Z2 beïnvloeden, omdat je in beide situaties uitgaat van één gefaalde schijf en (tijdens het rebuilden) de mogelijkheid van onleesbare sectoren.
.
ZFS is enrom krachtig bij gedeeltelijke uitval of tijdelijke uitval van een disk.
Mee eens. Je filesystem is bijna niet stuk te krijgen. Alleen op een hardware RAID controller met onveilige write-back kun je ZFS praktisch om zeep helpen.

Als ik tijdens het schrijven van data opeens 5 schijven de stroom eraf pleur of de data stekkers verwijder, en ik doe de stroom uit, kan ik daarna gewoon weer booten met alle schijven aangekoppeld. Zonder dat het filesystem beschadigd is. ZFS doet het op dit gebied nog veel beter dan traditionele journaled filesystems.

@casss: je ashift kan nooit 0 zijn (dan is je sector size ook 0). Ashift is in de praktijk nooit lager dan 9, 29 is namelijk 512, ofwel 512 bytes sector size. Dit is wat hardeschijven al decennia gebruiken en wat dus erg ingeburgerd is. Zo erg dat een andere sector size zoals 4096 bytes (4K) problemen zou opleveren voor bepaalde besturingssystemen (ik geloof Windows XP). Om die reden bestaan er nu dus 'Advanced Format' hardeschijven die fysiek wel 4K sectoren hebben, maar firmware-extensies hebben om te doen alsof de schijf 512 byte sectoren heeft, zodat het compatible blijft met alle operating systems.

Ik weet verder niet wat voor hardware je hebt, maar indien mogelijk zou ik voor 2x8GiB gaan, bij voorkeur dit setje: pricewatch: Crucial Ballistix Sport BLS2CP8G3D169DS1SC die bij mij als zuiniger dan andere modules getest is. Maar hij is slecht leverbaar zie ik. :(

[ Voor 3% gewijzigd door Verwijderd op 09-01-2013 20:56 ]


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
Earzz schreef op dinsdag 08 januari 2013 @ 12:01:
[...]
Wat zijn je redenen om van Unraid af te stappen?
Ik zit er zelf over te dubben om een Unraid server te bouwen of een Synology NAS er bij te kopen.
Een ZFS systeem zie ik niet zo zitten vanwege de complexheid ervan en mijn geringe Linux kennis, daarbij komt ook nog eens dat ik graag mijn oudere schijven graag in 1 array heb en op het bestaande array kan uitbreiden.
Eventueel heb ik wel interesse in je Unraid licentie.
De 1e server was een supermicro x7spa mainbord met een atom d525 met 4 GB geheugen.
Dit deed wat hij moet doen, maar als ik meerdere hdd's wilde pre-clearen dan kreeg ik out of low memory meldingen. Het is een slackware 32 bit linux stripped down implementatie met PAE voor > 4 GB ram ondersteuning.

2e server was een supermicro X9SCM-F met een xeon E3-1265Lv2 en 16 gb geheugen. Helaas user error met de hardware combinatie (intel c204 chipset werkt niet goed samen met een xeon E3 12x5 chip)

3e sever gemaakt met een X9SAE-V mainbord voor de E3-1265lv2' en een i3-2100t op de X9SCM-F gezet.

Nu is de hardware stabiel,en zijn er issues met de laatste 5.0RC8a
Stutter bij bluray playback, copy snelheden die van 60-70 mbyte/sec droppen naar 5-10 mbyte/sec, en non responsie van de web GUI (die keert wel altijd terug na verloop van tijd, maar ik wil niet te lang wachten)

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
Overigens werkt nas4free als een speer op dat atom systeem met zfs als file systeem.
De copy waarden naar de server toe zijn wel maximaal maar 60-65 mbyte/sec, maar het loopt wel op die snelheid door, en de GUI blijft ook gewoon goed werken.
Ik ga de hdds ombouwen en de snelste machine testen met nas4free en zien of dat stabiel en snel loopt, daarna mogen de unraid licenties weg( na data migratie) stuur me maar een private message, dat hoeft niet in deze thread.

Al denk ik wel dat mijn ervaringen wellicht leerzaam zijn..

[ Voor 0% gewijzigd door jacovn op 10-01-2013 07:15 . Reden: Zfs i.p.v. Nfs ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • casss
  • Registratie: Augustus 2010
  • Laatst online: 06-11 05:25
@CiPHER Oke, maar wat betekend dit dan?

code:
1
2
NAME  PROPERTY  VALUE   SOURCE
tank  ashift    0       default


Na deze output dacht ik dat ashift op 0 stond. Standaard staat hij op 9?

Ik heb een MSI H55M-E33. Dit geeft de fabrikant aan:

Main Memory

• Supports four unbuffered DIMM of 1.5 Volt DDR3 1066/1333/1600*/2000*/2133* (OC) DRAM, 16GB Max
- Supports 1Gb/ 2Gb/ 4Gb DRAM size
- Supports Dual channel mode

Weet niet waar het * bij 1600 voor dient. Volgens mij gaat jou aanbeveling niet werken. Dan maar gewoon 2 x 4GB 1333 erbij??

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
@Cipher; interessant leesvoer! Mijn uitgangspunt was dat de meeste consumers hun ZFS filesysteem waarschijnlijk als 'WORM' drive gebruiken; dus eenmaal schrijven (voornamelijk media) en vervolgens veel lezen. Veel dingen die voor optimalisatie kunnen zorgen hebben dus m.i. niet altijd veel zin.

Ik ben van 6 disk Raid-Z1 nu naar een 13 disk Raid-Z3 gegaan, mede om wat jij schrijft over het mogelijk defect gaan van files door bad sectors in combinatie met een totaal falende schijf. Wat je natuurlijk zou kunnen overwegen bij Raid-Z1 is om bij belangrijke data copies=2 te zetten maar RAID-Z2 is uiteraard veiliger (en voor mij de keus om bij zoveel disks zelfs naar RAID-Z3 te gaan).

Wat mij overigens opviel bij het schakelen naar 4 KB sectoren is het enorme verlies is vrije ruimte omdat de metadata nu altijd minstens 4 KB inneemt. In mijn geval verlies is er bijna een terabyte op, maar FreeBSD en ZoL ondersteunen (nog?) geen 1 MB block sizes, alleen de standaard ZFS 128 KB.

Verder heb je het over het toevoegen van een SSD als L2ARC cache om random reads tegen te gaan maar ik neem aan dat het verspreiden van data voornamelijk ontstaat door veelvuldig of parallel schrijven. Stel dat je je data probeert te vullen door zoveel mogelijk single threaded te schrijven, zou het probleem zich dan ook minder voordoen of is dat niet te voorkomen vanwege COW?

Ook zeg je dat snapshotten vertraging kan veroorzaken. Ik heb er aan gedacht om mijn media te snapshotten zodat ik bij een domme remove-actie (rm -rf verkeerdedir) terug kan naar een oude versie. Stel dat ik dat op 3 niveau's doe (elke 4e snapshot dan gaat de 1e er weer 'uit', kan dat eigelijk) of bijv eens in de zoveel tijd het oude snapshot mergen met de huidge data (kan dat?) is dat zinvol of kan je altijd terug naar een oude 'mount'?

Tenslotte; ik kan geen definitief antwoord vinden of data gedefragmenteerd kan worden door te resilveren. Het is mij duidelijk dat data bij scrubben of resilveren in volgorde van 'tijd' worden behandeld, maar komen ze bij resilveren in lineaire volgorde terug op de schijf? Of is dat implementatie-afhankelijk (BSD, ZFS on Linux, Solaris).

Nu nog eens hopen dat Block Pointer Rewrite ergens geimplementeerd wordt (of uiteindelijk over naar BTRFS maar daar heb ik een en ander mee getest en met enorme dataloss tot gevolg ;))

Ik zie overigens ook heel veel over niet optimale blockgrootte vs drives (2^n drives + x bij RAID-Zx dus bijv 5 disks bij RaidZ1 of 10 drives bij Raid Z2 etc) en dat je daar niet aan moet beginnen, maar ik merk daar echt heel weinig van. Ook hier denk ik dat het zeer afhankelijk is van de manier van gebruik van de array. Als mediaopslag (veel grote bestanden/weinig random read/writes) maakt het waarschijnlijk niet veel uit.

  • Plato112
  • Registratie: December 2005
  • Laatst online: 19-12 12:30

Plato112

Da is toch nie normaal!

[b]CiPHER schreef op woensdag 09 januari 2013 @ 20:53:
Ik weet verder niet wat voor hardware je hebt, maar indien mogelijk zou ik voor 2x8GiB gaan, bij voorkeur dit setje: pricewatch: Crucial Ballistix Sport BLS2CP8G3D169DS1SC die bij mij als zuiniger dan andere modules getest is. Maar hij is slecht leverbaar zie ik. :(
Slecht leverbaar is licht uitgedrukt. Ik heb m'n systeem nog steeds niet compleet omdat ik hier nog op wacht en het is al een hele tijd geleden besteld (meer dan een maand geleden).

Speed limits are like herpes.


  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
Hier hetzelfde, heb ze op 18 december besteld bij SiComputers, maar in de status staat nog steeds "wachten op onderdelen". Volgende week toch maar eens een mailtje sturen over wanneer ze verwacht worden.

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 00:17
casss schreef op woensdag 09 januari 2013 @ 21:23:
Weet niet waar het * bij 1600 voor dient. Volgens mij gaat jou aanbeveling niet werken. Dan maar gewoon 2 x 4GB 1333 erbij??
Je cpu ondersteunt officieel geheugen tot 1333, in je bios kun je het wel één of enkele stappen hoger instellen maar in principe draai je dan buiten de specificaties (vandaar ook die OC erachter, van Over Clocking). 1600 is echter zo'n kleine stap dat dit in de meeste gevallen zonder problemen zal werken. Mocht je trouwens geheugen gaan bijplaatsen ipv vervangen let dan ook even op het voltage wat je nu gebruikt, aangezien veel OCZ geheugen een hogere dan de voor DDR3 standaard 1.5 V vraagt.

  • Plato112
  • Registratie: December 2005
  • Laatst online: 19-12 12:30

Plato112

Da is toch nie normaal!

webbier schreef op donderdag 10 januari 2013 @ 10:06:
Hier hetzelfde, heb ze op 18 december besteld bij SiComputers, maar in de status staat nog steeds "wachten op onderdelen". Volgende week toch maar eens een mailtje sturen over wanneer ze verwacht worden.
Ik heb inderdaad ook besteld bij SiComputers. Ik heb vorige week mailcontact gehad hierover. Ze verwachtten toen deze week te kunnen leveren, maar ik ben bang dat dat niet gaat lukken helaas :(
Moet wel zeggen dat ze duidelijk en snel communiceren, ze boden me ook nog een alternatief aan.

Speed limits are like herpes.


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
hallo allemaal,

na dit forum een tijdje te hebben gelezen zit ik nog te twijfelen tussen 2 configs:
#ProductPrijsSubtotaal
1Intel Core i3 2120 Boxed€ 102,50€ 102,50
1ASRock B75 Pro3-M€ 58,90€ 58,90
10Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 113,99€ 1.139,90
1Corsair Vengeance CML32GX3M4A1600C10€ 139,70€ 139,70
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 114,99€ 114,99
1be quiet! Straight Power E9 480W CM€ 86,90€ 86,90
1OCZ Vertex Turbo 30GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 1.642,89

en deze
#ProductPrijsSubtotaal
1Intel Pentium G860 Boxed€ 55,95€ 55,95
1ASRock B75 Pro3-M€ 58,90€ 58,90
10Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 113,99€ 1.139,90
1Corsair Vengeance CML32GX3M4A1600C10€ 139,70€ 139,70
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 114,99€ 114,99
1be quiet! Straight Power E9 480W CM€ 86,90€ 86,90
1OCZ Vertex Turbo 30GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 1.596,34

Ik zit nog te twijfelen omdat volgens mij de i3 iets zuiniger en krachtiger is dan de G860.
Ook heb ik hier nog een oude ocz vertex 30gb liggen die ik ga gebruiken voor L2ARC.
Over de kast zit ik nog te denken een Arc midi ziet er mooi uit maar passen denk net geen 10(11 met ssd) schijven in. Over het OS zit ik nog te twijfelen ik denk dat het FreeNas wordt met zfs raidz2. Alleen moet ik nog even kijken hoe ik er voor kan zorgen dat sabnzbd de uitgepakte data kan verplaatsen naar me data storage, want op mijn vm heb ik alles nu draaien alleen lukt het verplaatsen me nog niet.
tips zijn altijd welkom.

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 20:50
Ikzelf heb de "Intel Celeron G530 Boxed" als processor en ik heb nergens last van met 6 disks RaidZ2 (7de is extern HD met Zfsguru beta 8 ).

Het enige waar ik tegenaan loop is dat het netwerk niet snel genoeg is ;). Ik zou willen dat ie nog hoger dan 1 Gbit snelheid :P. Dit aanpassen/upgraden betekend nogal wat investeren.

Qua processor zou ik dus voor de 860 gaan of de nieuwe ivy bridge G2120. Die zou nog iets zuiniger moeten zijn (kleinere die size).

Waarvoor denk jij de snelheid nodig te hebben?

  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
ik heb inderdaad zitten denken waar ik de snelheid nodig voor zou moeten hebben, maar ik heb het geprobeerd te draaien op mijn qnap ts-410 maar dat is ook een ARM chip dus geen vergelijk.
ik zal ook nog even naar die ivy kijken altijd mooi mee genomen paar wat idle.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Als stroomverbruik belangrijk is, check dan vooral het verbruik van de vasteschijven én gebruik een SSD voor metadata. Dan moet voor elk prutsje niet alle 10 de schijven opspinnen, ook al browse je maar door je files of checkt een device of er een file aangepast is (denk media players).

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

EnerQi schreef op zaterdag 12 januari 2013 @ 11:04:
Ikzelf heb de "Intel Celeron G530 Boxed" als processor en ik heb nergens last van met 6 disks RaidZ2 (7de is extern HD met Zfsguru beta 8 ).

Het enige waar ik tegenaan loop is dat het netwerk niet snel genoeg is ;). Ik zou willen dat ie nog hoger dan 1 Gbit snelheid :P. Dit aanpassen/upgraden betekend nogal wat investeren.

Qua processor zou ik dus voor de 860 gaan of de nieuwe ivy bridge G2120. Die zou nog iets zuiniger moeten zijn (kleinere die size).

Waarvoor denk jij de snelheid nodig te hebben?
Als je snellere doorvoer over je netwerk wilt, dan zul je op 10 Gbit over moeten stappen. De hele boel zul je moeten aanpassen (netwerkkaarten/bekabeling, evt, switch) en dat is nogal een fikse investering (netwerkkaart van Intel AT2 bijv.)

Een goedkopere optie is Infiniband, pech is alleen dat die technologie minder goede ondersteuning geniet onder FreeBSD (ZFSguru). Als je Solaris derivaten gebruikt (OpenIndiana/Nexenta) mot je de IB hardware goed kiezen ivm ondersteuning.

[ Voor 11% gewijzigd door Pantagruel op 13-01-2013 10:49 . Reden: IB info ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Je zou nog met Fibre Channel aan de slag kunnen, maar dan moet je zelf kernel modules recompilen voor FreeBSD. En ook dat is niet makkelijk. Dan moet je ook een LUN maken op je server ipv dat je bij je reguliere data kan.

Even niets...


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Wat is mis met meerdere NIC's ?
Ik zie op dat moederbord twee PCI-e slots waarvan eentje nog vrij zal zijn, daar kun je nog eentje van deze prikken: pricewatch: Intel Gigabit CT Desktop Adapter

Of als je het nog verder wilt brengen kun je voor thuisgebruik deze twee overwegen:
pricewatch: Intel Ethernet Server Adapter I350-T2
pricewatch: Intel Ethernet Server Adapter I350-T4

Zeker als je met veel toestellen tegelijk op de NAS zit, kan het wel helpen richting meerdere poorten te kijken om te load-balancen. Dat lijkt me met 10 schijven ook wel haalbaar aangezien ze al snel je enkele Gbit poort verzadigen.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Windows en fatsoenlijke netwerk bonding? Sinds wanneer? :)

Even niets...


  • Bierkameel
  • Registratie: December 2000
  • Niet online

Bierkameel

Alle proemn in n drek

Uhh sinds Windows 2000? Als je maar een goede NIC met software hebt en een switch die het ondersteund werkt het perfect, failover en load balancing.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
dylan0806 schreef op zaterdag 12 januari 2013 @ 00:12:
hallo allemaal,

na dit forum een tijdje te hebben gelezen zit ik nog te twijfelen tussen 2 configs:
Geen van twee. Wie wil er nu een server van meer dan 1500 euro draaien op een voeding met goedkope Chinese condensators?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Bierkameel schreef op zondag 13 januari 2013 @ 11:56:
Uhh sinds Windows 2000? Als je maar een goede NIC met software hebt en een switch die het ondersteund werkt het perfect, failover en load balancing.
SMB is niet multipathed, dus al heb je een bond, dannog haal je niet 2x1Gb.
Enige vorm van point-to-point bonding is geloof ik een implementatie van Linux of FreeBSD. Geen enkel ander platform kan bonding tussen twee hosts.

@ _The_Mask_ De Be Queit E9 is hier alom gerespecteerd. Ik weet niet hoe vaak je hier komt, maar hij word hier veelvuldig gebruikt en aangeraden.

Mux heeft inderdaad ook bevestigd dat de Seasonic G-Series een betere keuze is qua kwaliteit, maar die zijn wel iets duurder.

----

Ohja, voor ik het vergeet. Een (hele) poos terug heeft Femme een heel groot stuk over ZFS geschreven, waarin hij een aantal opties uitdiept om meer dan 1Gb te halen. Hij praat over Infiniband en 10Gb netwerk.

Ik heb toevallig even gekeken, en Windows 8 ondersteund (in tegenstelling tot Windows 7) WEL multipathing op iSCSI.

Met andere woorden, als je meerdere netwerkkaarten gebruikt in zowel server als client, kan je door middel van iSCSI dus wel je >1Gb halen!

[ Voor 75% gewijzigd door FireDrunk op 13-01-2013 12:43 ]

Even niets...


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Persoonlijk zie ik niet veel heil in meer dan 1Gbit voor een enkel toestel, maar als je met meerdere clients actief bent, helpt het dat er meestal een tweede lijn vrij is voor extra gebruikers zonder de performance van 1 lijn direct op te splitsen.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Mja, als je dat heel ver uitsplits dan is de vraag.

Als je een film aan het kopieren bent en het gaat met 50MB/s ipv 100MB/s


Is dat nou écht zo erg? :+

Even niets...


  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 20:50
FireDrunk schreef op zondag 13 januari 2013 @ 13:05:
Mja, als je dat heel ver uitsplits dan is de vraag.

Als je een film aan het kopieren bent en het gaat met 50MB/s ipv 100MB/s


Is dat nou écht zo erg? :+
Ik denk dat de antwoord is: Omdat het kan. :P

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Ik zit hier nu ineens te twijfelen om mijn Quad NIC even uit het stof te halen :+

Even niets...


  • Sandert98
  • Registratie: September 2012
  • Laatst online: 12-12 16:16
Hallo mede tweakers,

Over een tijdje wil ik misschien mijn PC een kleine upgrade geven met een nieuwe SSD. Dan heb ik 2 SSD's. Een Intel 320 met 120 GB en dan komt er een nieuwe bij: Intel 330 180GB.
Deze zou ik graag met elkaar willen samenwerken en door Windows laten scannen als 1SSD. Maar ik snap het hele RAID verhaal nog niet echt... Hier heb ik dus enkele vragen over, en ik hoop dat jullie die kunnen beantwoorden :) .
  • De schrijf- en leessnelheden zijn compleet verschillend. De 330 is veel sneller. Kunnen ze hierdoor nog wel samenwerken?
  • Kunnen de bestanden die nu op de 320 staan gewoon er op blijven staan, of moeten deze er eerst af? (waaronder OS)
  • Heb ik een RAID controller hier voor nodig van 120 euro? Of wat zijn goede budget controllers? Want om nou 50,- daar voor uit te geven heb ik ook niet echt zin in...
  • Welke RAID zou het best bij mijn eisen passen? Het is gewoon thuis gebruik. Er zullen voornamelijk games op gaan staan, samen met Windows 7. Ik denk zelf RAID 0, maar klopt dit vermoeden?
Bvd :) .

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 01:09
Eerst de 2 grote strikvragen: waarom wil je raid0 en wat denk je er mee te gaan bereiken?

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
1. Ja
2. Eraf
3. Hoeft geen controller, als je voor SW raid gaat.
4. Raid 0, of Raid 1 als je met partities gaat werken. Geen idee of dat onder Windows werkt. Unix wel.

5. Doe het niet. Totaal zinloos. Bij Raid0 ben je al je data kwijt als 1 van je 2 SSD's kapot is.
Buiten dat zie ik geen enkel voordeel ervoor in jouw situatie.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Je kan nog beter 1 van de SSD's mounten als een directory op de ander...
Hoewel ook dat eigenlijk nutteloos is.

Gewoon je games op de een, en je OS + simepele programma's op de ander...

Even niets...


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
FireDrunk schreef op zondag 13 januari 2013 @ 13:05:
Mja, als je dat heel ver uitsplits dan is de vraag.

Als je een film aan het kopieren bent en het gaat met 50MB/s ipv 100MB/s


Is dat nou écht zo erg? :+
-nee mijn plan is ook dat alle films van de server te streamen naar me pc en htpc.
-ook zal ik even naar die Seasonic G-Series voeding kijken.
-zit er nu toch weer aan te denken om nog een ssd erbij te doen en dan daarop de meta-data aangezien net wat Phuncz zegt dan elke keer weer mijn hdd's opspinnen. (alleen is dit jammer genoeg niet goed te testen in een vm)

  • Sandert98
  • Registratie: September 2012
  • Laatst online: 12-12 16:16
eigenlijk wilde ik het gebruiken door pure luiheid. Want nu heb ik bijvoorbeeld veel Origin games, maar over een tijdje kan dat weer Steam of Uplay zijn. Dat ik niet steeds het programma hoef te verwijderen (hoeft bij Origin gelukkig niet). Maarja, dan moet ik daar maar mee leven ;) . Als het veiliger is dan doe ik dat natuurlijk :) En 180GB met games krijg ik hopelijk toch niet zo snel vol XD .

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
FireDrunk schreef op zondag 13 januari 2013 @ 12:40:

@ _The_Mask_ De Be Queit E9 is hier alom gerespecteerd. Ik weet niet hoe vaak je hier komt, maar hij word hier veelvuldig gebruikt en aangeraden.
Dan ben ik dus vrij laat, begrijp ik hieruit. Waarom zou je dat ding überhaupt willen? Iig niet om de kwaliteit, ook niet om de prestaties en ook zeker niet om de prijs. Dan blijft er toch weinig over of niet?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Plato112
  • Registratie: December 2005
  • Laatst online: 19-12 12:30

Plato112

Da is toch nie normaal!

Bronnen?

Speed limits are like herpes.


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
-The_Mask- schreef op zondag 13 januari 2013 @ 21:18:
[...]

Dan ben ik dus vrij laat, begrijp ik hieruit. Waarom zou je dat ding überhaupt willen? Iig niet om de kwaliteit, ook niet om de prestaties en ook zeker niet om de prijs. Dan blijft er toch weinig over of niet?
Strong argumenten, als je wat minder onzin lult en wat meer feiten.

Ben heel erg benieuwd waarvoor die slecht is volgens jou.

  • analog_
  • Registratie: Januari 2004
  • Niet online
Dennisik schreef op maandag 14 januari 2013 @ 00:45:
[...]

Strong argumenten, als je wat minder onzin lult en wat meer feiten.

Ben heel erg benieuwd waarvoor die slecht is volgens jou.
Voordat jullie verder gaan, kijk eens wie de TS van het grote voeding topic is en zijn bijdrages daar.

Net zoals mux bezig is met zuinigheid, heeft hij zijn vakgebied. Ik heb ze beide geDMed toen ik bezig was met een BBG. Een van de verschillen in opinies tussen de twee is die l7 300W. Mux argumenteert met economische rendabiliteit; de besparing ivm een picopsu rendeert niet (de populaire stroming binnen dit topic). Terwijl mask van opinie is dat de l7 ondermaatse van kwaliteit is. Het gaat om een specifiek component wat traditioneel niet vaak faalt, maar wel belangrijk is. Als tegen argument kan je stellen dat je twee l7's kan kopen voor de prijs van één g360. Over de g360 zijn ze beide positief en bieden ze een aantal alternatieven rond dezelfde prijsklasse en kwaliteit. De g360 is overigens de best verkrijgbare van de alternatieven.

Ik moet wel even opmerken dat ik spreek namens mezelf en wat ik van hun heb vernomen, ik hoop dat ze beide zichzelf erin kunnen vinden. Dat zijn posts (hier) niet bijzonder constructief zijn opgesteld kan ik mee inkomen maar ik begrijp het wel na een miljoen adviezen te hebben gegeven.

Het is jammer dat het concept van tweaker experts op basis van opt-in is gemaakt ipv. merits. Zo zijn er een aantal gotters die simpelweg meer gewicht dragen. FireDrunk, Cipher, mux -Tha_Mask- , terw_dan, sprite_tm, ... die ieder in hun vakgebied werkelijk experts zijn.

[ Voor 80% gewijzigd door analog_ op 14-01-2013 01:24 ]


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Heeft er trouwens iemand tips voor disk migraties? Ik ben van plan mijn Samsung HD204UI's te vervangen door 2TB HGST's. Eentje ervan is reeds vervangen wegens panne, maar nu wil ik de andere 3 (4disk RAID5) ook vervangen.

1) de vervangdisk voor de kapotte HD204UI als Hot spare inzetten en de disks een voor een naar spare laten kopieren en dan terug naar de nieuwe.
2) dd doen van de disk (weet niet of dit 100% werkt though).
3) oude eruit sleuren, nieuwe erin en van parity laten rebuilden.

Ben zelf niet zo opgezet met 3x degraded rebuilden maar bon, het is een optie.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Sowieso eerst een bitmap maken als je MDADM gebruikt, dat scheelt gigantisch in de rebuild tijden.
Je KAN, maar dat is misschien wat geavanceerder.
De hele disk DD-en naar de nieuwe disk.

Als het goed is, is de rebuild tijd (mits je een bitmap hebt) veel korter, en dus iets veiliger.

Even niets...


  • DYX
  • Registratie: Mei 2008
  • Laatst online: 21-12 13:50

DYX

FireDrunk schreef op zondag 13 januari 2013 @ 12:40:
[...]
SMB is niet multipathed, dus al heb je een bond, dannog haal je niet 2x1Gb.
Vanaf SMB 3.0 (voorheen ook wel SMB 2.2 genoemd) wordt wel multipath ondersteund. Microsoft heeft hier een demo van gegeven. In Windows 8 en Server 2012 is hier dus ondersteuning voor. Oude versies zoals Windows 7 ondersteunen het inderdaad niet (en zullen het ook nooit ondersteunen).

Voor een voorbeeld van config/demo, zie:
http://server720.blogspot...ath-over-nic-team-in.html

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Inderdaad, dat was ik vergeten. Probleem is vooral dat mensen hier weinig Windows draaien als server OS :)
Dus ookal heb je Windows 8 als client, SMB3 is ver van geimplementeerd op Unix voor zover ik weet.

Even niets...


  • DYX
  • Registratie: Mei 2008
  • Laatst online: 21-12 13:50

DYX

Dat is waar. Ik ben voor mijn eigen server aan het kijken naar een Windows 2012 systeem, vandaar :)
Het zal inderdaad nog wel even duren voordat er volledige ondersteuning onder unix is. Eventueel zou je het wel werkend kunnen krijgen met een virtuele Server 2012. Dan zal deze alleen 2 virtuele nics moeten hebben en de server zelf 2 fysieke.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Mja, en dan maar hopen dat ESXi / KVM dat fatsoenlijk oppikt. Maar het is het proberen waard :)

Ik ben toevallig net een 2012 machine aan het installeren, dus misschien kan ik het eens proberen.

[ Voor 52% gewijzigd door FireDrunk op 14-01-2013 10:55 ]

Even niets...


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
analog_ schreef op maandag 14 januari 2013 @ 00:52:
[...]

Voordat jullie verder gaan, kijk eens wie de TS van het grote voeding topic is en zijn bijdrages daar.

Net zoals mux bezig is met zuinigheid, heeft hij zijn vakgebied. Ik heb ze beide geDMed toen ik bezig was met een BBG. Een van de verschillen in opinies tussen de twee is die l7 300W. Mux argumenteert met economische rendabiliteit; de besparing ivm een picopsu rendeert niet (de populaire stroming binnen dit topic). Terwijl mask van opinie is dat de l7 ondermaatse van kwaliteit is. Het gaat om een specifiek component wat traditioneel niet vaak faalt, maar wel belangrijk is. Als tegen argument kan je stellen dat je twee l7's kan kopen voor de prijs van één g360. Over de g360 zijn ze beide positief en bieden ze een aantal alternatieven rond dezelfde prijsklasse en kwaliteit. De g360 is overigens de best verkrijgbare van de alternatieven.

Ik moet wel even opmerken dat ik spreek namens mezelf en wat ik van hun heb vernomen, ik hoop dat ze beide zichzelf erin kunnen vinden. Dat zijn posts (hier) niet bijzonder constructief zijn opgesteld kan ik mee inkomen maar ik begrijp het wel na een miljoen adviezen te hebben gegeven.

Het is jammer dat het concept van tweaker experts op basis van opt-in is gemaakt ipv. merits. Zo zijn er een aantal gotters die simpelweg meer gewicht dragen. FireDrunk, Cipher, mux -Tha_Mask- , terw_dan, sprite_tm, ... die ieder in hun vakgebied werkelijk experts zijn.
Dat klopt helemaal, ik las het naar aanleiding van je bericht even door. Het punt waar hij op hamert zie je niet terug in de benchmarks. Iets waarin de Bequiet toch wel redelijk goed uitkomen. Vandaar

Mijn fout, excuses voor de reactie.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
analog_ schreef op maandag 14 januari 2013 @ 00:52:
[...]

Voordat jullie verder gaan, kijk eens wie de TS van het grote voeding topic is en zijn bijdrages daar.

Net zoals mux bezig is met zuinigheid, heeft hij zijn vakgebied. Ik heb ze beide geDMed toen ik bezig was met een BBG. Een van de verschillen in opinies tussen de twee is die l7 300W. Mux argumenteert met economische rendabiliteit; de besparing ivm een picopsu rendeert niet (de populaire stroming binnen dit topic). Terwijl mask van opinie is dat de l7 ondermaatse van kwaliteit is. Het gaat om een specifiek component wat traditioneel niet vaak faalt, maar wel belangrijk is. Als tegen argument kan je stellen dat je twee l7's kan kopen voor de prijs van één g360. Over de g360 zijn ze beide positief en bieden ze een aantal alternatieven rond dezelfde prijsklasse en kwaliteit. De g360 is overigens de best verkrijgbare van de alternatieven.

Ik moet wel even opmerken dat ik spreek namens mezelf en wat ik van hun heb vernomen, ik hoop dat ze beide zichzelf erin kunnen vinden. Dat zijn posts (hier) niet bijzonder constructief zijn opgesteld kan ik mee inkomen maar ik begrijp het wel na een miljoen adviezen te hebben gegeven.

Het is jammer dat het concept van tweaker experts op basis van opt-in is gemaakt ipv. merits. Zo zijn er een aantal gotters die simpelweg meer gewicht dragen. FireDrunk, Cipher, mux -Tha_Mask- , terw_dan, sprite_tm, ... die ieder in hun vakgebied werkelijk experts zijn.
Je hebt helemaal gelijk, ik lees mijn eigen post net terug, en ik zie dat ik net zo bot was als hij :)
Ik weet dat _The_Mask_ geniaal is, als het gaat om voedingen, en ik probeerde constructief te zijn.
Blijkbaar niet mijn beste dag.. :+

Ik ben het inderdaad eens dat kwaliteit zijn prijs heeft, en de L7 is wat betreft prijs/kwaliteit nog steeds prima in mijn ogen. Als je heel erg veel waarde hecht aan kwaliteit is de G360 een veel betere voeding inderdaad.

Voorbeeld waar je het aan merkt, L7's hebben vaak last van coil whine, terwijl een G-series veel beter is.

Even niets...


  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 21:38
G360 is ook beter als je het spul 24/7 gaat laten draaien. Gebruikte onderdelen zijn van hogere kwaliteit dan die van de L7 300W. Was voor mijn server op zoek naar een andere PSU, omdat PicoPSU mij te onhandig werd (steeds kloten met molex verloopstekkers). Heb uiteindelijk op aanraden van mux even door de zure appel heen gebeten, wat dieper in de buidel getast en een Seasonic G 360 aangeschaft.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Tja, als ik voor kwaliteit ga, dan wil ik ook gelijk de beste... Dan zou ik een Seasonic Platinum nemen denk ik :P

Hier al iets van 3 jaar (denk ik) een L7 in gebruik.

Deze dus: pricewatch: Seasonic Platinum Series 460 Watt Fanless

[ Voor 33% gewijzigd door FireDrunk op 15-01-2013 08:24 ]

Even niets...


  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 01:48
heren, ik hoop dat iemand hier kan adviseren. Het zit zo ik heb een raid array draaien met mdadm. Dit werkt allemaal prima. Maar nu krijg ik in de disk utility van ubuntu te zien dat er op 1 van de schijven die binnen de array valt een smart failing error is. "Disk failure imminent" en het gene wat hij failed is de "Read Error Rate". Het vreemde in dit verhaal is dat als ik mijn raid array ga bekijken met mdadm --detail /dev/md0 dat hij zegt dat er niets aan de hand is. alles staat in sync zoals normaal. Wat kan ik het beste doen?

[ Voor 19% gewijzigd door Neopatch op 15-01-2013 09:58 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Post de SMART waardes eens.

Even niets...


  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
@Jormungandr:

Ik zou de disk dd-en (in een ander systeem of met de raid array offline) om niet voor verrassingen te komen staan mocht rebuilden niet goed werken (bijv door een error op een van de andere drives). Ik weet niet 100% zeker of mdadm in de metadata niet ook info over de drive opslaat en of het op deze manier vervangen ook echt werkt maar in principe zie ik niet in waarom niet.

Overigens schrijft firedrunk dat het rebuilden sneller gaat met een bitmap aangeschakeld maar dat is bij vervangen van een volledige drive niet zo. In de bitmap staat welke stukken anders zijn geworden sinds de 'parity' drive uit de RAID-5 is weggevallen. Als je diezelfde disk dan weer terugsteekt of operationeel krijgt, kan hij aan het event nummer (geloof ik) van de disk zien dat hij al alle data bevat TOT het moment dat hij uit de array kieperde. Bij rebuilden schrijft hij dan alleen die blokken zoals aangegeven in de bitmap. De rest van de disk is volgens die info al voorzien van alle data en wordt dus niet meer gerebuild. In zo'n geval gaat rebuilden dan inderdaad veeel sneller maar het hebben van een (intern!) bitmap geeft een enorme (write-)performance loss.

Het wel een heel praktische feature. Mijn Linux server draait z'n data vanaf RAID1 en soms valt een drive uit de array, bijv door een slechte kabel. Bij heraansluiten duurt rebuilden dan geen uuuren maar slechts een paar minuutjes.

  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 01:48
@FireDrunk; zoals gevraagd.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
smartctl 5.41 2011-06-09 r3365 [i686-linux-3.2.0-32-generic-pae] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_                                                                                                                                                             FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   001   001   051    Pre-fail  Always   FAILI                                                                                                                                                             NG_NOW 36701
  2 Throughput_Performance  0x0026   252   252   000    Old_age   Always       -                                                                                                                                                                    0
  3 Spin_Up_Time            0x0023   067   067   025    Pre-fail  Always       -                                                                                                                                                                    10095
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -                                                                                                                                                                    35
  5 Reallocated_Sector_Ct   0x0033   252   252   010    Pre-fail  Always       -                                                                                                                                                                    0
  7 Seek_Error_Rate         0x002e   252   252   051    Old_age   Always       -                                                                                                                                                                    0
  8 Seek_Time_Performance   0x0024   252   252   015    Old_age   Offline      -                                                                                                                                                                    0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -                                                                                                                                                                    11066
 10 Spin_Retry_Count        0x0032   252   252   051    Old_age   Always       -                                                                                                                                                                    0
 11 Calibration_Retry_Count 0x0032   252   252   000    Old_age   Always       -                                                                                                                                                                    0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -                                                                                                                                                                    44
181 Program_Fail_Cnt_Total  0x0022   100   100   000    Old_age   Always       -                                                                                                                                                                    3460063
191 G-Sense_Error_Rate      0x0022   100   100   000    Old_age   Always       -                                                                                                                                                                    130
192 Power-Off_Retract_Count 0x0022   252   252   000    Old_age   Always       -                                                                                                                                                                    0
194 Temperature_Celsius     0x0002   064   054   000    Old_age   Always       -                                                                                                                                                                    19 (Min/Max 15/46)
195 Hardware_ECC_Recovered  0x003a   100   100   000    Old_age   Always       -                                                                                                                                                                    0
196 Reallocated_Event_Count 0x0032   252   252   000    Old_age   Always       -                                                                                                                                                                    0
197 Current_Pending_Sector  0x0032   252   252   000    Old_age   Always       -                                                                                                                                                                    0
198 Offline_Uncorrectable   0x0030   252   252   000    Old_age   Offline      -                                                                                                                                                                    0
199 UDMA_CRC_Error_Count    0x0036   100   100   000    Old_age   Always       -                                                                                                                                                                    1
200 Multi_Zone_Error_Rate   0x002a   001   001   000    Old_age   Always       -                                                                                                                                                                    345866
223 Load_Retry_Count        0x0032   252   252   000    Old_age   Always       -                                                                                                                                                                    0
225 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -                                                                                                                                                                    44


Zie hieronder een output van mijn mdadm --detail op de array:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
/dev/md0:
        Version : 1.2
  Creation Time : Tue Sep 25 19:49:14 2012
     Raid Level : raid5
     Array Size : 9766909440 (9314.45 GiB 10001.32 GB)
  Used Dev Size : 1953381888 (1862.89 GiB 2000.26 GB)
   Raid Devices : 6
  Total Devices : 6
    Persistence : Superblock is persistent

    Update Time : Tue Jan 15 14:29:54 2013
          State : clean
 Active Devices : 6
Working Devices : 6
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : ******:0  (local to host *****)
           UUID : 68c3c5ff:67e74440:42b4c8e1:f45b29be
         Events : 74

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
       2       8       33        2      active sync   /dev/sdc1
       3       8       49        3      active sync   /dev/sdd1
       4       8       65        4      active sync   /dev/sde1
       6       8       81        5      active sync   /dev/sdf1

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
Ik zou doen

echo check > /sys/block/md0/md/sync_action 

En vervolgens de zaak een beetje in de gaten houden met

watch cat /proc/mdstat

De hele array wordt gecontroleerd, eventuele leesfouten waar mogelijk opgelost (door de sector te reconstrueren uit de (paritiy) data) en vervolgens teruggeschreven naar de disk.

Misschien is de drive niet meer 'failing now' maar 'failing in the past'. Daarna eventueel nog een keer met de tool van de fabrikant eroverheen. Als de check al faalt (en in je syslog zie je veeeel errors), dan moet de disk waarschijnlijk vervangen worden.

[ Voor 27% gewijzigd door Contagion op 15-01-2013 15:01 . Reden: opmaak ]


  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 01:48
Contagion schreef op dinsdag 15 januari 2013 @ 14:59:
Ik zou doen

echo check > /sys/block/md0/md/sync_action 

En vervolgens de zaak een beetje in de gaten houden met

watch cat /proc/mdstat

De hele array wordt gecontroleerd, eventuele leesfouten waar mogelijk opgelost (door de sector te reconstrueren uit de (paritiy) data en vervolgens teruggeschreven naar de disk.

Misschien is de drive niet meer 'failing now' maar 'failing in the past'. Daarna eventueel nog een keer met de tool van de fabrikant eroverheen. Als de check al faalt (en in je syslog zie je veeeel errors), dan moet de disk waarschijnlijk vervangen worden.
Oke bedankt voor de tip. De data is overigens wel gewoon beschikbaar en werk zoals het moet. Dus vraag me af of dat nodig is? het enige waar ik mij een beetje zorgen overmaak is die smart status. Als ik die sync action aanzet moet de array aanblijven neem ik aan ? Maar als de schijf echt stuk was had mdadm hem er dan niet uitgegooid?

[ Voor 4% gewijzigd door Neopatch op 15-01-2013 15:13 ]


  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
ja, maar je kan de array wel gewoon gebruiken tijdens de check (echter, hij is trager dan normaal). De SMART status kan alarmerend zijn, maar je zegt ook dat de array gewoon up is en er geen merkbare problemen met de disk zijn. Ik zie ook geen pending sectors of zo in de smart output.

Als de checken action extreem traag gaat (zeg een paar MB/sec) dan kan er wel wat mis zijn. Ben benieuwd.

Edit: als er een fout heeft opgetreden die niet 'recoverable' was, dan was er een drive uit de array gegooid ja. Je ziet dan in /proc/mdstat iets van [UUUU_] in je array ipv [UUUUU], met bij een van de drives mogelijk een (F) achter de naam:
md1 : active raid1 sda2[2](F) sdb2[1]
      976832 blocks [2/1] [_U]

Eventuele redenen zie je wel in je syslog terug. Bij falen van 1 drive bij RAID-5 blijft je array uiteraard wel gewoon up. Het kan dus zijn dat je er niks van merkt omdat alles gewoon doordraait (daarvoor gebruik je ook RAID5 :)).

[ Voor 42% gewijzigd door Contagion op 15-01-2013 15:18 . Reden: mdadm kick ]


  • Trunksmd
  • Registratie: Juli 2002
  • Laatst online: 13-11 11:17
Ik hoor af en toe in mijn server een downspinnen gevolgd door een peepje, gevolgd door een upspinnen. Geen idee waarom ie dat doet.

Mijn moederbord is Asus E35MI-I deluxe met 16 Gb RAM. Ik heb de manual nagekeken maar ik vind er niets over. De logs van mijn ZFS server zeggen dat alles ok is. Ik heb 3 Seagates 7200 14 als RAIDZ staan.
Ik zie het alleen af en toe in een video terug, die dan hapert en opnieuw buffert.

[ Voor 5% gewijzigd door Trunksmd op 15-01-2013 16:48 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
SMART?

Even niets...


  • Trunksmd
  • Registratie: Juli 2002
  • Laatst online: 13-11 11:17
yep thanks, SMART actief en niet (goed) geconfigureerd (schiet me juist te binnen). Straks eens kijken.

[ Voor 30% gewijzigd door Trunksmd op 15-01-2013 16:51 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Sorry, ik was te kortaf, kan je al je SMART waardes eens posten? :+

Even niets...


  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
Ik heb een 500 GB 7200.11 disks die af en toe een hoge korte piep geeft maar die spint niet down/up. De meesten vinden het een zorgelijk geluid maar hij doet dit al een paar jaar :). Misschien slechte voeding? Dat ze je wellicht niet terug in SMART of de werking van ZFS (de schijf komt immers terug). In een syslog zou je dat wel moeten zien. Wellicht met iets van SATA RESET.

  • Trunksmd
  • Registratie: Juli 2002
  • Laatst online: 13-11 11:17
ADA0

=== START OF INFORMATION SECTION ===
Model Family: Seagate Barracuda (SATA 3Gb/s, 4K Sectors)
Device Model: ST2000DM001-9YN164
Serial Number: Z240E7E7
LU WWN Device Id: 5 000c50 04ec5bdaf
Firmware Version: CC4B
User Capacity: 2,000,398,934,016 bytes [2.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: 8
ATA Standard is: ATA-8-ACS revision 4
Local Time is: Tue Jan 15 17:31:01 2013 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 609) seconds.
Offline data collection
capabilities: (0x73) SMART execute Offline immediate.
Auto Offline data collection on/off supp ort.
Suspend Offline collection upon new
command.
No Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 255) minutes.
Conveyance self-test routine
recommended polling time: ( 2) minutes.
SCT capabilities: (0x3085) SCT Status supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_ FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 119 099 006 Pre-fail Always - 223293080
3 Spin_Up_Time 0x0003 093 092 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 097 097 020 Old_age Always - 3204
5 Reallocated_Sector_Ct 0x0033 100 100 036 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 063 060 030 Pre-fail Always - 1856701
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 288
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 42
183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 0
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 078 068 045 Old_age Always - 22 (Min/Max 2/31)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 37
193 Load_Cycle_Count 0x0032 099 099 000 Old_age Always - 3315
194 Temperature_Celsius 0x0022 022 040 000 Old_age Always - 22 (128 0 0 0 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 4655744549048
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 54855518588423
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 2538426668636

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]


SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
smartctl 5.43 2012-06-30 r3573 [FreeBSD 8.3-RELEASE-p5 amd64] (local build)
Copyright (C) 2002-12 by Bruce Allen, http://smartmontools.sourceforge.net

ADA1

=== START OF INFORMATION SECTION ===
Model Family: Seagate Barracuda (SATA 3Gb/s, 4K Sectors)
Device Model: ST2000DM001-9YN164
Serial Number: Z1F1H4EM
LU WWN Device Id: 5 000c50 04ec66bce
Firmware Version: CC4B
User Capacity: 2,000,398,934,016 bytes [2.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: 8
ATA Standard is: ATA-8-ACS revision 4
Local Time is: Tue Jan 15 17:33:07 2013 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 592) seconds.
Offline data collection
capabilities: (0x73) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
No Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 238) minutes.
Conveyance self-test routine
recommended polling time: ( 2) minutes.
SCT capabilities: (0x3085) SCT Status supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 119 099 006 Pre-fail Always - 230426176
3 Spin_Up_Time 0x0003 092 092 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 097 097 020 Old_age Always - 3210
5 Reallocated_Sector_Ct 0x0033 100 100 036 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 063 060 030 Pre-fail Always - 1855745
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 288
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 44
183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 0
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 079 069 045 Old_age Always - 21 (Min/Max 2/31)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 39
193 Load_Cycle_Count 0x0032 099 099 000 Old_age Always - 3323
194 Temperature_Celsius 0x0022 021 040 000 Old_age Always - 21 (128 0 0 0 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 107301167956152
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 55116499381408
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 2563267473526

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]


SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
smartctl 5.43 2012-06-30 r3573 [FreeBSD 8.3-RELEASE-p5 amd64] (local build)
Copyright (C) 2002-12 by Bruce Allen, http://smartmontools.sourceforge.net

ADA2

=== START OF INFORMATION SECTION ===
Model Family: Seagate Barracuda (SATA 3Gb/s, 4K Sectors)
Device Model: ST2000DM001-9YN164
Serial Number: Z240EP53
LU WWN Device Id: 5 000c50 04ec5d52f
Firmware Version: CC4B
User Capacity: 2,000,398,934,016 bytes [2.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: 8
ATA Standard is: ATA-8-ACS revision 4
Local Time is: Tue Jan 15 17:33:59 2013 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 609) seconds.
Offline data collection
capabilities: (0x73) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
No Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 252) minutes.
Conveyance self-test routine
recommended polling time: ( 2) minutes.
SCT capabilities: (0x3085) SCT Status supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 119 099 006 Pre-fail Always - 228303944
3 Spin_Up_Time 0x0003 092 092 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 097 097 020 Old_age Always - 3238
5 Reallocated_Sector_Ct 0x0033 100 100 036 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 063 060 030 Pre-fail Always - 2230279
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 288
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 43
183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 0
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 077 068 045 Old_age Always - 23 (Min/Max 1/31)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 38
193 Load_Cycle_Count 0x0032 099 099 000 Old_age Always - 3349
194 Temperature_Celsius 0x0022 023 040 000 Old_age Always - 23 (128 0 0 0 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 58042188038329
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 53813532148650
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 2307030097330

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]


SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
smartctl 5.43 2012-06-30 r3573 [FreeBSD 8.3-RELEASE-p5 amd64] (local build)
Copyright (C) 2002-12 by Bruce Allen, http://smartmontools.sourceforge.net

ADA3

=== START OF INFORMATION SECTION ===
Device Model: OCZ VERTEX PLUS
Serial Number: S6011V8AWOQVGQTYC612
Firmware Version: 3.55
User Capacity: 60,022,480,896 bytes [60.0 GB]
Sector Size: 512 bytes logical/physical
Device is: Not in smartctl database [for details use: -P showall]
ATA Version is: 8
ATA Standard is: Exact ATA specification draft version not indicated
Local Time is: Tue Jan 15 17:34:38 2013 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 0) seconds.
Offline data collection
capabilities: (0x1d) SMART execute Offline immediate.
No Auto Offline data collection support.
Abort Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
No Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x00) Error logging NOT supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 0) minutes.
Extended self-test routine
recommended polling time: ( 0) minutes.

SMART Attributes Data Structure revision number: 18
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x0000 004 000 000 Old_age Offline - 4
3 Spin_Up_Time 0x0000 100 100 000 Old_age Offline - 0
4 Start_Stop_Count 0x0000 100 100 000 Old_age Offline - 0
5 Reallocated_Sector_Ct 0x0000 100 100 000 Old_age Offline - 0
9 Power_On_Hours 0x0000 100 100 000 Old_age Offline - 9406
12 Power_Cycle_Count 0x0000 100 100 000 Old_age Offline - 53
232 Available_Reservd_Space 0x0000 100 100 000 Old_age Offline - 117673
233 Media_Wearout_Indicator 0x0000 100 000 000 Old_age Offline - 100

Warning! SMART ATA Error Log Structure error: invalid SMART checksum.
SMART Error Log Version: 1
No Errors Logged

Warning! SMART Self-Test Log Structure error: invalid SMART checksum.
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
Om welke van de drives gaat het? Ik zie wel in 288 uur 3200 start/stops? Dat is 11x per uur...

Edit: hoor je misschien een schijf downspinnen die tijdens het downspinnen ook gelijk weer upspint, dat kan een raar geluid geven omdat de spindlemotor nog draait en de kop naar de parking position gaat terwijl hij alweer wordt aangezwengeld en de kop terug kegelt.

[ Voor 59% gewijzigd door Contagion op 15-01-2013 17:40 ]


  • Trunksmd
  • Registratie: Juli 2002
  • Laatst online: 13-11 11:17
het zijn 3 drives van Seagate in RAIDZ en een ocz vertex als cache/L2ARC schijf.
De seagates zijn zo geconfigureerd dat ze na 20 min nietsdoen downspinnen. En de OCZ na 2 of 3 uur (weet even niet meer uit mijn hoofd)

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
Weet je zeker dat dat op 20 minuten staat? De start stop count is daar veel te hoog voor. Elke 20 minuten uitschakelen geeft na 288 uur 864 start/stops (3x zoveel als power on hours). Maar die staat op 3000 zoveel. Het getal komt overigens ook in de buurt van de load cycle count. Misschien dat je schijf automatisch de koppen parkeert en downspint? In Linux zou ik zeggen

hdparm -B /dev/sd<x> om te kijken op welke power management level de drive staat en deze wellicht zetten op 254 of 255.

Edit; een SSD die downspint na 2 of 3 uur? ;)

[ Voor 4% gewijzigd door Contagion op 15-01-2013 17:45 ]


  • Trunksmd
  • Registratie: Juli 2002
  • Laatst online: 13-11 11:17
Contagion schreef op dinsdag 15 januari 2013 @ 17:44:
Weet je zeker dat dat op 20 minuten staat? De start stop count is daar veel te hoog voor. Elke 20 minuten uitschakelen geeft na 288 uur 864 start/stops (3x zoveel als power on hours). Maar die staat op 3000 zoveel. Het getal komt overigens ook in de buurt van de load cycle count. Misschien dat je schijf automatisch de koppen parkeert en downspint? In Linux zou ik zeggen

hdparm -B /dev/sd<x> om te kijken op welke power management level de drive staat en deze wellicht zetten op 254 of 255.

Edit; een SSD die downspint na 2 of 3 uur? ;)
euh ja, die doen niet downspinnen he :+ sorry hehe.

Mijn server heeft bsd en geen hdparm command. Maar zover ik mij kan herinneren staat die waarde op 1 (in de gui), dus dat kan het probleem zijn?

[ Voor 12% gewijzigd door Trunksmd op 15-01-2013 19:01 ]


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
FireDrunk schreef op dinsdag 15 januari 2013 @ 08:23:
Tja, als ik voor kwaliteit ga, dan wil ik ook gelijk de beste... Dan zou ik een Seasonic Platinum nemen denk ik :P

Hier al iets van 3 jaar (denk ik) een L7 in gebruik.

Deze dus: pricewatch: Seasonic Platinum Series 460 Watt Fanless
Verschil tussen Seasonic G series en Platinum is stukken kleiner dan Seasonic G series en be quiet Pure Power L7, behalve qua prijs dan. De Seasonic G series 360W geeft gewoon het meeste waar voor je geld als het gaat over die drie voedingen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Verwijderd

-The_Mask-, sorry dat ik nog niet eerder heb ingehaakt. Maar om nog even de voorgaande discussie op te rakelen:
-The_Mask- schreef op zondag 13 januari 2013 @ 21:18:
Dan ben ik dus vrij laat, begrijp ik hieruit. Waarom zou je dat ding überhaupt willen? Iig niet om de kwaliteit, ook niet om de prestaties en ook zeker niet om de prijs. Dan blijft er toch weinig over of niet?
Wat er over blijft is iets wat ik vaak mis als het om voedingen gaat: efficiëntie op lage load, tussen 10 en 20 watt in. De BeQuiet E9 400W zou ongeveer gelijk zijn als de FSP Aurum 400W, heb ik mij laten vertellen. Die voeding was op 5% load (20W nog steeds) getest op 82% efficiëntie. In mijn topic (Stroomverbruik Processor+Moederbord+Geheugen) heb ik deze voeding vergeleken met andere voedingen inclusief de PicoPSU, met vrij grote verschillen tot gevolg.

Kortom, waar ik en vele anderen in dit topic vooral nieuwsgierig naar zijn is: hoe zuinig zijn al die voedingen op een heel lage load? Als je een echt zuinige NAS met spindown wilt maken, moet je voeding ook wel goed presteren op dit punt, en niet richting de 50% zoals sommige voedingen kennelijk doen.

Ik moet erkennen dat ik het voedingen topic niet volg, momenteel te druk met andere dingen. Maar ik hoop dat je zo meer begrijpt waar hier de nadruk op wordt gelegd. Als die Seasonic G series een kwalitatief betere voeding en dus potentiëel veiliger is dan andere voedingen, prima, mooi argument. Maar past die voeding ook bij een heel zuinige NAS? Dat is denk ik de vraag die bij mij achterblijft. Ik heb namelijk geleerd dat dure kwaliteitsvoedingen niet automatisch efficiënt op lage loads zijn. En soms leek wel alsof juist de dure voedingen minder goed presteerden op dit vlak, al weet ik te weinig van de markt om die veronderstelling te toetsen.

Hoop dat jij er wat over kunt zeggen. Zo leren wij ook weer. :)

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 21:38
Hier is de Seasonic behoorlijke efficiënt. Zit met een Intel DH67BL, een Pentium G620, 4x2GB RAM, 1x 2.5" en 1x een 3.5" op 29W idle met scherm uit. Dat lijkt me behoorlijk netjes :) Gemeten vanaf het stopcontact, met een Cresta RCE-1106 Had er voorheen een picoPSU in, en zat toen op ongeveer dezelfde waarden. Dus de efficiëntie zit wel goed ;)

[ Voor 9% gewijzigd door ThinkPad op 16-01-2013 08:23 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Ik vind dat eigenlijk niet eens zo heel laag... Mijn i5-3550 doet met een L7 300W 19W met 1 SSD op een DQ77MK.. Ik kan me niet voorstellen dat die 3.5" schijf 10W verstookt...

[ Voor 4% gewijzigd door FireDrunk op 16-01-2013 08:42 ]

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
Even een vraag voor de bsd kenners..

Is het mogelijk om de hdd temperatuur uit te lezen, en vervolgens afhankelijk van die temperatuur de systeemfans via pwm aan te sturen.

Dit was op mijn huidige unraid servers met een script een geweldige oplossing om de server wat stil te krijgen als hij idle is, en als er veel gebeurd de temperatuur niet op te laten lopen.

Ik heb wel gezocht, en ook wat dingen gevonden
http://sensors.cnst.su/fa...010.cnst-fanctl.paper.pdf

De daarin beschreven. /sys/. Directory structuur heb ik niet op mijn nas4free testopstelling.


Hieruit komen 2 vragen

1) heeft iemand zoiets werkend ? Ik kan een link naar het unraid script plaatsen)
2) moet ik een volledige freebsd omgeving installeren om deze directorys te hebbne ?
Zo ja, is het dan beter dat ik zfsguru installeer ? Dat lijkt meer een volledige freebsd omgeving te zijn dan nas4free in de door hun geprefereerde mode.

[ Voor 0% gewijzigd door jacovn op 16-01-2013 09:30 . Reden: Typefout ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Ik heb inderdaad wel /sys onder ZFSguru, maar of je script makkelijk te verbouwen is weet ik niet.
Dat ligt er totaal aan welke utility gebruikt word om de fanspeed daadwerkelijk te regelen.
Als die voor FreeBSD beschikbaar is, zal het vast kunnen.

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 22:20
De werkwijze voor unraid was met het lm_sensors commando uitvinden welke chip je hebt om de sensoren uit te lezen.
Voor mijn supermicro moederbord is dat w83627ehf.
De driver wordt onder linux unraid geladen met: modprobe w83627ehf

Dan kun je in een script bij de settings:
ARRAY_FAN=/sys/class/hwmon/hwmon1/device/pwm2 # Power (speed) setting
ARRAY_FAN_INPUT=/sys/class/hwmon/hwmon1/device/fan4_input # Used to track actual rpm values

Met sysclt zou je sensor informatie moeten kunnen vinden volgens de pdf die ik ingelinkt heb in mijn vorige post.

Misschien moet ik dan maar zfsguru installeren en kijken of ik diezelfde structuur kan ontdekken.
Dan heb ik hooguit een vergelijkbaar script nodig om iets in aan te passen.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Klinkt inderdaad wel logisch. Volgens mij is lm_sensors ook op freebsd beschikbaar, ik zal even voor je checken.

Helaas, geen lmsensors... Wel een aantal alternatieven:

http://forums.freebsd.org/showthread.php?t=4822

[ Voor 32% gewijzigd door FireDrunk op 16-01-2013 11:10 ]

Even niets...


Verwijderd

/sys directory is een symbolic link naar /usr/src/sys, ofwel de sourcecode van FreeBSD en in het bijzonder de kernel code. lm sensors gaat helaas niet werken. Er was een mooi nieuw sensor framework, maar 'de Deense bijl' (bijnaam voor een strenge BSD developer) was tegen de integratie van dat framework in FreeBSD, helaas.
ThinkPadd schreef op woensdag 16 januari 2013 @ 08:22:
Hier is de Seasonic behoorlijke efficiënt. Zit met een Intel DH67BL, een Pentium G620, 4x2GB RAM, 1x 2.5" en 1x een 3.5" op 29W idle met scherm uit. Dat lijkt me behoorlijk netjes :)
Ik zie op 8,4 watt minimaal op een kale setup met ASrock B75-Pro3 en Intel i3570 en één reepje van 8GiB. Dus ik zou zeggen het kan altijd beter. Een ATX voeding verbruikte in deze opstelling gelijk al 50% meer, en is dus veel minder efficiënt dan PicoPSU in deze loadklasse. Jij zit al dik boven de 20W en daarmee boven de 5% load. Het gaat mij juist om ultrazuinige NAS die onder de 20W komt; hoe zuinig/efficient is je ATX voeding dan nog? Dat is de million dollar question!

[ Voor 54% gewijzigd door Verwijderd op 16-01-2013 16:46 ]


  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 01:48
@Contagion: Ik heb de check gedaan en die is voor zover ik zie goed gegaan daar geen errors en ol heb de array weer bekeken en die ziet er ook gewoon normaal uit echter alleen is de value van raw_read_error_rate verhoogd maar dat lijkt mij logisch voor alsnog is hij niet uit de array gegooit. Zodra dat gebeurd ga ik hem vervangen. Bedankt voor je hulp! :)

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
Vreemd dat hij wel 'failing now' is. Heb je nog garantie? Ik ben benieuwd of de schijf echt fout is of dat het een soort 'false positive' is.

Verwijderd

Raw Read Error Rate is een indicatie van de mediumkwaliteit. Normaal is x aantal ruwe bitfouten per x hoeveelheid data. In hoeverre de disk hiervan afwijkt, is een indicatie over de kwaliteit van de hardeschijf. Je schijf zal dan vaker overnieuw moeten lezen en heeft over het algemeen veel ECC-correctie nodig voor het corrigeren van de bitfouten. De kans op bad sectors ligt dan op de loer.

Hij is 'failing now' omdat de genormaliseerde waarde (001) onder de threshold-waarde ligt (051) getuige Neopatch in "Het grote DIY RAID NAS topic deel 3". Zo'n schijf kan in principe nog lang mee, maar is wel minder betrouwbaar. Ik zou hem laten omwisselen cq. afschrijven.

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
De hardware ECC recovered van de drive staat wel op 0, maar ik weet niet of dat over de platter gaat of over het RAM van de cache van de drive?

Als je een nieuwe disk gaat kopen kan je je array ook nog even upgraden naar RAID-6 (en deze er dus in houden). Ik dacht dat dat onder Linux inmiddels mogelijk was. Zolang de drive het doet heb je een beetje extra veiligheid.

Verwijderd

Hij heeft verkeerd gecopypaste zodat de RAW VALUE allemaal onzichtbaar zijn. ;)

Wat ik verder nog wel wil benadrukken is dat Online RAID Level Migration (ORLM) en Online Capacity Expansion (OCE) geen features zijn die zonder risico te gebruiken zijn. Je gaat werkelijk elke sector omspitten op al je hardeschijven. Als gedurende die procedure er iets mis gaat zoals bad sectors of een crash en daarna een hardeschijf die niet wordt gevonden, en dat soort onzin, dan zit je met een volume wat je mogelijk niet meer kunt recoveren.

Linux is een van de beste software RAID implementaties, maar het is zeker niet onfeilbaar. In een ongelukkig geval kan het een keer fout gaan. Dan vind ik de veilige methode die ZFS gebruikt, door gewoon arrays bij te plukken, veel veiliger door zijn eenvoud. Het kost ook maar één seconde tijd om de metadata bij te werken en het kunstje is klaar. Dus: elk voordeel heb z'n nadeel... of was het nou andersom? :+

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
Als je verder naar rechts scrollt staan de raw values er wel hoor:

 1 Raw_Read_Error_Rate     0x002f   001   001   051    Pre-fail  Always   FAILI ................................ NG_NOW 36701

Wat betreft online capaciteit change heb je gelijk. Het is een spannende operatie. Ik heb pas nog onder een zeer recente Ubuntu een array naar de ### geholpen door --grow uit te voeren terwijl ik iets deed met de bitmap van de array. Maar het feit dat het niet kan op die manier vind ik wel HET grootste nadeel aan ZFS.

Ik ben dan ook nog steeds in afwachting hoe de BTRFS RAID5/RAID6 implementatie wordt, want bij BTRFS kan je (voor zo ver ik me kan herinneren) zowel growen als shrinken. Echter heb ik met zeer eenvoudige tests BTRFS al zo makkelijk op zijn bek laten gaan (dd if=/dev/zero of=<EenDriveVanEenMirror> bs=1M count=100, ZFS boeit dat totaal niet en repaired alles on the fly of bij een scrub maar BTRFS komt met kernel panics) dat ik het nog lang niet aandurf mijn data over te zetten.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Bij BTRFS kan je zelfs per filesystem een redundantie type opgeven... Dat vind ik pas relaxt :D
Maar ze hebben inderdaad nog een lange weg te gaan...

[ Voor 22% gewijzigd door FireDrunk op 17-01-2013 13:06 ]

Even niets...


  • nMad
  • Registratie: Augustus 2004
  • Laatst online: 20:28
Mijn 2 Samsung Spinpoint F3 HD103SJ 1TB hdd's heb ik verkocht, aangezien ze nogal energie-onzuinig waren.

In plaats daarvan zou ik het liefst een zuinige en stille 4TB (<5900rpm) schijf aan willen schaffen. De enige betaalbare 4TB schijf die ik kan vinden is een Hitachi Deskstar 5K4000. Is dit wel een goede schijf en geschikt voor 24/7 (non-raid) gebruik? Nogal vreemd dat hij slechts bij twee webshops te verkrijgen is..

De 3TB schijven zijn qua prijs/GB voordeliger en er is veel meer aanbod. Als ik voor een 3TB schijf zou gaan dan lijken mij zowel de WD30EFRX Red als de WD30EZRX Green interessant.

Als ik de reviews mag geloven is de Red energiezuiniger, stiller en geschikter voor 24/7 gebruik. De aanschafprijs is wel wat hoger dan die van de Green variant. Daarnaast heb ik geen TLER nodig agz ik geen RAID ga draaien. Het schijnt dat TLER niet aan te raden is voor stand alone schijven, dit wordt echter ook weer tegengesproken.

Voor welke schijf zouden jullie gaan in mijn situatie? :)

PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Lastig, zoals in Het nieuwe Zuinige Server topic ook al gezegd werd (onder andere door mij) zal er binnenkort vast een Green variant komen met dezelfde 1TB technieken als de Red, waardoor die weer zuiniger is. De Red is momenteel even het paradepaardje, en is vooral heel lang de enige met 1TB platters om zo de illusie te wekken dat Red per definitie beter is dan Green, wat eigenlijk kletskoek is, want het is gewoon een nieuwere serie dan de Green.

Als ze nou eindelijk eens met Green schijven komen met 4 * 1TB platters, zouden die net zo goed presteren en lekker zuinig zijn. Nadeel is weer dat die Red's betere (of beter gezegd, andere) firmware hebben dan de Green's waardoor ze inderdaad in RAID opstellingen te gebruiken zijn.

In jou geval kan je gewoon voor Green gaan, en is Red denk ik overbodig. Voor de snelheid hoef je het ook niet te doen, want zo veel scheelt het nou ook weer niet...

Even niets...


  • fonsoy
  • Registratie: Juli 2009
  • Laatst online: 23:25
Tweakers,

Ik wil nadenken over een vernieuwing van m'n server/NAS.

Op het moment draai ik met de volgend setup;
1Intel i3 2100
1AsRock H67M-V (geen B3)
4Samsung EcoGreen HD204UI 2TB
1HighPoint 2322 PCIe SATA300 controller


Wensen/problemen;

Graag wil ik gaan virtualiseren op de server. Hij draait op het moment Windows 2012 server naar tevredenheid. Vanwege 24/7 taken kan ik niet teveel testen en proberen met het OS. Graag zou ik de rollen wat scheiden, zodat ik het OS voor die applicatie eenvoudig kan herstarten. Verder staat het apparaat in een kleine hoek. Het is vervelend om zo nu en dan een scherm, toetsenbord en muis die kant op te brengen bij eventuele problemen. Ik zou dit willen ondervangen met iKVM.

Mijn huidige desktop is ook al weer wat ouder, dit is z'n 5e jaar. Deze upgradeset kan ik dus mooi doorschuiven daarheen.

Nu heb ik de volgende setup in mijn hoofd;

#ProductPrijsSubtotaal
1Intel Core i5 3330 Boxed€ 158,40€ 158,40
1Supermicro X9SCM-F€ 176,70€ 176,70
1Kingston KVR1066D3Q8R7SK2/16G€ 108,90€ 108,90
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 118,58€ 118,58
1Oude Intel X25-M 160GB € 0€ 0
Bekijk collectie
Importeer producten
Totaal€ 562,58


Met de huidige setup heb ik zo nu en dan weleens last van een bestand dat corrupt is geraakt. Het zou een plus zijn als dit te ondervangen is met ZFS. Ik ben helaas niet in de mogelijkheid om een tweede dedicated systeem hiervoor te plaatsen, en aan de andere kant zit ik voor o.a. Active Directory vast aan Windows.

Zijn er hier mensen die op een enkel systeem ZFS(guru) en Windows virtualiseren tegelijk? Wat kan ik qua performance verwachten, als ik de datastore via iSCSI aan windows wil aanbieden? Is dit een reele optie, of moet ik dit uit mijn hoofd zetten?

Ik wil graag RAID5 of RAID Z gaan gebruiken. Ik zal enkele harde schijven bijkopen, wegens dreigend ruimtegebrek.

Is de SSD groot genoeg voor ca. 3 Windows en 3 Linux VM's?
De laatste vraag; ik heb een erg grote kast voor de server in gebruik. Voordeel is dat hij erg stil is, maar het nadeel is dat de meeste voedingen te korte kabels hebben, de kast is net zo diep als een rackserver. Kennen jullie een stille voeding waarvan de kabels lang zijn?

Lenovo W520 - i7 2720QM - 8GB DDR3 1333Mhz - 1080p - Nvidia 1000M - 9 cell accu


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Welke variant van windows wil je gebruiken? Want een beetje VM neemt al 30GB in gebruik...

Even niets...


  • fonsoy
  • Registratie: Juli 2009
  • Laatst online: 23:25
FireDrunk schreef op donderdag 17 januari 2013 @ 14:57:
Welke variant van windows wil je gebruiken? Want een beetje VM neemt al 30GB in gebruik...
Het gaat om twee servers (2012), en een desktop OS (Windows 8). Wat betreft Linux ben ik wel fan van Debian en Ubuntu.

In dat geval kan ik beter de 1TB schijf gebruiken die ik nog heb liggen. Met een 250GB+ SSD kom ik boven het budget uit, en dan is het nog steeds beknibbelen op de ruimte.

@FireDrunk hier beneden;
Dat is een goed idee, FireDrunk. Daar ga ik wel mee aan de slag. Het is immers een groot voordeel om alles op de SSD te passen.

[ Voor 15% gewijzigd door fonsoy op 17-01-2013 16:03 ]

Lenovo W520 - i7 2720QM - 8GB DDR3 1333Mhz - 1080p - Nvidia 1000M - 9 cell accu


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-12 14:29
Nou ja, je kan Windows wel knijpen, maar dan moet je goed weten wat je doet. Standaard staat swap bijvoorbeeld best hoog, hibernate aan, en als je een SP installeert, groeit je SXS folder als kool.
Nou is dat allemaal wel te beperken, maar daar moet je wel rekening mee houden.

Met vLite ISO's maken met alle patches er in, helpt enorm. Dan kan je een VM terugdringen tot een paar GB (5-10 afhankelijk van wat je er op installeert).

Even niets...


Verwijderd

FireDrunk schreef op donderdag 17 januari 2013 @ 14:07:
Lastig, zoals in Het nieuwe Zuinige Server topic ook al gezegd werd (onder andere door mij) zal er binnenkort vast een Green variant komen met dezelfde 1TB technieken als de Red, waardoor die weer zuiniger is.
Die is er toch al?

WD30EZRX-00MMMB0 3TB (750GB/platter) (4/8)
WD30EZRX-00DC0B0 3TB (1000GB/platter) (3/6)

http://rml527.blogspot.nl...tern-digital-35_1109.html

Kortom, de nieuwe WD30EZRX is 1000GB-platter. Alleen jammer dat WD geen normale typenummers toepast. In feite typienummers mixen tussen verschillende soorten schijven. Net als de WD20EARS ook uit een 4 platter en 3 platter versie bestond. Fix dat in je typenummers daar draaien alle verschillen toch om?
Als ze nou eindelijk eens met Green schijven komen met 4 * 1TB platters
Zoals we uit het verleden weten zijn hardeschijven met 3 platters over het algemeen de sweet spot qua betrouwbaarheid en prijs. En 1333GB platters kan nog een tijd gaan duren voor je 4TB platter schijven krijgt met 3 platters. Ik zou het voorlopig lekker op 3x1TB = 3TB houden. Dat is de ideale capaciteit op dit moment.

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
ik denk dat je mij hebt overtuigt om maar voor een paar van deze te gaan ;)
pricewatch: Western Digital Elements Desktop 3TB Zwart

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 17-12 17:14

psy

fonsoy schreef op donderdag 17 januari 2013 @ 15:01:
[...]

Het gaat om twee servers (2012), en een desktop OS (Windows 8). Wat betreft Linux ben ik wel fan van Debian en Ubuntu.

In dat geval kan ik beter de 1TB schijf gebruiken die ik nog heb liggen. Met een 250GB+ SSD kom ik boven het budget uit, en dan is het nog steeds beknibbelen op de ruimte.

@FireDrunk hier beneden;
Dat is een goed idee, FireDrunk. Daar ga ik wel mee aan de slag. Het is immers een groot voordeel om alles op de SSD te passen.
Mwah....ik heb 5 Hyper-V installaties hier draaien op een 2008R2 host:

1 x Windows 2008R2 (TMG)
1 x Windows 2008R2 (DC/DHCP/DNS/DFS)
1 x Windows 2008R2 (Fileserver)
1 x Windows 2012 (test)
1 x Windows 7

Bij elkaar nu 97 GB as we speak.
Heb niets getweakt om het kleiner te krijgen, maar gebruik wel dynamische disks (die dus niet meer ruimte innemen als je nodig hebt en vanzelf expanden)

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


  • fonsoy
  • Registratie: Juli 2009
  • Laatst online: 23:25
psy schreef op donderdag 17 januari 2013 @ 21:32:
[...]


Mwah....ik heb 5 Hyper-V installaties hier draaien op een 2008R2 host:

1 x Windows 2008R2 (TMG)
1 x Windows 2008R2 (DC/DHCP/DNS/DFS)
1 x Windows 2008R2 (Fileserver)
1 x Windows 2012 (test)
1 x Windows 7

Bij elkaar nu 97 GB as we speak.
Heb niets getweakt om het kleiner te krijgen, maar gebruik wel dynamische disks (die dus niet meer ruimte innemen als je nodig hebt en vanzelf expanden)
Dat klinkt goed, en het valt me serieus alles mee wat dat qua grootte innneemt. Bedankt voor je reactie, nu durf ik deze SSD voor dit doel in te zetten. Vooral omdat het in mijn situatie maximaal 3 windows VM's zullen zijn. Over de grootte van enkele linux VM's maak ik me weinig zorgen.

Ik ga even leentjebuur spelen in het ZFS topic voor mijn andere vraag, ik realiseer me dat het beter in dat topic past.

Lenovo W520 - i7 2720QM - 8GB DDR3 1333Mhz - 1080p - Nvidia 1000M - 9 cell accu


  • psy
  • Registratie: Oktober 1999
  • Laatst online: 17-12 17:14

psy

Dat is dus wel exclusief de host.
Host moet je zo'n 20GB voor rekenen.
Ik draaide dit eerst altjd op een 128GB ssd dus jij moet dat ook wel kunnen lijkt me.

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


  • sloth
  • Registratie: Januari 2010
  • Niet online
Mafketel schreef op donderdag 17 januari 2013 @ 20:07:
ik denk dat je mij hebt overtuigt om maar voor een paar van deze te gaan ;)
pricewatch: Western Digital Elements Desktop 3TB Zwart
Zitten daar normalerwijze geen OEM schijven in waar je geen garantie op hebt?
Of bouw je ze dan terug in de enclosure om zo je 2 jaar garantie te kunnen claimen bij calamiteiten?

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
yep hoogstwaarschijnlijk wel, maar kastjes kan ik mooi gebruiken voor de oude schijven.
En ik hoop dat na een burn-in periode er geen calamiteiten voorkomen. Anders inderdaad weer terug bouwen voor garantie.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Voor 3€ per schijf meer ben je wel je garantie kwijt, tenzij je vakkundig de "warranty void if removed" stickertjes kan verwijderen. Hou daar rekening mee want als je RMA gaat moeten versturen voor één stuk ben je al sowieso je "winst" kwijt als ze hem weigeren.

  • redfoxert
  • Registratie: December 2000
  • Niet online
Weet je zeker dat je de disk wel open krijgt zonder de behuizing te slopen? Die WD disken zijn meestal maar eenmalig te openen ... met een haakse slijper...

Daarbij, het komt bij 2.5' disken regelmatig voor dat de USB header op de printplaat gesoldeerd is en er uberhaubt geen SATA connector aanwezig is. Wellicht zijn ze ook al zo ver met de 3.5" disken?

Ik zou het risico niet willen lopen en gewoon die paar euro extra uitgeven aan een reguliere disk waarvan je weet dat je garantie kunt claimen en zeker weet dat je ze ook echt kunt aansluiten.

https://discord.com/invite/tweakers


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Mafketel schreef op donderdag 17 januari 2013 @ 20:07:
ik denk dat je mij hebt overtuigt om maar voor een paar van deze te gaan ;)
pricewatch: Western Digital Elements Desktop 3TB Zwart
Als je hem eruit haalt geen garantie meer.

Net zoals bij nMad, zou ik voor de 3TB Red serie gaan. Ze zijn op sommige punten 10 tot 15% energie zuiniger. En belangrijkste is nog 3 jaar garantie in plaats van 2 jaar bij de Green.

Red: http://www.wdc.com/wdprod...Sheet/ENG/2879-771442.pdf
Green: http://www.wdc.com/wdprod...Sheet/ENG/2879-771438.pdf

6 vs 4.4 W bij Read/Write scheelt 26% in stroomkosten.

[ Voor 15% gewijzigd door Dennisik op 18-01-2013 22:13 ]


Verwijderd

Dennisik: WD Red en WD Green zijn hetzelfde afgezien van firmware en garantie. Het probleem is dat typenummers door elkaar lopen. Zo zijn er twee typen WD Green WD30EZRX. Een met 4x 750GB platters, en één met 3x 1000GB platters. WD Red is net als laatstgenoemde 3x 1000GB platters.

Hetzelfde gebeurde eerder met de WD EARS die begon met een 4x 500GB platter design, en pas later net als de Samsung F4EG met een 3x 666GB ontwerp kwam.

Het vervelende is alleen dat de typenummers gelijk blijven. Je vergelijkt dus de oude WD Green met de nieuwe WD Red. Je wilt enkel WD Red vanwege de garantie ofwel de TLER feature; anders neem je 1TB platter Green schijf die fysiek hetzelfde is maar zonder TLER of extra garantie.

750GB platter: WD30EZRX-00MMMB0 3TB (4/8)

1000GB platter: WD30EZRX-00DC0B0 3TB (3/6)

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Ah, dat verhaal van die platters ken ik inderdaad. Al eerder gehoord bij de WD20EARS.

Maar voor die 16 euro meer waard, is het toch wel de moeite waard om 1 jaar meer garantie te nemen?
Als de platters hetzelfde zijn.
Pagina: 1 ... 117 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.