Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17:18
@Analog_,

Je vergist je denk ik. ZFS kan in principe niet corrupt raken, omdat het ook zichzelf door middel van copy on write update. Hierdoor kan je welliswaar buffers verliezen bij een power outage, maar nooit synced writes.

Een UPS is dus vooral handig, als je ZIL wil uitzetten, en/of je systeem altijd up moet zijn. Verder heeft het zelfs geen meerwaarde, ZFS gaat zich er 0,0 anders door gedragen.

[ Voor 11% gewijzigd door FireDrunk op 01-03-2013 19:03 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
FireDrunk schreef op vrijdag 01 maart 2013 @ 19:03:
@Analog_,

Je vergist je denk ik. ZFS kan in principe niet corrupt raken, omdat het ook zichzelf door middel van copy on write update. Hierdoor kan je welliswaar buffers verliezen bij een power outage, maar nooit synced writes.

Een UPS is dus vooral handig, als je ZIL wil uitzetten, en/of je systeem altijd up moet zijn. Verder heeft het zelfs geen meerwaarde, ZFS gaat zich er 0,0 anders door gedragen.
Right, my bad, verwarring komt van de NexentaStor documentatie waarin ze aanbevelen voor machines op UPS'en een system-wide force-async optie met speedup als gevolg. In dat opzicht wordt een UPS toch essentieel om je synced writes nog te garanderen (wat dan wel meer risico legt bij je single-machine-hardware).

Ik vraag mij af hoe vaak een sync write aankomt als async nadat het door de storage en netwerk stack op twee besturingssystemen gereisd. Ook het default gedrag van protocollen zoals samba/cifs.

[ Voor 10% gewijzigd door analog_ op 01-03-2013 21:46 ]


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Sorry voor de vertraging in mijn reacties. Enorm druk afgelopen dagen, en nog meer net op het nippertje een stukje voor Stefan kunnen schrijven. Toch niet ontevreden. :)
FireDrunk schreef op woensdag 06 februari 2013 @ 09:32:
@CiPHER, misschien moet je jou post over ECC en ZFS even opsnorren, daar stonden een heel aantal redenen in, waarom ECC leuk, maar niet verplicht was in, daar heb ik ook weer op gereageerd volgens mij.
Ik heb daar in de review-comments wat over geschreven: Anoniem: 15758 in 'reviews: Desktop Best Buy Guide: maart 2013'

Kort gezegd: ZFS kan bij een sporadische RAM bitflip dit met redundancy vaak nog corrigeren, sowieso heb je errordetectie, je verliest hooguit end-to-end data protection dat is het meest ernstige. Maar mijn argument was vooral dat de client die de data aanlevert eigenlijk als eerste ECC zou moeten hebben, aangezien die helemaal geen mechanisme heeft om corruptie te corrigeren of zelfs te detecteren. Als het bij de client misgaat dan kan je je ZFS server zo veilig maken als je wilt; dan heeft het geen zin. Je kunt met ZFS zien dat je RAM errors hebt aan het feit dat je allemaal CHECKSUM correcties hebt op je disk, wat duidt op diskcorruptie maar dan egaal verdeeld over alle disks. Dus volkomen random. Dat suggereert dat je memtest moet draaien. Dit is mijn ervaring met echt rotte ram-reepjes. Wat zal die ene bitflip per maand aanrichten aan je ZFS server? Ik denk dat ECC niet strict nodig is. Tenzij je een mission-critical bedrijfsserver bouwt natuurlijk, duh. Maar dat is hier de insteek niet.

Dat gezegd, ben ik wel een zeer groot voorstander van ECC. Het is onbegrijpelijk dat ECC niet standaard onderdeel is. Eén extra chipje en wijzigingen aan de IMC (72-bit ipv 64-bit) en je geheugen is ECC-beschermt. Aangezien er bijna overal errordetectie danwel -correctie wordt gebruikt is het vreemd dat iets cruciaals als RAM-geheugen onbeschermd is.

Zodra filesystems en RAM dus betrouwbaarder worden, kun je stellen dat computersystemen eindelijk een stabiele basis krijgen. Dat dit wordt tegengehouden, komt waarschijnlijk omdat er veel geld wordt verdient door zakelijke gebruikers flink meer te laten betalen voor oplossingen die dan wel betrouwbaar zijn. Niet voor niets moeten we nu voor TLER betalen terwijl dat eerst gratis was. Het wordt onderdeel van de marketingstrategie van een bedrjif.
StefanvanGelder schreef op zaterdag 09 februari 2013 @ 12:07:
Eén ssd voor zowel ZIL als L2ARC lijkt mij inderdaad ook niet over te houden. Niet vanwege performance, maar ook vanwege slijtage. Ik ga later nog even dieper op dit onderwerp in ;)
Kan prima hoor. Een aparte ZIL op de SSD (ik noem dat SLOG; iets correctere benaming) hoeft niet veel wear voor de SSD te betekenen. Dankzij de kleine partitie is de write amplification heel laag. Het is een beperkte LBA space waarin steeds data wordt overschreven. Zolang je overprovisioning toepast - en dat moet je zeker doen - gaat SLOG en L2ARC combineren geen problemen opleveren.

Dat SSDs langzamer worden wanneer ze voor zowel lees als schrijfacties gebruikt worden, kan wel kloppen. Echter met AHCI heb je NCQ en dus kan de SSD met zijn 16-way interleaving in feite 16 dingen tegelijk doen. In de praktijk is de winst minder, maar dit zorgt er wel voor dat verschillende I/O vrij parallel kan gebeuren en elkaar dus niet of nauwelijks zal vertragen.

In veel situaties is de hoeveelheid writes naar je SLOG/ZIL heel beperkt. Uitzonderingen zijn de ESXi NFS datapartitie die alles async doet. En iSCSI images waar een client filesystem op draait. Maar je SSD gebruik je om te gebruiken. Dan maak ik me meer zorgen om de USB stick of Transcend module die na maanden van gebruik er een keer mee op kan houden, door de aanhoudende stroom kleine writes en hoge write amplification. Dan spreek je over slijtage. Moderne SSDs zijn zo cool omdat ze kleine writes kunnen redirecten. Dat houdt hun write amplification laag en daarmee ook hun slijtage bij veel en aanhoudende kleine writes zoals veel voorkomt op een systeemdisk.
FireDrunk schreef op zaterdag 09 februari 2013 @ 16:45:
HDMI op een ZFS nas? Inderdaad volkomen onnodig...
Het kan een overweging zijn voor diegenen die met XBMC willen stoeien. Maar in de meeste gevallen kiezen mensen toch OpenELEC. Toch kan het altijd een overweging zijn als men ook videodingen op een multi-functionele server wilt uitvoeren.

Ik snap dat jij daar heel anders over denkt en veel strenger bent met wat je zoal op een belangrijke server draait. Maar bedenk dat ook veel amateurs met minder grote belangen ook maar wat proberen met de beperkte hardware die men heeft. Een ZFS server en HTPC in één zou technisch kunnen.
FireDrunk schreef op maandag 11 februari 2013 @ 12:09:
En wth... betrouwbaarder? Sinds wanneer is een el-cheapo SSD perse betrouwbaarder dan een USB stick?

Een goede SLC USB stick gat net zo lang, zo niet langer mee... En hoeft helemaal niet duur te zijn.
En als je een kwalitatief goede USB3.0 stick neemt, issie nog veel sneller ook...
Ik heb juist geleerd dat ook heel goedkope USB-sticks veel sneller kunnen zijn dan dure USB3 sticks. De reden hierachter is dat de 4K random write performance van USB sticks met ongeveer een factor 1000 uiteenloopt. Dat is natuurlijk enorm belangrijk als je een USB-stick als systeemdisk wilt gebruiken. Dan wil je een stick met hoge 4K random write performance niet alleen voor de prestaties, maar ook omdat dit de write amplification drukt en je stick dus langer mee zal doen gaan. Sticks die heel traag zijn, zijn namelijk traag omdat hun WA-factor omhoog schiet. Voor een 512B write moet er dan meerdere megabytes worden gewist en geschreven. Grotere sticks hebben vaak grotere blocksizes. De simpele pricewatch: Verbatim Store'n'Go Micro-USB 4GB Zwart doet het voor de 4 euro die ik ervoor betaald hebt veel beter dan veel dure sticks. De beste zou kunnen zijn: pricewatch: Sandisk Extreme USB 3.0 Flash Drive 32GB Zwart die ook heel goede 4K prestaties heeft vergeleken met andere sticks.
StefanvanGelder schreef op maandag 11 februari 2013 @ 18:54:
Maar wie zegt dat die Trenscend gebruik maakt van kwalitatief slecht flashgeheugen?
I hate to say it, maar die Transcend DOM (Disk-On-Module) 'SSD's zijn behoorlijk prut. Die ik gebruikte zat gewoon een JMicron controller in. Dan kun je beter een normale USB stick gebruiken; goedkoper en waarschijnlijk sneller want de 4K prestaties van de DOMs die ik heb gebruikt zijn dramatisch slecht.
FireDrunk schreef op vrijdag 15 februari 2013 @ 11:35:
AV GP schijven hadden toch een lagere UERR? Ik dacht dat die altijd op 10^14e zaten ipv 10^15e wat veel andere schijven hebben...
Ik geloof persoonlijk die specs niet zo. Ik wijs daarbij op een voorval in het verleden waarbij de WD Black van 10^-15 naar 10^-14 werd gedowngrade stilletjes. WTF betekent dat? Was het al die tijd -14 of alleen nieuwe productiemodellen? In elk geval denk ik dat de fabrikanten best wat te verbergen hebben aangezien onleesbare sectoren toch een soort design flaw van huidige generatie schijven zijn. In zo'n klimaat loont het om iets minder eerlijk te zijn met de opgegeven specs. Vandaar dat ik die uBER specs met een korrel zout zou nemen. Misschien is het toch lager dan -14. Het is niet alsof je een testrapport krijgt met exacte uitslagen, zoals een 80-plus voedingtest. Dat zou eigenlijk best mogen vind ik.
FireDrunk schreef op zaterdag 23 februari 2013 @ 13:51:
Tja, of de ASMedia 100% geschikt is voor ZFS moet geloof ik nog bewezen worden. Er zijn dacht ik al wel mensen die hem hebben draaien.
Hij draait al een tijdje op mijn ASrock B75 Pro3-M. Tot nu toe geen problemen ermee. Enige is dat hij minder powersaving ondersteunt dan de Intel controller in DIPM mode. 0,3 watt. Boeie! :P
jwpmzijl schreef op zaterdag 09 februari 2013 @ 12:16:
@Cipher (de specialist naar mijn mening)
Zou ZFS als je 16 Gb. plaatst dat extra geheugen bij 4 terabyte opslag op echt gaan gebruiken? Als dat niet het geval is kan in het advies aangegeven worden dat bij plaatsen van extra schijven extra geheugen gewenst is.
Dat geheugen gebruikt ZFS ook op een 16GiB USB stick als je een 16GiB groot bestand inleest. Dat doen trouwens alle filesystems en virtual memory subsystems, sinds Windows NT geloof ik. Win98 mogelijk niet. Alles wat je inleest blijft in principe in RAM staan, omdat het altijd nuttig kan zijn mocht die data opnieuw worden opgevraagd door een applicatie. RAM filecache is dus iets universeels. In Windows kun je in Task Manager -> Performance tab je Cached RAM-gebruik vinden. Cached+Free = Available RAM, ongeveer.

ZFS kan RAM echter nog veel intelligenter gebruiken omdat het niet alleen last-accessed filecache implementeert, maar ook frequently-accessed. Zo kan bij ZFS het inlezen van een heel groot bestand niet zomaar alle caches wat je daarvoor hebt opgebouwd, wegblazen. In plaats daarvan houdt ZFS deze twee werelden gescheiden.

Wat mij betreft is meer RAM-geheugen voor ZFS de beste performanceupgrade voor ZFS. ZFS is extreem geheugenintensief, dus sneller geheugen en met name lagere latencies kan ook nog iets helpen. Zo zijn er ook CAS9 setjes voor grofweg dezelfde prijs, sommigen die ook op 1600MHz lopen (Crucial Ballistix). Maar kwantiteit is het belangrijkst. Het liefst zou ik iets van 128GiB RAM willen kunnen draaien. Dan heb je eigenlijk geen L2ARC meer nodig. :+
Pagina: 1 2 Laatste

Let op:
Dit topic is niet voor persoonlijk advies! Daarvoor is DAA in het leven geroepen. Lees daarbij eerst goed dit bericht en neem het beleid in die andere subfora goed door.


De BBG omvat deze keer de volgende systemen:
[BBG] Budget- en basissysteem maart 2013
[BBG] Storage maart 2013
[BBG] Budgetgame- en basisgamesysteem maart 2013
[BBG] High-end gamesysteem maart 2013