Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Zelf zat ik een beetje met dezelfde keuze, en uiteindelijk ben ik gegaan voor een Intel DC P4510. In de ideale wereld had ik liever een Optane gehad, uit mijn ervaring levert zo een schijf als SLOG en L2ARC gewoon SSD-prestaties op een array met eco-schijven, maar uit kostenoverwegingen viel die af. Met mijn gebruik zijn de prestaties van deze schijf ook prima, en dan gebruik ik de schijf voor gemengd gebruik als bootschijf, voor wat containers en als SLOG en L2ARC voor 2 pools met HDD's.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

dcm360 schreef op dinsdag 24 september 2019 @ 21:14:
Zelf zat ik een beetje met dezelfde keuze, en uiteindelijk ben ik gegaan voor een Intel DC P4510. In de ideale wereld had ik liever een Optane gehad, uit mijn ervaring levert zo een schijf als SLOG en L2ARC gewoon SSD-prestaties op een array met eco-schijven, maar uit kostenoverwegingen viel die af. Met mijn gebruik zijn de prestaties van deze schijf ook prima, en dan gebruik ik de schijf voor gemengd gebruik als bootschijf, voor wat containers en als SLOG en L2ARC voor 2 pools met HDD's.
Deze?
pricewatch: Intel DC P4510 1TB

Want die vind ik met dik €200 behoorlijk aan de prijs. (Hij lijkt ook niet kleiner te krijgen te zijn dan 1T.)
Is dat vergelijkbaar met dit beestje?

pricewatch: Intel Optane H10 256GB

Of is die (los van dat het een NVMe is en 'ie maar 256G is), niet vergelijkbaar?

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

@unezra De Optane H10 is stiekem geen echte Optane. Het is een SSD met QLC-geheugen aangevuld met een beetje 3D XPoint als cache. Ik had wel al bedacht dat als mijn huidige configuratie (met idd de 1TB P4510) tegen zou vallen, dat ik dan nog een Optane M10 of 800P in een M.2 slot zou kunnen plaatsen (ik heb hetzelfde moederbord, maar ik gebruik de M.2 sloten niet).

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

unezra schreef op dinsdag 24 september 2019 @ 21:29:
Deze?
pricewatch: Intel DC P4510 1TB

Want die vind ik met dik €200 behoorlijk aan de prijs. (Hij lijkt ook niet kleiner te krijgen te zijn dan 1T.)
Sorry, maar dat is echt geen geld voor een dergelijke SSD naar mijn mening! :)

Hou er alleen rekening mee dat het blijkbaar een U.2 exemplaar is en je daarom dus het één en ander erbij zal moeten kopen als je geen U.2 poorten op je moederbord hebt! ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Waarbij dat laatste nog wel een interessant punt is (al begint het voor hier off-topic te raken). Ik heb er iets langer dan gepland over gedaan om de SSD werkend te krijgen, en ik ben er nog niet helemaal over uit of ik nu tweemaal een defecte Asus M.2 > SAS HD converter heb ontvangen of dat die daadwerkelijk niet compatibel is met de rest van mijn hardware. Ik zie het verschil met een wel werkende converter van Delock in ieder geval niet.

Acties:
  • +2 Henk 'm!
@unezra Deze artikeltjes al eens gelezen?
https://www.servethehome....nd-what-makes-a-good-one/
https://www.servethehome....og-ssd-intel-optane-nand/

Vooral in de eerste staat interessante info, zoals dit diagram:
Afbeeldingslocatie: https://www.servethehome.com/wp-content/uploads/2017/11/ZFS-ZIL-SLOG-writing-to-common-options.jpg

De goedkope Intel Optane's zijn best interresant als SLOG.

Dit artikeltje moet ik altijd om grinniken:
https://www.tweaktown.com...me-ssd-review/index5.html
For reasons unknown, running Optane as our OS disk did not agree with AS SSD's data pattern. The overall score is still quite good despite the drop in sequential read/write performance. The 4K QD1 random read performance is a new lab record for AS SSD. 4K read = 259.58 MBs is equivalent to 66,452 IOPS

Read more: https://www.tweaktown.com...me-ssd-review/index5.html
Die SSD doet bijna 39.000 IOPS bij QD=1. Dat is behoorlijk snel.

Hier lees je heel duidelijk dat ze niet zo goed snappen wat een SSD snel maakt. Gigantische read speeds op hoge queue depths is leuk. Maar in de praktijk zie je echt amper zo'n hoge queue, tenzij je een drukke enterprise SAN/NAS bent die IO van > 100 VM's te verduren krijgt.

Wat een SSD goed maakt is lage latency. Hoe korter de latency, hoe sneller de queue weer vrijgegeven wordt. *ALLE* writes naar je ZIL (dus niet alleen naar een SLOG, maar ook die naar je 'normale' ZIL) zijn 'SYNC'. Waardoor er dus geen queue ontstaat. Hierdoor moet je gewoon de latency van 1 request wachten totdat het 'systeem' weer door gaat.

ZFS doet dit in 2 fases. Eerst wordt er een transactie groep gestart (een verzameling IO's die op stabiele storage gezet gaan worden). Alle IO's die binnenkomen worden met slimme algoritme's in die transactie groep geplaatst (op slimme volgorde, gegroepeerd, gesorteerd, anti-fragmentatie, weet ik wat allemaal).
Komt er in zo'n transactie groep een SYNC IO terecht, moet die eerst, want de gebruiker staat te wachten.
Op dat moment wordt de transactie groep meteen geflushed (naar disk gezet). Als eerst wordt de ZIL beschreven met de SYNC IO. Als dat klaar is, krijgt de gebruiker (het process wat de IO deed) een OK.

Op dat moment gaat ZFS pas de async IO naar disk sturen. Ondertussen is alle async data dus niet naar de ZIL geschreven, deze was immers async, en mag als verloren worden beschouwd zonder ack.

Ondertussen dat ZFS dit doet, wordt er een nieuwe transactie groep gestart om weer data te verzamelen.
Rinse and repeat....

Hieruit zie je dat ZFS nooit veel IO zal queuen in 1 transactiegroep tenzij in een *heel* kort window er *heel* veel SYNC IO's binnen komen die naar de SLOG zouden moeten. De kans dat dat gebeurt is zeer beperkt, waardoor de latency van de SSD een immens veel grotere rol speelt dan de totale bandbreedte van het ding.

Intel Optane's hebben voor zover ik kan zien, geen DRAM cache, maar schrijven hun IO direct in 3D X-Point NAND, wat hele lage latency heeft.

Daarom komen die dingen ook niet naar voren als zijnde SSD's met stroombescherming's features, die zijn namelijk niet nodig. Alle SYNC IO gaat *direct* naar stable NAND.

Dat maakt ze uitermate geschikt als SLOG :)

Lastige is: Sommige SSD's met DRAM en Stroombescherming kunnen in sommige benchmarks sneller lijken dan Optane's. Dat komt omdat Optane's extreem geoptimaliseerd zijn voor latency, en niet voor bandbreedte.
Ik heb gemerkt dat het heeeeel lastig kan zijn om echt goede benchmarks te vinden als het gaat om QD=1 waar de review sites echt weten wat ze doen.

ServeTheHome staat er om bekend dat ze vrij goede latency benchmarks doen.

[ Voor 6% gewijzigd door FireDrunk op 25-09-2019 08:56 ]

Even niets...


  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

@FireDrunk Dat is een verdomd interessant verhaal om te lezen. :)
Zonder anderen te kort te willen doen die hier in dit topic ook echt verdomd fijne, interessante, leerzame zaken schrijven: Dank je wel. (Anderen dus ook bedankt. Dit topic leeft opeens en hoe.)

Qua Optanes, ik snap het nut. Stel dat ik op termijn daar toch iets mee wil doen en dan wil kiezen tussen NVMe of PCIe (domweg omdat ik beiden beschikbaar heb en mijn SATA poorten sneller op gaan raken), zijn deze 3 dan zinvolle Optanes?

pricewatch: Intel Optane 800P M.2 58GB
pricewatch: Intel Optane 800P M.2 118GB
pricewatch: Intel Optane 900P PCI-e Star Citizen Promo Pack 280GB

Die eerste is "maar" een 58G NVMe, maar als ik het goed begrijp (correct me if I'm wrong), is dat voor SLOG/L2ARC meer dan goed genoeg. Daar 2 van in het systeem. partitioneren en gaan. (Of is het met zo'n apparaat acceptabel om de SLOG niet op een mirror te zetten, maar op een enkele Optane? Dan kan de SLOG op de ene en de L2ARC op de 2e.)

Puur qua prijs zit 'ie goed. De prijs per G is gigantisch hoog, maar met zo'n heel specifiek doel maakt dat niet uit omdat het ding toch niet voor iets anders ingezet gaat worden dan SLOG/L2ARC.

De PCIe kaart is ook interessant, alleen heb ik maar 2 volledig bruikbare PCIe slots. Het kan zijn dat de 3e te krap op de rest zit. In 1 komt een 4xGBit NIC, dus ik moet er voorlopig vanuit gaan dat ik nog maar 1 PCIe slot vrij heb.

Afbeeldingslocatie: https://tweakers.net/i/Vby9D8HpBbWVBGTazBcWsoh05IU=/i/2002535912.jpeg

Ná Scaoll. - Don’t Panic.

Nogmaals, staar je niet blind op mijn verhaal dat je Optane moet gebruiken. Ze zijn heel geschikt, maar zeker niet de enige geschikte kandidaat. Ik gebruik ze vooral als voorbeeld. Goede enterprise SSDs met battery backed DRAM kunnen in theorie zelfs hogere prestaties leveren dan een Optane. DRAM is nog altijd sneller dan 3D X-Point. Het zit hem vooral in de firmware van de Optane wat hem wel leuk maakt.

Maar *nogmaals*: Kijk goed of je wel sync nodig hebt. Draai je Database met ingewikkelde transacties die goed teruggedraait moeten kunnen worden, of VM's die een oud non-journalling filesystem draaien, welke corrupt kan raken bij wat async writes die niet gehonoreerd worden? Is het antwoord nee? Dan kan je prima sync=disabled gebruiken.

sync=disabled is *nog* veel sneller dan een SLOG. Je zet namelijk effectief de ZIL gewoon *uit*. :+


EDIT: nog wat meer best goede benchmarks gevonden:
Hier zie je dat de Optane bij QD=1 hele hoge read iops haalt, maar niet extreem goed is in writes bij QD=1.
Nog steeds beter dan de concurrentie, maar niet bij een factor 10 zoals bij reads:

https://www.anandtech.com...-intel-samsung-memblaze/5

Afbeeldingslocatie: https://images.anandtech.com/graphs/graph13704/qd1-rr.png
Afbeeldingslocatie: https://images.anandtech.com/graphs/graph13704/qd1-rw.png

Overigens zijn dit allemaal enterpise SSDs.

[ Voor 24% gewijzigd door FireDrunk op 25-09-2019 12:03 ]

Even niets...


  • Paul
  • Registratie: September 2000
  • Laatst online: 12:44
Even een recap, als ik het goed heb gevolgd heb je het volgende:
Asrock X470D4U
Ryzen 5 3600
2x 256GB SSD (mirror?): OS + kleine VMs
4x 5TB HDD: grotere VMs, data-disken VMs, data fileserver
1x PCIe 4x gigabit (heb je die al? anders misschien 10g overwegen, een switch met 10g poorten kost nog maar 120 euro of zo)

En je overweegt nog wat je wil doen voor SLOG en L2ARC?

Vanwaar L2ARC? Hoeveel RAM steek je in het systeem? Er past 128 GB in :P En, L2ARC kost ook geheugen. Op https://forums.servetheho...oth-slog-and-l2arc.19700/ wordt aangegeven dat het goed zou moeten gaan met een P900. 800P's zijn wel een stukje langzamer dan 900P's, maar passen in je M.2 sloten

De 900P is er ook in 2.5" met M.2 kabelkit :) Ik weet niet of er latency-verschil zit tissen PCIe 2 en 3, en wat zo'n optane doet als'ie maar 2 PCIe lanes beschikbaar heeft, maar je hebt twee M.2 sloten. Wel zitten ze op de chipset en niet op de CPU. Als het echt om SPEED!!!!! / latency te doen is zou ik dus eerder iets in de PCIe-sloten zetten dan in de M.2 sloten.

Aan de andere kant, het is een thuis-server.. Een goedkope Optane in de 'langzame' M.2 sloten lijkt me RUIM snel genoeg in zo'n situatie :) Zelf heb ik sync disabled, zo belangrijk zijn de VMs die er op staan namelijk niet :+ De data wel, maar daar heb ik een backup van.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock

Ik denk nog steeds dat je er niks van gaat merken. Zelfs niet in de prosumer tweaker systemen.

Sinds de 2 dagen regel reageer ik hier niet meer

CurlyMo schreef op woensdag 25 september 2019 @ 12:53:
Ik denk nog steeds dat je er niks van gaat merken. Zelfs niet in de prosumer tweaker systemen.
Same. Je merkt er niets van.

Even niets...


  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Paul schreef op woensdag 25 september 2019 @ 12:39:
Even een recap, als ik het goed heb gevolgd heb je het volgende:
Asrock X470D4U
Ryzen 5 3600
2x 256GB SSD (mirror?): OS + kleine VMs
4x 5TB HDD: grotere VMs, data-disken VMs, data fileserver
1x PCIe 4x gigabit (heb je die al? anders misschien 10g overwegen, een switch met 10g poorten kost nog maar 120 euro of zo)
Dat lijstje klopt inderdaad. :) Mogelijk met nog 2x 1T SSD d'r in, maar het kan zijn dat die niet goed meer zijn. Voordat ik die in productie neem moet ik echt even heel goed naar de SMART waardes gaan kijken en zien of ze uberhaupt nog veilig in te zetten zijn, of rijp voor de prullenbak.

Voorlopig geen 10G hier, al hou ik er wel rekening mee dat ik op termijn (enkele jaren) wél 10G ga inzetten.

Ik heb een hele zooi leftovers van kantoor, waaronder een aantal 4xGBit kaarten en een paar behoorlijk fatsoenlijke Aruba PoE switches. :) Zonder dat, had ik waarschijnlijk gewoon enkel de 2x on-board NIC's gebruikt of een simpel 2x kaartje gekocht.

10G begint betaalbaar te worden, maar dan moet er weer een losse PoE switch bij. Daar wil ik nu net vanaf.
(Een van de redenen voor deze nieuwe server is een vereenvoudiging van mijn setup, dus minder componenten.)

De luxe van die leftovers betekend dat ik op bepaalde punten flink overkill kan creeeren zonder dat het me iets kost en tja, dan is het gewoon ook leuk en leerzaam.
En je overweegt nog wat je wil doen voor SLOG en L2ARC?

Vanwaar L2ARC? Hoeveel RAM steek je in het systeem? Er past 128 GB in :P En, L2ARC kost ook geheugen. Op https://forums.servetheho...oth-slog-and-l2arc.19700/ wordt aangegeven dat het goed zou moeten gaan met een P900. 800P's zijn wel een stukje langzamer dan 900P's, maar passen in je M.2 sloten
Er zit 64G in.
Reden is simpel: Dat had ik nog liggen én het is voorlopig genoeg.
(Ik gebruik op dit moment op mijn huidige hypervisors zo'n 20G, wat ademruimte voor ZFS d'r bij en dan zit ik op een ruwe 24-28G, dus nog meer dan 32G over.)
De 900P is er ook in 2.5" met M.2 kabelkit :) Ik weet niet of er latency-verschil zit tissen PCIe 2 en 3, en wat zo'n optane doet als'ie maar 2 PCIe lanes beschikbaar heeft, maar je hebt twee M.2 sloten. Wel zitten ze op de chipset en niet op de CPU. Als het echt om SPEED!!!!! / latency te doen is zou ik dus eerder iets in de PCIe-sloten zetten dan in de M.2 sloten.

Aan de andere kant, het is een thuis-server.. Een goedkope Optane in de 'langzame' M.2 sloten lijkt me RUIM snel genoeg in zo'n situatie :) Zelf heb ik sync disabled, zo belangrijk zijn de VMs die er op staan namelijk niet :+ De data wel, maar daar heb ik een backup van.
Juh.
Met die eerder bestelde SSD's ongeschikt en dus terug, is dit ook meer iets voor de langere termijn.
Heb ik het nodig? Waarschijnlijk niet.
Ga ik er iets van merken? Misschien in benchmarks.
Is het leuk om d'r eens mee te rommelen? Jup en dan is het ook niet erg als het een beetje geld kost, maar binnen grenzen.

Fin, ik heb vaker Tweakers Wishlists gemaakt met onderdelen die ik 1, 2 jaar later eens review en dan bestel. (Uiteraard wel met een check of er dan geen beter alternatief is.) Dit is ook zoiets. Leuk om nu over na te denken, maar gezien het gebrek aan noodzaak, ook iets waar ik geen haast mee heb. (If ever, want misschien besluit ik wel dat het prima is zo en laat ik die M.2 slots lekker voor wat ze zijn.)

Ná Scaoll. - Don’t Panic.


  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Paul schreef op woensdag 25 september 2019 @ 12:39:
1x PCIe 4x gigabit (heb je die al? anders misschien 10g overwegen, een switch met 10g poorten kost nog maar 120 euro of zo)
Als je echt wat leuks wilt doen met 10 Gbps NIC's in meerdere systemen kan je beter naar deze switches kijken :
- https://mikrotik.com/product/crs305_1g_4s_in
- https://mikrotik.com/product/crs309_1g_8s_in
- https://mikrotik.com/product/crs312_4c_8xg_rm

Verder heeft D-Link onlangs ook nog een refresh uitgebracht van hun 1 Gbps + 10 Gbps modellen : https://nl.hardware.info/...switches-met-10gbs-uplink
en kwam iemand daar in de reacties met dit model : https://www.fs.com/de-en/products/72944.html

Keuze zat dus, maar afhankelijk van je wensen kan het best wel een duur geintje worden! :P :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • Paul
  • Registratie: September 2000
  • Laatst online: 12:44
Die eerste zit wel in dezelfde prijscategorie, maar heeft (had? Ik heb er al even niet naar gekeken) veel moeite met een usecase die in deze doelgroep HEEL VEEL voor zal komen: 10G naar een paar devices en dan 1G uplink naar de rest van het netwerk.
Zelf heb ik maar 2 poorten nodig en zou de 'uplink' aangesloten worden op 24x100+4x1G, dus dan is de CSS-326 prima, vooral ook omdat ik al een EdgeRouter heb en CRS dus niet nodig heb :) Maar, als Mikrotik het probleem met de 305 gefixt heeft en je al een fatsoenlijke switch hebt dan is dat zeker een mooi dingetje :) Zeker als je L3 wil gaan doen maar je niet alles naar via je (internet)router wil sturen.
Keuze zat dus, maar afhankelijk van je wensen kan het best wel een duur geintje worden! :P :+
Zeker, en het wordt ook steeds goedkoper, maar dat was wel waarom ik met een € 120 model kwam :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Paul schreef op donderdag 26 september 2019 @ 16:54:
Zeker, en het wordt ook steeds goedkoper, maar dat was wel waarom ik met een € 120 model kwam :P
Grote switch met veel poorten die de meesten waarschijnlijk al zullen hebben in de meterkast dus dan kan je beter zo'n klein switchje erbij nemen :P

Maar wat ik al zei : Het is maar net wat je zoekt! :)

En bedankt voor het opzoeken in de Pricewatch, want dat lukte mij niet als ik gewoon op MikroTik zocht, terwijl dat een paar weken geleden zonder enig probleem lukte... /weird 8)7

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:44
nero355 schreef op vrijdag 27 september 2019 @ 00:22:
Grote switch met veel poorten die de meesten waarschijnlijk al zullen hebben in de meterkast dus dan kan je beter zo'n klein switchje erbij nemen :P
Dat was mijn eerste opzet, maar toen dat nog actueel was (ik heb nu een directe link tussen mijn beide 10G machines en wat entries in mijn hosts-bestand) kon dat goedkope kleintje iig niet goed overweg met verkeer tussen 10G en 1G.
En bedankt voor het opzoeken in de Pricewatch, want dat lukte mij niet als ik gewoon op MikroTik zocht, terwijl dat een paar weken geleden zonder enig probleem lukte... /weird 8)7
Hmm, ik weet het ook niet? Ik zocht iig op https://tweakers.net/pricewatch/zoeken/?keyword=crs305 :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Hmm.
For those interested.

1 grote onhebbelijkheid ontdekt van Sanoid: Het maakt snapshots aan in een formaat / naming dat niet compatible is met Windows Shadow Copy.

Vooralsnog voor mij een won't fix, ik laat het voor nu even zo, maar ga later toch een keer kijken of er een zfs snapshot én sender is (zoiets als sanoid/syncoid), die qua snapshots maken en senden het nodige werk uit handen neemt, maar wel dusdanig te configureren is dat de snapshots als Windows Shadow Copy zichtbaar zijn. (SMB snapt dit prima, het is echt Sanoid dat net kiest voor een naming waar SMB mee overweg kan.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!
Wat is Sanoid?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Een tool (wrapper) om automatisch en gescheduled ZFS snapshots te maken en (met het meegeleverde syncoid), te repliceren naar andere systemen, met automatische cleanup, etc.

https://github.com/jimsalterjrs/sanoid
https://www.svennd.be/zfs-snapshots-of-proxmox-using-sanoid/

Super nuttige tool vind ik. Alleen met de onhebbelijkheid dat het snapshots aanmaakt met een naam die niet op een normale manier met Windows Shadow Copy (Previous Versions) te gebruiken zijn.

Alternatief is dit:
https://blog.chaospixel.c...ow-copies-with-samba.html

Maar daar zit dan weer geen tool bij om automatisch de zooi naar de overkant te synchroniseren voor backups. :) Als ik dát nog vind, iets dat de functionaliteit en het gemak van sanoid/syncoid levert, maar wel met namen die bruikbaar zijn voor Shadow Copy, ben ik blij.

(Voor nu kan ik er prima omheen werken, het is niet dat ik het ooit nodig heb gehad, enkel snapshots zijn vooralsnog in deze situatie prima maar hey, als snapshots op deze manier in te zetten zijn is dat natuurlijk wel leuk.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • imdos
  • Registratie: Maart 2000
  • Laatst online: 20-05 12:00

imdos

I use FreeNAS and Ubuntu

unezra schreef op maandag 30 september 2019 @ 06:52:
[...]
Super nuttige tool vind ik. Alleen met de onhebbelijkheid dat het snapshots aanmaakt met een naam die niet op een normale manier met Windows Shadow Copy (Previous Versions) te gebruiken zijn.

Alternatief is dit:
Link
Dat ziet er nuttig uit. Ik heb dit niet direct kunnen vinden; Maar kun je dit (maken van snapshots) vanuit Windows initiëren?

Als je trouwens hier naar kijkt dan kan je gewoon pre/post/prune scripts configureren naar je wens. Dan kan je zelfs datgene uit dit artikel toepassen.

En anders gewoon een (github) issue aanmaken?

pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

imdos schreef op maandag 30 september 2019 @ 10:30:
[...]
Dat ziet er nuttig uit. Ik heb dit niet direct kunnen vinden; Maar kun je dit (maken van snapshots) vanuit Windows initiëren?
Initiëren niet, maar je kunt ze wel bekijken en terug zetten.
(Dat is ook het hele idee. Je initieert dit vanuit de achterkant, waardoor Windows er geen invloed op heeft en je gebruikt het resultaat aan de Windows kant. Zo ben je niet afhankelijk van Windows functionaliteit voor het maken van snapshots. Het nadeel is dat het periodiek is, het is dus geen versioning, het zijn zuiver periodieke snapshots.)
Als je trouwens hier naar kijkt dan kan je gewoon pre/post/prune scripts configureren naar je wens. Dan kan je zelfs datgene uit dit artikel toepassen.

En anders gewoon een (github) issue aanmaken?
Misschien toch maar doen inderdaad.

De tool zelf is super nuttig, maar het maakt het nog veel nuttiger als je het met shadowcopy kunt gebruiken. Samba snapt dat prima en Samba string kun je aanpassen, maar beperkt. Ik heb nog geen Samba string kunnen vinden die overweg kan met de suffixes die Sanoid gebruikt. (Mocht ik die alsnog vinden is het ook prima. Als het met de Samba config aangepast kan worden en werkend gekregen kan worden ben ik er ook natuurlijk.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • imdos
  • Registratie: Maart 2000
  • Laatst online: 20-05 12:00

imdos

I use FreeNAS and Ubuntu

unezra schreef op maandag 30 september 2019 @ 10:37:
[...]
Initiëren niet, maar je kunt ze wel bekijken en terug zetten.
(Dat is ook het hele idee. Je initieert dit vanuit de achterkant, waardoor Windows er geen invloed op heeft en je gebruikt het resultaat aan de Windows kant. Zo ben je niet afhankelijk van Windows functionaliteit voor het maken van snapshots. Het nadeel is dat het periodiek is, het is dus geen versioning, het zijn zuiver periodieke snapshots.)
[...]
Right; maar hoe maak je dan een snapshot als je laptop niet constant aan staat? Doe je dan pollen of werkt dat met de stand van de zon :X 8)7

pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

imdos schreef op maandag 30 september 2019 @ 12:32:
[...]
Right; maar hoe maak je dan een snapshot als je laptop niet constant aan staat? Doe je dan pollen of werkt dat met de stand van de zon :X 8)7
De snapshot word gemaakt op de machine waarop ZFS draait.
Ofwel: Je NAS (met ZFS).

Dat ding maakt periodiek snapshots (bij FreeNAS vanuit de eigen tooling, bij een Linux machine, met iets als SanOid, wat ook niet meer is dan een wrapper om bestaande zfs snapshot functionaliteit), alleen je maakt de snapshots *zichtbaar* in Windows. (Rechtsklik op bestand of directory --> Properties --> Previous Versions)

Het snapshot word dus niet gemaakt door Windows, maar door je fileserver en die draait in veel gevallen 24/7. :)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Kom er net achter dat compression uit staat op mijn datasets. :(
Dacht dat het met ZoL / Proxmox standaard aan stond en ben domweg vergeten het te controleren.
root@clarke:~# zfs get compression rpool datapool00 datapool01
NAME PROPERTY VALUE SOURCE
datapool00 compression off default
datapool01 compression off default
rpool compression on local
root@clarke:~# zfs get compressratio rpool datapool00 datapool01
NAME PROPERTY VALUE SOURCE
datapool00 compressratio 1.00x -
datapool01 compressratio 1.00x -
rpool compressratio 1.85x -
root@clarke:~#

root@clarke:~# zfs get compression
NAME PROPERTY VALUE SOURCE
datapool00 compression off default
datapool00/PVE compression off default
datapool00/PVE/BACKUPS compression off default
datapool00/PVE/LXC compression off default
datapool00/PVE/TST compression off default
datapool00/PVE/VM compression off default
datapool00/SMB compression off default
Ik weet dat het vragen naar de bekende weg is, maar toch:
Weet iemand wat de beste methode is dat aan te zetten én alle data te comprimeren? (Ik ben bang dat het uit gaat komen op domweg alle data lokaal kopieren en dan terugzetten op de plek waar het stond.)

Helaas kan ik ook niet vinden waar ik dat als default, samen met het compression algoritme, aan zou moeten zetten.

Damn, dat zuigt! :(

EDIT: Ik besef me dat het net voor mijn PVE vm's relatief makkelijk is. PVE kan vm's moven van de ene plek naar de andere, zonder downtime én herschrijft daarbij disks uiteraard. Dus tijdelijke dataset aanmaken, vm daarheen moven, terug moven, klaar.

Blijft over mijn SMB data, misschien dat rsync en dan mv toch het handigste is maar ik sta open voor suggesties.




Compleet ongerelateerde vraag, weet iemand of er voordelen zijn aan NFS direct via ZFS doen, ipv /etc/exports?

https://blog.programster.org/sharing-zfs-datasets-via-nfs

[ Voor 12% gewijzigd door unezra op 04-10-2019 17:59 ]

Ná Scaoll. - Don’t Panic.


Acties:
  • +1 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 12:11
Da's raar. Ik heb hier een Proxmox install van 2 weken oud. Weliswaar gemanaged door Puppet, maar ik weet nagenoeg zeker dat dit niet aangepast is (want dat stond nog op m'n todo om te puppetizen). Op deze install staat compression gewoon aan, alleen geen lz4 algo. Echter, volgens dit zijn de voordelen van lz4 over lzjb beperkt.

Verder had je de strekking zelf ook al bedacht, je moet gaan zorgen dat die blocks opnieuw beschreven gaan worden. Voor je SMB data kan je natuurlijk gaan rsyncen, maar je kan ook zfs send | zfs receive doen (op dezelfde machine - als dat past).

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Freeaqingme schreef op vrijdag 4 oktober 2019 @ 20:30:
Da's raar. Ik heb hier een Proxmox install van 2 weken oud. Weliswaar gemanaged door Puppet, maar ik weet nagenoeg zeker dat dit niet aangepast is (want dat stond nog op m'n todo om te puppetizen). Op deze install staat compression gewoon aan, alleen geen lz4 algo. Echter, volgens dit zijn de voordelen van lz4 over lzjb beperkt.
Hmmm. Ik zie het idd.
Aan de andere kant, ik moet het alsnog aanzetten en zijn conclusie is dan ook weer dat het ook geen kwaad kan. Dus ik denk dat ik gewoon voor lz4 ga.

Heel raar. Ik heb de machine geïnstalleerd met een stock ISO van PVE6, root is wel compressed maar de datapools die ik heb aangemaakt niet. Dom dat ik dat niet heb gecontroleerd direct ná installatie en vóór ik er data op ging zetten.
Verder had je de strekking zelf ook al bedacht, je moet gaan zorgen dat die blocks opnieuw beschreven gaan worden. Voor je SMB data kan je natuurlijk gaan rsyncen, maar je kan ook zfs send | zfs receive doen (op dezelfde machine - als dat past).
root@clarke:~# zfs list
NAME USED AVAIL REFER MOUNTPOINT
datapool00 4.45T 8.35T 151K /datapool00
datapool00/PVE 3.50T 8.35T 174K /datapool00/PVE
datapool00/PVE/BACKUPS 1.44T 8.35T 1.44T /datapool00/PVE/BACKUPS
datapool00/PVE/LXC 2.21G 8.35T 2.21G /datapool00/PVE/LXC
datapool00/PVE/TST 23.7G 8.35T 23.7G /datapool00/PVE/TST
datapool00/PVE/VM 2.04T 8.35T 2.04T /datapool00/PVE/VM
datapool00/SMB 968G 8.35T 920G /datapool00/SMB
datapool01 685G 214G 192K /datapool01
datapool01/ISO 71.8G 214G 63.1G /datapool01/ISO
datapool01/PVE 613G 214G 272K /datapool01/PVE
datapool01/PVE/BACKUPS 612G 214G 612G /datapool01/PVE/BACKUPS
datapool01/PVE/LXC 192K 214G 192K /datapool01/PVE/LXC
datapool01/PVE/TMPL 1.20G 214G 1.20G /datapool01/PVE/TMPL
datapool01/PVE/TST 208K 214G 208K /datapool01/PVE/TST
datapool01/PVE/VM 192K 214G 192K /datapool01/PVE/VM
rpool 1.21G 227G 120K /rpool
rpool/PVE 520K 227G 120K /rpool/PVE
rpool/PVE/BACKUPS 96K 227G 96K /rpool/PVE/BACKUPS
rpool/PVE/LXC 96K 227G 96K /rpool/PVE/LXC
rpool/PVE/TST 112K 227G 112K /rpool/PVE/TST
rpool/PVE/VM 96K 227G 96K /rpool/PVE/VM
rpool/ROOT 1.20G 227G 96K /rpool/ROOT
rpool/ROOT/pve-1 1.20G 227G 1.20G /
rpool/data 96K 227G 96K /rpool/data
root@clarke:~#
Dat past. Gelukkig.
Denk dat ik mijn vm's maar ga omzetten via PVE zelf, domweg omdat dat zonder downtime kan.

SMB data maakt wat minder uit, omdat die nauwelijks wijzigt en ik best even kan leven met dat ik data readonly moet beschouwen. Daar is zfs send denk ik wel een heel goede, omdat het veel sneller moet gaan dan rsync. (Die SMB data zijn op sommige punten extreem veel kleine bestandjes en dat gaat ook via rsync traag.)

ISO's same thing, die kunnen ook best even readonly.

Ik ga vandaag maar een beginnetje maken. :(

EDIT:
Even een eerste vm overgezet naar een tijdelijke plek (gaat direct weer terug).

root@clarke:~# zfs get compressratio datapool00/PVE/VM datapool00/PVE/TST datapool00/PVE/VM_TMP
NAME PROPERTY VALUE SOURCE
datapool00/PVE/TST compressratio 1.00x -
datapool00/PVE/VM compressratio 1.00x -
datapool00/PVE/VM_TMP compressratio 1.88x -
root@clarke:~#

Dat is dus waarom ik het aan wilde hebben. :) Ik weet van mijn vorige setup dat ik tegen de 2 kan halen, zeker op vm's. Het scheelt gewoon gigantisch veel opslagruimte als ik compression aan heb staan. Met PVE is het wel relatief makkelijk, gewoon moven naar een tijdelijke plek, direct terug en klaar. Zonder downtime whatsoever. Die datapool00/PVE/VM_TMP verwijder ik waarschijnlijk weer als ik klaar ben, of ik laat 'm staan.

[ Voor 10% gewijzigd door unezra op 05-10-2019 10:19 ]

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 12:11
Aah, je hebt echt aparte data pools. Dat zal het verschil verklaren. Op de dedicated bak waar ik het over had heb ik 2 HDD's in mirror draaien waar zowel het OS als de data op staat. Proxmox zet dan het compression vlaggetje van de root-zfs, en alle onderliggende zfs'jes inheriten dat netjes. In jouw geval zal die aparte zfs pool geen compression gehad hebben, en viel er dan ook niets te inheriten.

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • +1 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Freeaqingme schreef op zaterdag 5 oktober 2019 @ 12:38:
Aah, je hebt echt aparte data pools. Dat zal het verschil verklaren. Op de dedicated bak waar ik het over had heb ik 2 HDD's in mirror draaien waar zowel het OS als de data op staat. Proxmox zet dan het compression vlaggetje van de root-zfs, en alle onderliggende zfs'jes inheriten dat netjes. In jouw geval zal die aparte zfs pool geen compression gehad hebben, en viel er dan ook niets te inheriten.
Jup.

Die inheritance gaat inderdaad goed, maar ik dacht werkelijk dat hij in zijn zfs defaults ook compression aan had staan voor nieuwe zpools. Dat heb ik helaas niet gecontroleerd, dus nu zit ik met een stukje nawerk dat ongepland was. Gelukkig valt, naar het lijkt, de klus mee. Ik ben nu mijn vm's aan het overzetten (online, 2x een move) en ga zo even uitzoeken hoe ik met zfs send & zfs receive het beste mijn SMB data en ISO's over kan zetten.

Het suffe is, ik meen begrepen te hebben dat je ergens in je zfs config defaults neer kunt zetten voor dit soort zaken, maar ik kan het niet vinden. Nu veranderd er in de regel niet zo veel in mijn zpools en maak ik datasets altijd als sub aan van hun main, met inheritance staat het dan allemaal meteen goed, maar toch.

Ik gebruik datasets behoorlijk intensief. Het is zó makkelijk en geeft me net even wat meer inzicht. Ik probeer ook echt het gebruik van zvols te vermijden. Vind het niet praktisch. Op mijn PVE installatie heb ik domweg een dataset datapool00/PVE/VM en daarin stop ik de qcow2 images van mijn vm's. Fin, de verdeling spreekt redelijk voor zich. :) PVE data gescheiden van SMB data, ISO is een beetje een vreemde want die gebruik ik zowel via en voor PVE, als dat ik 'm gebruik als generieke ISO storage. (Hij is via SMB ook gedeeld met mijn netwerk.)

Vraag me nog wel af wat beter is qua sharing. Ik maak nu gebruik van klassiek NFS met een /etc/exports, maar ik weet dat ZFS dit ook kan. Weet alleen niet of het een voordelen en/of nadelen heeft boven het ander. /etc/exports is prettig overzichtelijk en makkelijk, maar als het voordelen heeft het via ZFS te doen, gooi ik dat misschien wel om.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 12:11
unezra schreef op zaterdag 5 oktober 2019 @ 12:56:
[...]


Vraag me nog wel af wat beter is qua sharing. Ik maak nu gebruik van klassiek NFS met een /etc/exports, maar ik weet dat ZFS dit ook kan. Weet alleen niet of het een voordelen en/of nadelen heeft boven het ander. /etc/exports is prettig overzichtelijk en makkelijk, maar als het voordelen heeft het via ZFS te doen, gooi ik dat misschien wel om.
Als ik dit zo lees, dan lijkt het er op dat ZFS gewoon inhaakt op de NFS functionaliteit van Linux. Voor zover er verschillen zijn verwacht ik dat dat 'm enkel zit in bepaalde nfs opties die meegegeven worden (rond regel 390 van de genoemde link). Ander voordeel is dat 't je in theorie maintenance scheelt. Als je een ZFS'je zou verplaatsen, dan hoef je dat nog maar op 1 plek te doen, ipv 2.

Zou je het met dezelfde opties mounten, verwacht ik geen verschil in performance. Maar dat is natuurlijk te benchmarken >:)

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • 0 Henk 'm!
Heeft iemand hier een goed idee voor.

Ik heb twee lokale NAS'. Eentje die 24/7 aan staat [A] en eentje puur voor archief [B].

[Edit]

Wat ik wil gaat niet theoretisch niet lukken :)

[ Voor 97% gewijzigd door CurlyMo op 13-10-2019 21:00 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
Ik heb een ZFS setup door de passthrough van 4 HDDs in een VM. Bij een scrub is daar een unrecoverable error aangetroffen, maar als ik zpool status doe lijkt er niets aan de hand. Moet / kan ik gewoon zpool clear doen of kan ik het beste iets anders doen?

root@naggon:~# zpool status
  pool: tank0
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
  scan: scrub repaired 128K in 0 days 04:58:26 with 0 errors on Sun Oct 13 05:22:32 2019
config:

        NAME                                      STATE     READ WRITE CKSUM
        tank0                                     ONLINE       0     0     0
          mirror-0                                ONLINE       0     0     0
            scsi-0QEMU_QEMU_HARDDISK_drive-scsi8  ONLINE       0     0     0
            scsi-0QEMU_QEMU_HARDDISK_drive-scsi7  ONLINE       1     0     0
          mirror-1                                ONLINE       0     0     0
            scsi-0QEMU_QEMU_HARDDISK_drive-scsi6  ONLINE       0     0     0
            scsi-0QEMU_QEMU_HARDDISK_drive-scsi5  ONLINE       0     0     0

errors: No known data errors

Acties:
  • +1 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 12:40
Ik zou even een uitgebreide SMART-check van die disk doen; de pariteit heeft de leesfout nu nog kunnen corrigeren, maar onleesbare sectoren op je disk zijn wel een probleem, dus dat moet je even in de gaten houden. Periodiek controleren en kijken of het aantal fouten niet blijft toenemen.

Acties:
  • 0 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 09:09
Even schieten op wat zaken in een verder uitstekend informatieve post - ik probeer ZFS beter te begrijpen om bepaalde keuzes beter te kunnen maken en liep er tegenaan. Misschien zit ik er gewoon naast, no offense intended, etc.
FireDrunk schreef op woensdag 25 september 2019 @ 08:54:
Komt er in zo'n transactie groep een SYNC IO terecht, moet die eerst, want de gebruiker staat te wachten.
Op dat moment wordt de transactie groep meteen geflushed (naar disk gezet). Als eerst wordt de ZIL beschreven met de SYNC IO. Als dat klaar is, krijgt de gebruiker (het process wat de IO deed) een OK.
Klopt niet, in de zin dat een sync write geen invloed uitoefent op het wel-of-niet committen van een txg.

De write naar de ZIL volstaat immers om te garanderen dat de data uiteindelijk op disk terechtkomt: regulier, alsof de ZIL niet bestond - of het scenario waar de ZIL zich uitbetaalt: bij een panic of power loss, waarna ZFS uncomitted sync writes uit de ZIL kan vissen en alsnog kan committen in een txg.
Hieruit zie je dat ZFS nooit veel IO zal queuen in 1 transactiegroep tenzij in een *heel* kort window er *heel* veel SYNC IO's binnen komen die naar de SLOG zouden moeten.
Correct me if I'm wrong, maar volgens mij zijn er twee limieten op een txg: grootte (zie: zfs_dirty_data_sync) en en tijd (zfs_txg_timeout). Ofwel: 64 MB of 5 s.

Voor de grootte van een txg maakt het type I/O niet uit.
FireDrunk schreef op woensdag 25 september 2019 @ 11:57:
Draai je Database met ingewikkelde transacties die goed teruggedraait moeten kunnen worden, of VM's die een oud non-journalling filesystem draaien, welke corrupt kan raken bij wat async writes die niet gehonoreerd worden? Is het antwoord nee? Dan kan je prima sync=disabled gebruiken.
Lijkt me zeer gevaarlijk advies. Het hele idee van sync en aanverwanten is dat je de garantie hebt dat data op disk staat. Daar moet je niet over liegen, tenzij je exact weet wat de implicaties zijn: alleen in zeer specifieke gevallen dus en het is in alle gevallen beter als je het op de applicatielaag oplost.




Datzelfde voorbeeld vind ik overigens wèl een reden waarom ik het idee heb dat discussies omtrent 'powerloss prevention' op SSDs zwaar overtrokken zijn voor de thuisgebruiker: als je geen enterprise database draait kom je wel weg met een paar missende writes en het is al snel ondergeschikt aan alle zaken die je in RAM had staan die je óók kwijt bent. Bovendien hadden HDDs dat euvel altijd al.

Dat was waar ik eigenlijk voor kwam - mis ik iets?

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Voor de geïnteresseerden hier heb ik nog een mooie puzzel (waar ik zelf nog niet helemaal uit ben).

Op een server met ProxMox heb/had ik een raid-z2-pool met vier schijven (a, b, c en d voor het gemak). Van deze schijven was er één (a) stuk, en gemarkeerd als offline. Sinds eerder deze week vertoonde een tweede schijf (b) ook problemen (af en toe een onleesbare sector). De server draaide niet stabiel vanwege problemen met het werkgeheugen (de server liep vast zonder enige mededeling). Na een bios-update zijn de problemen met het geheugen verholpen, maar is de pool kwijt. Schijven c en d staan op UNAVAIL bij een poging tot import, en omdat a al offline was is daarmee de pool gesneuveld. Met zdb -l kan ik de labels van a en b uitlezen, maar op c en d lijken die verdwenen te zijn.

Met alleen c en d aangesloten kan zpool import helemaal niet vinden, en de aansluitingen wisselen met die van a en b verandert ook niets aan de resultaten. Er lijkt niets raars gebeurd te zijn met de partitietabel, en daarmee kom ik op Google niet echt verder meer (vaak zijn betreffende pools minder stuk dan die van mij). Werkende strategieën lijken mij om de labels weer op c en d te krijgen, doordat zfs ze kan vinden of door ze opnieuw te plaatsen. Hoe dat zou moeten is me echter niet helder.

Nog voor de duidelijkheid: het zou enkel leuk zijn als ik de pool weer werkend krijg, niet noodzakelijk. Ik wil met name uitvinden of en hoe dit te redden valt, en als daar data mee terugkomt is dat als bonus.

Acties:
  • 0 Henk 'm!

  • 0xDEADBEEF
  • Registratie: December 2003
  • Niet online
dcm360 schreef op zaterdag 9 november 2019 @ 01:41:
Voor de geïnteresseerden hier heb ik nog een mooie puzzel (waar ik zelf nog niet helemaal uit ben).

Op een server met ProxMox heb/had ik een raid-z2-pool met vier schijven (a, b, c en d voor het gemak). Van deze schijven was er één (a) stuk, en gemarkeerd als offline. Sinds eerder deze week vertoonde een tweede schijf (b) ook problemen (af en toe een onleesbare sector). De server draaide niet stabiel vanwege problemen met het werkgeheugen (de server liep vast zonder enige mededeling). Na een bios-update zijn de problemen met het geheugen verholpen, maar is de pool kwijt. Schijven c en d staan op UNAVAIL bij een poging tot import, en omdat a al offline was is daarmee de pool gesneuveld. Met zdb -l kan ik de labels van a en b uitlezen, maar op c en d lijken die verdwenen te zijn.

Met alleen c en d aangesloten kan zpool import helemaal niet vinden, en de aansluitingen wisselen met die van a en b verandert ook niets aan de resultaten. Er lijkt niets raars gebeurd te zijn met de partitietabel, en daarmee kom ik op Google niet echt verder meer (vaak zijn betreffende pools minder stuk dan die van mij). Werkende strategieën lijken mij om de labels weer op c en d te krijgen, doordat zfs ze kan vinden of door ze opnieuw te plaatsen. Hoe dat zou moeten is me echter niet helder.

Nog voor de duidelijkheid: het zou enkel leuk zijn als ik de pool weer werkend krijg, niet noodzakelijk. Ik wil met name uitvinden of en hoe dit te redden valt, en als daar data mee terugkomt is dat als bonus.
De pool is denk ik hosed, doordat, voor zover ik weet, ub_guid_sum ( http://www.giis.co.in/Zfs_ondiskformat.pdf pagina 14/55) niet valtt te injecteren.

edit: https://utcc.utoronto.ca/...is/ZFSZpoolImportAssembly

"Religion is an insult to human dignity. With or without it you would have good people doing good things and evil people doing evil things. But for good people to do evil things, that takes religion." - Steven Weinberg


Acties:
  • 0 Henk 'm!
0xDEADBEEF schreef op zaterdag 9 november 2019 @ 13:59:
[...]

De pool is denk ik hosed, doordat, voor zover ik weet, ub_guid_sum ( http://www.giis.co.in/Zfs_ondiskformat.pdf pagina 14/55) niet valtt te injecteren.

edit: https://utcc.utoronto.ca/...is/ZFSZpoolImportAssembly
Dan is de vraag of hij dan ook weet hoeveel vdevs er dan missen. Als je het voor elkaar krijgt om die labels te reconstrueren, zonder dat ze matchen met de ub_guid_sum, dan zou het praktisch mogelijk moeten zijn om je pool te importeren. Die missende vdev kan je dan oplossen zodra je pool geïmporteerd is. Of het theoretisch zo werkt in ZFS weet ik niet.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 09:09
Jullie gaan voorbij aan het feit dat de labels überhaupt lijken te missen: dat zou niet moeten kunnen: er zijn immers 4 (!) kopiën van, je moet érg je best doen om ze allemaal te overschrijven en ze vallen echt niet zomaar van je disk af.

Daarnaast is het kritieke metadata als geheel- het is niet enkel één guid.

Er is iets heel merkwaardigs aan de hand, of @dcm360 ziet iets over het hoofd.

@dcm360 Wat zegt blkid? Of wipefs? file -s? Je voert ook een partite aan zdb -l (aangenomen dat je ZFS member een partiie is) ipv. je hele disk?

Wat staat er dàn op de eerste 512k van je partitie (of disk) als het niet een zfs label is (hexdump indien nodig)?

# head -c 1048576 /dev/sdb1 | strings -n8
# tail -c 1048576 /dev/sdb1 | strings -n8

[ Voor 6% gewijzigd door Thralas op 09-11-2019 16:28 ]


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

@0xDEADBEEF, @CurlyMo: Daar valt denk ik inderdaad nog wel iets op te verzinnen als het nodig is, het is immers ook mogelijk om de pool te importeren met slechts 2 van de 4 schijven. ZFS lijkt nog steeds prima te zien dat het origineel een set van 4 schijven was en in welke configuratie.

@Thralas :
zdb -l heb ik inderdaad uitgevoerd op de partitie (met de tweede poging. Dat ik dat fout deed had ik wel door toen ik ook op andere schijven geen output kreeg). Met blkid zie ik nu wel wat merkwaardigs: er ontbreekt informatie bij de 2 ontbrekende schijven:
/dev/sda1: LABEL="storage4" UUID="22765226508496724" UUID_SUB="5490651841523660223" TYPE="zfs_member" PARTLABEL="zfs-1b809645a655a574" PARTUUID="93107bb4-9dea-844b-a0c9-9de04ebf0146"
/dev/sdb1: LABEL="storage4" UUID="22765226508496724" UUID_SUB="12429783669929857656" TYPE="zfs_member" PARTLABEL="zfs-c663111f0cf0d1a9" PARTUUID="bfc97921-a7ec-1a45-a601-6cb8acc1a860"
/dev/sdc1: PARTLABEL="zfs-85511395189cf179" PARTUUID="86917f54-b209-3047-b987-ad2b40e5220e"
/dev/sdd1: PARTLABEL="zfs-86fdaf7015f1d915" PARTUUID="e77f7966-52ff-df43-83a0-de5c91dc90f3"

Hieruit zou ik dus kunnen afleiden dat er ergens in het proces een nieuwe versie van de partitietabel is weggeschreven naar de schijven c en d, waarmee informatie verdwenen is. Een hexdump van de eerste MB van beide schijven levert het volgende op:
root@pve:~# head -c 1048576 /dev/disk/by-id/ata-SAMSUNG_HD204UI_S2H7JD2B411842-part1 | hd
00000000  00 00 00 00 00 00 00 00  00 00 00 00 00 00 00 00  |................|
*
00003fd0  00 00 00 00 00 00 00 00  11 7a 0c b1 7a da 10 02  |.........z..z...|
00003fe0  3f 2a 6e 7f 80 8f f4 97  fc ce aa 58 16 9f 90 af  |?*n........X....|
00003ff0  8b b4 6d ff 57 ea d1 cb  ab 5f 46 0d db 92 c6 6e  |..m.W...._F....n|
00004000  ff ff ff ff ff ff ff ff  ff ff ff ff ff ff ff ff  |................|
*
00040000  00 00 00 00 00 00 00 00  00 00 00 00 00 00 00 00  |................|
*
00042000  ff ff ff ff ff ff ff ff  ff ff ff ff ff ff ff ff  |................|
*
00080000  00 00 00 00 00 00 00 00  00 00 00 00 00 00 00 00  |................|
*
00100000

Van schijf b komt er ruim meer data terug, en kan ik de zfs labels herkennen in de data die langskomt.

Met wat verdere analyse blijkt de eerste 4MB van partitie 1 op schijven c en d te zijn gewist. Dat lijkt mij dusdanig niet herstelbaar dat tenzij iemand nog een leuk idee heeft ik het verder maar opgeef.

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Ik heb zojuist mijn NAS / thuisserver, waarop ik Arch Linux heb draaien, geupdate en een reboot gegeven. Gevolg was dat deze niet meer up kwam. Toen ik eindelijk een scherm had gevonden bleek dat het opstarten bleef hangen op de systemd "Mount ZFS filesystem" service. Na een paar keer uit en aan zetten bleek deze wel door te booten (maar nieuwe reboots gaven dezelfde willekeurige resultaten, meestal starte deze niet, soms wel).

Hoe kan ik bepalen wat hier nu de oorzaak van is? Wat ik zelf al heb gekeken:
  • journalctl maar hier staat niks in van errors waarom die niet zou starten (maar weet niet zeker of de falende boots gelogd worden)
  • zpool status geeft aan dat alle drives online zijn en geen (data) errors.
  • smartctl -a op alle drives geeft aan dat er geen errors zijn (maar mogelijk dat ik eerst een self test moet starten?)

Acties:
  • 0 Henk 'm!

  • HollowGamer
  • Registratie: Februari 2009
  • Niet online
RobertMe schreef op zondag 10 november 2019 @ 20:24:
Ik heb zojuist mijn NAS / thuisserver, waarop ik Arch Linux heb draaien, geupdate en een reboot gegeven. Gevolg was dat deze niet meer up kwam. Toen ik eindelijk een scherm had gevonden bleek dat het opstarten bleef hangen op de systemd "Mount ZFS filesystem" service. Na een paar keer uit en aan zetten bleek deze wel door te booten (maar nieuwe reboots gaven dezelfde willekeurige resultaten, meestal starte deze niet, soms wel).

Hoe kan ik bepalen wat hier nu de oorzaak van is? Wat ik zelf al heb gekeken:
  • journalctl maar hier staat niks in van errors waarom die niet zou starten (maar weet niet zeker of de falende boots gelogd worden)
  • zpool status geeft aan dat alle drives online zijn en geen (data) errors.
  • smartctl -a op alle drives geeft aan dat er geen errors zijn (maar mogelijk dat ik eerst een self test moet starten?)
Is de kernel geupdate en heb je mkinicpio nog een keer gedraaid? Welke ZFS packages gebruik je?
Heb je ook iets van quiet in de boot opties staan? Anders de logging verder opvoeren.

----

Ik heb een vraagje - al een tijd ben ik aan het denken om over te stappen naar een andere indeling voor mijn schijven.

Stel je hebt 2x 3TB en 2x 2TB - welke ZFS raids zou ik dan kunnen gebruiken?
Het liefst wil ik zoals nu een hele grote snelle pool hebben (heb nu dus 4TB + 6TB - maar ben met 6TB totaal tevreden), Ik zie even door de bomen het bos niet meer. :/

Acties:
  • 0 Henk 'm!
HollowGamer schreef op zondag 10 november 2019 @ 20:43:
[...]
Stel je hebt 2x 3TB en 2x 2TB - welke ZFS raids zou ik dan kunnen gebruiken?
Met twee verschillende groottes lijkt me 2x mirrors het meest logisch.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • HollowGamer
  • Registratie: Februari 2009
  • Niet online
CurlyMo schreef op zondag 10 november 2019 @ 20:53:
[...]

Met twee verschillende groottes lijkt me 2x mirrors het meest logisch.
Kan je mij daar meer over vertellen? :)
Ik kom er even niet zo uit.

Heb nu de volgende twee gevonden:
- Raidz2
- Raid10 (is dat wat je bedoeld)?

Ik zou graag, indien mogelijk, 6TB willen gebruiken als opslag en de overige voor snelheid/als mirror. Klopt het dat Raid10 dit biedt?

Acties:
  • 0 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 09:09
dcm360 schreef op zaterdag 9 november 2019 @ 17:02:
Hieruit zou ik dus kunnen afleiden dat er ergens in het proces een nieuwe versie van de partitietabel is weggeschreven naar de schijven c en d, waarmee informatie verdwenen is.
Die volg ik niet helemaal. Zo op 't oog lijkt de output te kloppen, het verschil is te verklaren doordat blkid het zfs label óók niet meer detecteert.
wat verdere analyse blijkt de eerste 4MB van partitie 1 op schijven c en d te zijn gewist. Dat lijkt mij dusdanig niet herstelbaar dat tenzij iemand nog een leuk idee heeft ik het verder maar opgeef.
Het vreemde is wèl dat de eerste 8k intact is. En het was zeker geen zpool labelclear: die schrijft gewoon zeroes, geen ff - en daar lijkt het ook niet mee uitgelijnd.

Op de één of andere manier heeft er toch iets anders naar geschreven..

Rest wel de vraag: waarom ook toevallig naar de laatste sectoren van de partitie, waar label 3 en 4 zouden moeten staan? Je zou nog even na kunnen gaan of partitiegroottes en de schijfgrootte e.d. nog kloppen (geen HPA oid. gezet, zou niet de eerste keer zijn). Ook kun je dáár de labels zoeken, maar die zou zdb dan ook moeten hebben gezien..

Vreemd.

Het lijkt me in ieder geval vrijwel uitgesloten dat je dit nog kunt repareren met standaard zfs tools. Voor een handmatige reddingspoging zul je het label handmatig moeten reconstrueren adhv. de andere disks (áls dat al theoretisch kan).
HollowGamer schreef op zondag 10 november 2019 @ 21:12:
Heb nu de volgende twee gevonden:
- Raidz2
- Raid10 (is dat wat je bedoeld)?
Nee, hij bedoelt gewoon twee mirrors. Één van de 2x 2 TB en één van 2x 3 TB.
Ik zou graag, indien mogelijk, 6TB willen gebruiken als opslag en de overige voor snelheid/als mirror. Klopt het dat Raid10 dit biedt?
Nee, dat klopt niet. 'RAID10' bestaat niet binnen ZFS.

Je kunt wel bovengenoemde mirrorsets maken en ze in één pool stoppen. Dan heb je nog steeds 5 TB effectief. Maar dat levert ongebalanceerde disk I/O op, dus iha. is 2 aparte mirror pools logischer.

De enige manier om 6 TB effectief te krijgen is 4x 2 TB in raidz (en 2x 1 TB 'over'), maar dat is redelijk roekeloos als je het mij vraagt.

[ Voor 31% gewijzigd door Thralas op 10-11-2019 22:38 ]


Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Thralas schreef op zondag 10 november 2019 @ 21:55:
[...]


Die volg ik niet helemaal. Zo op 't oog lijkt de output te kloppen, het verschil is te verklaren doordat blkid het zfs label óók niet meer detecteert.
Ah, de ontbrekende delen zouden dus op de partitie zelf gestaan moeten hebben, dat had ik even niet door. Ik dacht dat de partitietabel zelf gewijzigd was.
Het vreemde is wèl dat de eerste 8k intact is. En het was zeker geen zpool labelclear: die schrijft gewoon zeroes, geen ff - en daar lijkt het ook niet mee uitgelijnd.

Op de één of andere manier heeft er toch iets anders naar geschreven..

Rest wel de vraag: waarom ook toevallig naar de laatste sectoren van de partitie, waar label 3 en 4 zouden moeten staan? Je zou nog even na kunnen gaan of partitiegroottes en de schijfgrootte e.d. nog kloppen (geen HPA oid. gezet, zou niet de eerste keer zijn). Ook kun je dáár de labels zoeken, maar die zou zdb dan ook moeten hebben gezien..

Vreemd.

Het lijkt me in ieder geval vrijwel uitgesloten dat je dit nog kunt repareren met standaard zfs tools. Voor een handmatige reddingspoging zul je het label handmatig moeten reconstrueren adhv. de andere disks (áls dat al theoretisch kan).
De partitietabellen kwamen overeen met die op de nog werkende schijven, en de schijfgroottes weken ook niet af (dat had ik nagezocht naar aanleiding van een Google-resultaat waarbij ik uitkwam bij een post van iemand met dat probleem). Wat er verder gebeurd is met het einde van de schijf heb ik niet meer uitgezocht, de twee defecte schijven zijn nu het systeem uit en ik heb een nieuwe dataset opgebouwd op de twee nog werkende schijven samen met twee nieuwe schijven.

Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

Bestaan er tegenwoordig ook snelle JBOD naar USB 3.2 (gen 2) controllers om bijvoorbeeld 4x SATA op de snelle USB poort van een Intel NUC, System76 Meerkat, of Raspberry Pi aan te sluiten?

Zoiets:Bovenstaande items lijken alleen wat oud (USB 3.0) en er zit zo'n klein chipje zonder heatsink op, vraag me af of dat in verhouding staat tot de hoge prijs.

Weet iemand toevallig wat betere controllers of betere google zoektermen?

[ Voor 4% gewijzigd door Sando op 13-11-2019 15:47 ]

🇪🇺 Buy from EU (GoT)


  • Q
  • Registratie: November 1999
  • Laatst online: 20-05 17:24
Sando schreef op woensdag 13 november 2019 @ 15:43:
Bestaan er tegenwoordig ook snelle JBOD naar USB 3.2 (gen 2) controllers om bijvoorbeeld 4x SATA op de snelle USB poort van een Intel NUC, System76 Meerkat, of Raspberry Pi aan te sluiten?
....
Bovenstaande items lijken alleen wat oud (USB 3.0) en er zit zo'n klein chipje zonder heatsink op, vraag me af of dat in verhouding staat tot de hoge prijs.

Weet iemand toevallig wat betere controllers of betere google zoektermen?
Moet het powered zijn? Unpowered kun je net zo goed 4 x dit op een USB hub gooien:

https://www.bol.com/nl/p/...Q0PCNSl3pLhxoCLfwQAvD_BwE

of met power:

2 x deze:

https://www.bol.com/nl/p/...F3eH8fYPZ3MRoCqHwQAvD_BwE

Afbeeldingslocatie: https://s.s-bol.com/imgbase0/imagebase3/thumb/FC/6/6/7/6/9200000074616766_5.jpg

[ Voor 3% gewijzigd door Q op 14-11-2019 00:26 ]


Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

@Q Ik zoek specifiek een oplossing om één of (bij voorkeur) meerdere SATA-kabels aan te sluiten via USB, waarbij ik de fysieke schijven niet onhandig direct aan hoef te sluiten omdat deze al in verschillende nette enclosures zitten:

3x SATA enclosure

Met een bakje als dit kan ik een nette oplossing bouwen:

JBoD Controller

Alleen bovengenoemde specifieke bakjes zijn wel erg dun (qua controller) en oud (qua snelheid). Het zou helemaal mooi zijn als zoiets bestaat met USB-C.

🇪🇺 Buy from EU (GoT)


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

@Sando : Is het dan geen idee om naar zoiets toe te switchen zoals @Q destijds heeft gebouwd :

https://blog.quindorian.o...er-storage-hardware.html/ :?

[ Voor 6% gewijzigd door nero355 op 15-11-2019 18:05 ]

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 20-05 17:24
Sando schreef op vrijdag 15 november 2019 @ 16:43:
@Q Ik zoek specifiek een oplossing om één of (bij voorkeur) meerdere SATA-kabels aan te sluiten via USB, waarbij ik de fysieke schijven niet onhandig direct aan hoef te sluiten omdat deze al in verschillende nette enclosures zitten:

[Afbeelding: 3x SATA enclosure]

Met een bakje als dit kan ik een nette oplossing bouwen:

[Afbeelding: JBoD Controller]

Alleen bovengenoemde specifieke bakjes zijn wel erg dun (qua controller) en oud (qua snelheid). Het zou helemaal mooi zijn als zoiets bestaat met USB-C.
Ik heb je verkeerd begrepen, maar ik snap beter wat je behoefte is. Misschien is het handig als je je eind doel deelt, dan kunnen we beter met je mee denken.

Wat je nu doet is naar mijn idee een beetje een frankenstein oplossing maar ik heb ook niet het hele plaatje. Dit zou toch veel mooier zijn?

https://azerty.nl/product...ikavvyGi_yIYaAh7UEALw_wcB

Of deze?

https://www.alternate.nl/...5DXMfJq3rwbgaAgxuEALw_wcB

Natuurlijk allemaal wel prijzigere oplossingen.

Die controller die jezelf aandroeg is gegeven wat je wilt wel gewoon prima. Ik weet niet zo goed wat de SATA snelheid is van jouw controller. Maar zelfs al zou het sata 300 zijn, prima voor harde schijven.

[ Voor 18% gewijzigd door Q op 15-11-2019 21:10 ]


Acties:
  • 0 Henk 'm!

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

nero355 schreef op vrijdag 15 november 2019 @ 18:04:
@Sando : Is het dan geen idee om naar zoiets toe te switchen zoals @Q destijds heeft gebouwd :

https://blog.quindorian.o...er-storage-hardware.html/ :?
Dit is wel heel vet, maar ook echt een orde van grootte groter. _/-\o_

Dat is allemaal erg professioneel. Mijn use-case is wat meer small business prosumer at best.
Q schreef op vrijdag 15 november 2019 @ 18:09:
[...]

Misschien is het handig als je je eind doel deelt, dan kunnen we beter met je mee denken.

Wat je nu doet is naar mijn idee een beetje een frankenstein oplossing maar ik heb ook niet het hele plaatje. Dit zou toch veel mooier zijn? [link] Of deze? [link]
Dat zijn inderdaad mooie doch prijzige oplossingen. Mijn einddoel laat eigenlijk vrij weinig speling over anders dan dat ik vroeg.

Ik heb 3x een mooie nette enclosure met 3 schijven/ZFS erin. Ze functioneren prima, en ze waren zeker ook zo prijzig, waardoor ik ze niet wil vervangen. Het grootste verschil is dat mijn enclosures niet één eSata/USB aansluiting hebben, maar een SATA aansluiting per schijf. Drie per enclosure dus. Toentertijd heb ik deze bewust gekocht zonder controller, met losse SATA-aansluitingen, zodat ik deze aan 3 grote lompe desktops met voldoende SATA-poorten kon aansluiten.

Inmiddels zijn alle grote desktops afgeschreven en (bijna) vervangen door drie mini-computers. De grootste is een Mini-STX, waar ik nog net een kaartje als dit in heb kunnen proppen:
Afbeeldingslocatie: https://tweakers.net/ext/f/B5CDiEMJEflpweylpEDGABPx/thumb.jpg
Hiervoor heb ik wel een lelijk gat in de zijkant moeten boren om 3 SATA-kabels door te steken.

De andere twee computers worden waarschijnlijk een System76 Meerkat en een Intel Nuc. Beide met onvoldoende SATA-poorten of uitbreidingsmogelijkheden om klaar te zijn. Ze hebben wel mooie USB 3.2 en USB-C poorten.

Wat ik dus wil is de resterende twee 3-disk ZFS enclosures op een zo nette en goedkoop mogelijke doch betrouwbare manier aansluiten op deze minicomputers.
Q schreef op vrijdag 15 november 2019 @ 18:09:
Die controller die jezelf aandroeg is gegeven wat je wilt wel gewoon prima.
Hier ben ik dus een beetje huiverig voor. De genoemde controller is lastig te vinden en een beetje exotisch. Geen bekend degelijk merk. Bovendien heb ik een slechte ervaring met een soortgelijke controller waar ook zo'n klein chipje zonder heatsink op zat (was geloof ik een jmicron) waarvan de throughput niet hoger dan 40 MByte/s kwam. Mijn ZFS heeft op peak performance 240 MByte/s.



PS. Ik weet dat iedereen en zijn moeder ontraad om een 3-disk ZFS (RAID-Z1) array te bouwen. Toen ik ze bouwde heb ik helaas verkeerde informatie gelezen waarin het juist geprezen werd, en nu is het zoals het is. Ik ben nog wel zo verstandig geweest om disks van verschillende merken in een enclosure te stoppen.


Dit zou toch veel mooier zijn? [link] Of deze? [link]
Nieuwschierig: Deze JBoD enclosures hebben 1x eSata. Ondersteunt SATA dan ook raw disk passthrough waardoor je over 1x (e)Sata 4 JBoD disks kan aansluiten die je OS dan ook ziet als 4 disks? (Ik dacht dat dit alleen met USB kon, waar dit in Linux out of the box wordt ondersteund.)

🇪🇺 Buy from EU (GoT)


Acties:
  • +2 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 20-05 17:24
Korte opmerking: ZFS 3-disk RAIDZ: Niets mis mee. :)

Ik heb je verhaal gelezen en dit is mijn mening: ik begrijp niet helemaal waarom je telkens een externe enclosure met 3 disks 1-op-1 wilt aansluiten op een bepaalde computer, nuc of rpi, maakt niet uit.

Ik denk dat je dit niet wilt horen maar volgens mij ben jij beter af met een centrale NAS met SMB/NFS waar dan al die schijven in passen. Misschien dat een NAS voor jou niet werkt, maar dan ben ik wel benieuwd waarom dat zo is en wat je precies wilt bewerkstelligen. Dat is mij eigenlijk nog steeds niet duidelijk.

Natuurlijk heb jij al geld besteed aan deze enclosures, maar als je zelf al geen fatsoenlijke sata-controller kunt vinden waar je vertrouwen in hebt, waar gaat dit dan naar toe? Don't throw good money after bad.
Die sata controller die je op het oog had was ook al weer 75 dollar ofzo, waarvan je er meer nodig hebt.

Gezien wat je nu doet had je beter van die DAS enclosures kunnen kopen (lijken op NAS maar met een USB3 interface) waarbij alle x schijven individueel te benaderen zijn maar de USB3 kabel delen (wat een bottleneck is maar 200/300 MB/s is prima zat voor de meeste toepassingen.

https://www.banggood.com/...ID=47757&cur_warehouse=CN

Eentje van deze kost iets minder als twee van die SATA controllers die je wilde kopen. Koop er twee en je hebt al je problemen opgelost.

Edit: Als je met onderstaande kunt leven dan kun je 3 x disks in een open enclosure via USB3 aansluiten voor minder als die ene SATA controller die je hebt gevonden. Niet ideaal, maar wel prijs bewust.

https://www.banggood.com/...s=search&cur_warehouse=CN

Ik vrees dat je de verkeerde investering hebt gedaan of dat de investering van destijds nu is ingehaald door je veranderende desktop/systeem behoefte.

[ Voor 24% gewijzigd door Q op 24-11-2019 11:25 ]


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
RobertMe schreef op zondag 10 november 2019 @ 20:24:
Ik heb zojuist mijn NAS / thuisserver, waarop ik Arch Linux heb draaien, geupdate en een reboot gegeven. Gevolg was dat deze niet meer up kwam. Toen ik eindelijk een scherm had gevonden bleek dat het opstarten bleef hangen op de systemd "Mount ZFS filesystem" service. Na een paar keer uit en aan zetten bleek deze wel door te booten (maar nieuwe reboots gaven dezelfde willekeurige resultaten, meestal starte deze niet, soms wel).

Hoe kan ik bepalen wat hier nu de oorzaak van is? Wat ik zelf al heb gekeken:
  • journalctl maar hier staat niks in van errors waarom die niet zou starten (maar weet niet zeker of de falende boots gelogd worden)
  • zpool status geeft aan dat alle drives online zijn en geen (data) errors.
  • smartctl -a op alle drives geeft aan dat er geen errors zijn (maar mogelijk dat ik eerst een self test moet starten?)
In navolging hiervan, waar ik verder niet meer naar heb gekeken :X , werd ik vandaag verrast door een "pool has been degrated" mail:
The number of checksum errors associated with a ZFS device
exceeded acceptable levels. ZFS has marked the device as
degraded.

impact: Fault tolerance of the pool may be compromised.
eid: 12272
class: statechange
state: DEGRADED
host: <knip>
time: 2019-12-01 09:42:13+0100
vpath: /dev/disk/by-id/ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803-part1
vguid: 0x01B46380C3345321
pool: 0xD808F331FE5B199A
En deze zpool status output voor die pool:
  pool: backup
 state: DEGRADED
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
  scan: scrub repaired 2M in 0 days 00:56:34 with 0 errors on Sun Dec  1 10:33:51 2019
config:

        NAME                                          STATE     READ WRITE CKSUM
        backup                                        DEGRADED     0     0     0
          mirror-0                                    DEGRADED     0     0     0
            ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803  DEGRADED     7     0    11  too many errors
            ata-WDC_WD40EZRX-00SPEB0_WD-WCC4E0VYJ8F8  ONLINE       0     0     0

errors: No known data errors


Lijkt dan erop dat een van de twee HDDs aan het overlijden is (of een rotte kabel heeft)? Hiervoor zal ik dan ook nog even een post doen in het Check je SMART topic. RobertMe in "Check je SMART"
Met een zpool clear kan ik de error dan wel weghalen en evt. een nieuwe scrub draaien om te bevestigen dat er iets aan de hand is, maar dat is dan misschien ook niet de handigste optie? Omdat die tijd tot nieuwe degrated de schijf dus gewoon op online zal staan? alhoewel ik niet weet of er qua bv schrijven nog verschil zit tussen degrated en online. Ik vermoed dat de data wel nog steeds naar beide wordt geschreven?

En in hoeverre kan zo'n read/checksum error nog veroorzaakt worden door andere factoren? Volgens mij kan (defect) geheugen ook deze symptomen veroorzaken? Alhoewel ik het dan eerder over beide schijven verwacht en niet maar voor een van beide.

Acties:
  • +1 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 20-05 17:24
Kijk even in /var/log/syslog om te bepalen of er kernel meldingen zijn voor je disk. Het kan een brakke sata kabel zijn of je disk heeft bad sectors. Je smart test geeft al aan dat de disk inderdaad read errors heeft - bad sectors - dood.

[ Voor 22% gewijzigd door Q op 01-12-2019 11:27 ]


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Q schreef op zondag 1 december 2019 @ 11:25:
Kijk even in /var/log/syslog om te bepalen of er kernel meldingen zijn voor je disk.
Die file heb ik niet, maar dmesg zie ik nu wel het volgende in:
[1777313.080509] ata6.00: exception Emask 0x0 SAct 0x8000004 SErr 0x0 action 0x0
[1777313.080532] ata6.00: irq_stat 0x40000008
[1777313.080545] ata6.00: failed command: READ FPDMA QUEUED
[1777313.080559] ata6.00: cmd 60/00:d8:80:1c:22/08:00:02:00:00/40 tag 27 ncq dma 1048576 in
                          res 41/40:00:d0:1f:22/00:00:02:00:00/40 Emask 0x409 (media error) <F>                                                                                                                                                                                                                                                                                            
[1777313.080598] ata6.00: status: { DRDY ERR }
[1777313.080610] ata6.00: error: { UNC }
[1777313.081804] ata6.00: configured for UDMA/133
[1777313.081817] sd 5:0:0:0: [sdd] tag#27 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[1777313.081819] sd 5:0:0:0: [sdd] tag#27 Sense Key : Medium Error [current] 
[1777313.081820] sd 5:0:0:0: [sdd] tag#27 Add. Sense: Unrecovered read error - auto reallocate failed
[1777313.081821] sd 5:0:0:0: [sdd] tag#27 CDB: Read(10) 28 00 02 22 1c 80 00 08 00 00
[1777313.081823] print_req_error: I/O error, dev sdd, sector 35790800
[1777313.081846] zio pool=backup vdev=/dev/disk/by-id/ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803-part1 error=5 type=1 offset=18323406848 size=1048576 flags=40080cb0
[1777313.081853] ata6: EH complete
[1777321.100653] ata6.00: exception Emask 0x0 SAct 0x600003d1 SErr 0x0 action 0x0
[1777321.100739] ata6.00: irq_stat 0x40000008
[1777321.100785] ata6.00: failed command: READ FPDMA QUEUED
[1777321.100854] ata6.00: cmd 60/00:20:80:2c:22/08:00:02:00:00/40 tag 4 ncq dma 1048576 in
                          res 41/40:00:30:2f:22/00:00:02:00:00/40 Emask 0x409 (media error) <F>                                                                                                                                                                                                                                                                                            
[1777321.101016] ata6.00: status: { DRDY ERR }
[1777321.101066] ata6.00: error: { UNC }
[1777321.102602] ata6.00: configured for UDMA/133
[1777321.102650] sd 5:0:0:0: [sdd] tag#4 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[1777321.102656] sd 5:0:0:0: [sdd] tag#4 Sense Key : Medium Error [current] 
[1777321.102661] sd 5:0:0:0: [sdd] tag#4 Add. Sense: Unrecovered read error - auto reallocate failed
[1777321.102666] sd 5:0:0:0: [sdd] tag#4 CDB: Read(10) 28 00 02 22 2c 80 00 08 00 00
[1777321.102670] print_req_error: I/O error, dev sdd, sector 35794736
[1777321.102757] zio pool=backup vdev=/dev/disk/by-id/ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803-part1 error=5 type=1 offset=18325504000 size=1048576 flags=40080cb0
[1777321.102783] ata6: EH complete

(tijden vallen dan moeilijk te plaatsen, maar zelfde staat in journalctl alleen dan met leesbare tijd en die was paar minuten voor de mail)
Het kan een brakke sata kabel zijn of je disk heeft bad sectors. Je smart test geeft al aan dat de disk inderdaad read errors heeft - bad sectors - dood.
Ik neem aan dat uit het stukje "sdd] tag#27 Add. Sense: Unrecovered read error - auto reallocate failed" inderdaad maar een conclusie valt te trekken. HDD rapporteert zelf dat er echt iets aan de hand is. En dus geen foute kabel of zo.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 20-05 17:24
R.I.P. Gecondoleerd.

[sdd] tag#27 Add. Sense: Unrecovered read error - auto reallocate failed

Een ouderwetse read-failure --> je schijf heeft bad sectors. In de vuilnisbak er mee of RMA.

[ Voor 3% gewijzigd door Q op 01-12-2019 13:19 ]


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Q schreef op zondag 1 december 2019 @ 13:17:
R.I.P. Gecondoleerd.

[sdd] tag#27 Add. Sense: Unrecovered read error - auto reallocate failed

Een ouderwetse read-failure --> je schijf heeft bad sectors. In de vuilnisbak er mee of RMA.
Schijf is precies 3 jaar en 3 maanden oud (besteldatum 30-8-16), dus zal vast (net?) buiten de garantie liggen. En een WD Blue die volgens de power on hours 2,5 jaar heeft aan gestaan en maar 49 keer een power cycle heeft gehad verwacht ik ook niet dat snel garantie op wordt gegeven omdat die niet bedoeld zijn voor continu gebruik. Intussen in ieder geval op Amazon nog voor €88 een Seagate 5TB (externe / 2,5") opgepikt. Dus binnenkort kan deze (helaas) al vervangen worden :'( Mooie is ook dat in diezelfde mirror een WD Green 4TB zit, dat is dus echt al een oudje maar die lijkt gewoon nog in orde te zijn ondanks dat die dus denk ik een jaar of 3, 4 ouder is. Als ik dus al had moeten gokken welke kapot was had ik eerder op die oudere gegokt.

Acties:
  • 0 Henk 'm!

  • Dangulus
  • Registratie: September 2016
  • Niet online
Heb mijn gen8 opnieuw ingericht.
1 mirror met 2 x 8 Tb en een mirror met 2 x 4 Tb

Het terugzetten van de backup gaat ontzettend traag.
Het kopieren begint wel snel (ruim 100 MB/s) maar zakt dan snel af naar 10 tot 15 MB/s

Het is bij alle twee de mirrors, dacht eerst aan het netwerk maar dat is het niet.
Het is ook zo als ik tussen de mirrors onderling kopieer.(rsync)

Het is een gen8, 16Gb geheugen e31265L en proxmox.

[update]
Heb proxmox ge-update naar de laatste versie.
Het is nu wel beter, 50/60 MB/s

[ Voor 9% gewijzigd door Dangulus op 08-12-2019 11:47 ]


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
Ik heb alles van ZFSguru naar Freenas gecopieerd. 10 GE netwerk en een PC ertussen en 2 shares erop en copy paste (wilde ook wat files anders terug zetten en had de pc toch bodig voor tussentijdse opslag)

Was ook 1 server bij die op 1/3 van de andere liep met de read snelheid. Check op file systeem gedaan, niets gevonden en de schrijf snelheid onder freenas was wel weer als verwacht, nooit gevonden wat het probleem was.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 20-05 17:24
Dangulus schreef op zondag 8 december 2019 @ 00:46:
Heb mijn gen8 opnieuw ingericht.
1 mirror met 2 x 8 Tb en een mirror met 2 x 4 Tb

Het terugzetten van de backup gaat ontzettend traag.
Het kopieren begint wel snel (ruim 100 MB/s) maar zakt dan snel af naar 10 tot 15 MB/s

Het is bij alle twee de mirrors, dacht eerst aan het netwerk maar dat is het niet.
Het is ook zo als ik tussen de mirrors onderling kopieer.(rsync)

Het is een gen8, 16Gb geheugen e31265L en proxmox.

[update]
Heb proxmox ge-update naar de laatste versie.
Het is nu wel beter, 50/60 MB/s
Met MDADM loopt er bij het maken van een array meteen een rebuild.
Loopt er met ZFS bij het aanmaken van een nieuwe array ook niet meteen een scrub (het is lang geleden).

Een andere mogelijke reden is dat je veel kleine files aan het overzetten bent.
Je kunt ook met iotop kijken of er andere processen zijn die de disks belasten.

[ Voor 67% gewijzigd door Q op 08-12-2019 13:05 ]


Acties:
  • +1 Henk 'm!
Q schreef op zondag 8 december 2019 @ 12:56:
[...]


Met MDADM loopt er bij het maken van een array meteen een rebuild.
Loopt er met ZFS bij het aanmaken van een nieuwe array ook niet meteen een scrub (het is lang geleden).
Al zou dat zo zijn, dan is die direct klaar, omdat ZFS alleen de gebruikte blokken checked.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +2 Henk 'm!

  • Dangulus
  • Registratie: September 2016
  • Niet online
Helaas, na een goede start zakt de snelheid toch weer in.
Duurde wel langer nu voor dat de snelheid weer inzakt.

15/16 MB/s nu met grotere files, met kleine inderdaad minder.
Had juist opnieuw opgestart er draait niets anders ook gekeken met iotop.

De vorige build was 1 pool met 2 mirrors 4TB schijven en had ik hier geen last van .
Het enige verschil met de laatste build is dat ik de eerste keer de pool gemaakt heb via cmd-line en nu de laatste keer via de proxmox web-gui.
Denk ik dat toch maar opnieuw gaat doen zoals de eerste keer.

Zie nu dat compression standaard aan staat bij proxmox, zou dat het kunnen zijn?
Lijkt me niet zinvol zijn meest foto's en filmpjes.

Nope, set compression off.
Zakt weer af naar 15/16 MB/s

[update]
Lag aan de controller.
Een andere controller geprobeerd en nu gaat het een stuk beter, zeker 4 / 5 maal sneller.
Zit wel veel verschil in maar ligt denk aan de grote van de bestanden,
Zie nu soms ook wel snelheden van meer dan 100 MB/s voorbij komen.
[/update]

[ Voor 30% gewijzigd door Dangulus op 10-12-2019 20:40 ]


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
RobertMe schreef op zondag 1 december 2019 @ 13:24:
[...]

Schijf is precies 3 jaar en 3 maanden oud (besteldatum 30-8-16), dus zal vast (net?) buiten de garantie liggen. En een WD Blue die volgens de power on hours 2,5 jaar heeft aan gestaan en maar 49 keer een power cycle heeft gehad verwacht ik ook niet dat snel garantie op wordt gegeven omdat die niet bedoeld zijn voor continu gebruik. Intussen in ieder geval op Amazon nog voor €88 een Seagate 5TB (externe / 2,5") opgepikt. Dus binnenkort kan deze (helaas) al vervangen worden :'( Mooie is ook dat in diezelfde mirror een WD Green 4TB zit, dat is dus echt al een oudje maar die lijkt gewoon nog in orde te zijn ondanks dat die dus denk ik een jaar of 3, 4 ouder is. Als ik dus al had moeten gokken welke kapot was had ik eerder op die oudere gegokt.
Vandaag de nieuwe drive geplaatst. In eerste instantie wil ik even een three way mirror opzetten om de nieuwe drive wat uurtjes te laten maken.
Klopt het dat ik daarvoor dit commando moet gebruiken?
zpool attach backup ata-WDC_WD40EZRX-00SPEB0_WD-WCC4E0VYJ8F8 ata-ST5000LM000-2AN170_WCJ2S1PD

"backup" is dus de pool naam, vervolgens het id (/dev/disks/by-id) van de nog werkende schijf en dan het id van de nieuwe schijf.

En later kan ik dan dit commando uitvoeren om de defecte disk eruit te halen?
zpool detach backup ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803

Dus het id van de disk die defect is/als degrated gemarkeerd.

En effectief is dan het resultaat dus gelijk aan dat ik nu het volgende doe?
zpool replace backup ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803 ata-ST5000LM000-2AN170_WCJ2S1PD

Met dus <pool> <degrated disk> <nieuwe disk>

Acties:
  • 0 Henk 'm!
Om precies te weten wat je gaat doen:
zpool status

[ Voor 20% gewijzigd door CurlyMo op 15-12-2019 13:55 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
CurlyMo schreef op zondag 15 december 2019 @ 13:54:
Om precies te weten wat je gaat doen:
zpool status
Die stond nog een stukje hoger van toen de problemen begonnen: RobertMe in "Het grote ZFS topic"

Daaraan is dus niks veranderd, behalve wat meer read & crc errors.

Acties:
  • +1 Henk 'm!
Dan klopt het.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Bedankt voor het bevestigen :) resilver loopt nu. Had alleen nog een -f nodig gezien het een (geformateerde) externe HDD is/was. Oftewel:
invalid vdev specification
use '-f' to override the following errors:
/dev/disk/by-id/ata-ST5000LM000-2AN170_WCJ2S1PD-part2 contains a filesystem of type 'ntfs'

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Even een nieuwe post, want nieuw probleem :(

Tijd niet opgelet en een mailbox vol (van zed) en zit nu met het volgende:
[robert@nas ~]$ sudo zpool status backup
  pool: backup
 state: DEGRADED
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
  scan: resilvered 11.3G in 0 days 00:34:47 with 0 errors on Sun Dec 15 14:36:16 2019
config:

        NAME                                          STATE     READ WRITE CKSUM
        backup                                        DEGRADED     0     0     0
          mirror-0                                    DEGRADED     0     0     0
            ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803  DEGRADED    19     0    53  too many errors
            ata-WDC_WD40EZRX-00SPEB0_WD-WCC4E0VYJ8F8  ONLINE       0     0     0
            ata-ST5000LM000-2AN170_WCJ2S1PD           REMOVED      0     0     0

errors: No known data errors

De HDD staat nu dus op removed, waarvan ik ook enkele mails heb ontvangen. Maar de laatste mail die ik heb is:
ZFS has finished a resilver:

eid: 20780
class: resilver_finish
host: nas.r-meijers.nl
time: 2019-12-15 14:36:16+0100
pool: backup
state: DEGRADED
status: One or more devices has experienced an unrecoverable error. An
attempt was made to correct the error. Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
using 'zpool clear' or replace the device with 'zpool replace'.
see: http://zfsonlinux.org/msg/ZFS-8000-9P
scan: resilvered 11.3G in 0 days 00:34:47 with 0 errors on Sun Dec 15 14:36:16 2019
config:

NAME STATE READ WRITE CKSUM
backup DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803 DEGRADED 19 0 53 too many errors
ata-WDC_WD40EZRX-00SPEB0_WD-WCC4E0VYJ8F8 ONLINE 0 0 0
ata-ST5000LM000-2AN170_WCJ2S1PD REMOVED 0 0 0

errors: No known data errors
Oftewel: de resilver is klaar. Mijn belangrijkste vraag is dus: wat is de status van de pool? En gezien de disk volgens Linux nu wel bestaat (zowel /dev/sde als de by-id variant) moet ik nog iets doen aan de "REMOVED" status (zoals de clear optie voor degrated disks).

Mijn vermoeden is dat ik de schijf in een hot swap bay heb gedaan die niet helemaal lekker is. Ik heb wel alle bays aangesloten, maar de lege zijn nooit gebruikt/getest. In principe wil ik de disk dus in een andere bay zetten en opnieuw proberen.
De disk heb ik namelijk wel al getest. Is een Seagate externe drive, en heb die (over USB) al getest met SeaTools en h2testw alvorens deze van zijn omhulsel te ontdoen.

Acties:
  • 0 Henk 'm!
Probeer eens een zfs online voor die specifieke schijf?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
CurlyMo schreef op zondag 15 december 2019 @ 16:19:
Probeer eens een zfs online voor die specifieke schijf?
Wederom bedankt voor de zeer snelle reactie. Maar de online doet "niks", behalve aantonen dat clear ook een optie is :p
[robert@nas ~]$ sudo zpool online backup ata-ST5000LM000-2AN170_WCJ2S1PD
warning: device 'ata-ST5000LM000-2AN170_WCJ2S1PD' onlined, but remains in faulted state
use 'zpool clear' to restore a faulted device
[robert@nas ~]$ sudo zpool status backup
  pool: backup
 state: DEGRADED
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
  scan: resilvered 11.3G in 0 days 00:34:47 with 0 errors on Sun Dec 15 14:36:16 2019
config:

        NAME                                          STATE     READ WRITE CKSUM
        backup                                        DEGRADED     0     0     0
          mirror-0                                    DEGRADED     0     0     0
            ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803  DEGRADED    19     0    53  too many errors
            ata-WDC_WD40EZRX-00SPEB0_WD-WCC4E0VYJ8F8  ONLINE       0     0     0
            ata-ST5000LM000-2AN170_WCJ2S1PD           REMOVED      0     0     0

errors: No known data errors


Oftewel:
[robert@nas ~]$ sudo zpool clear backup ata-ST5000LM000-2AN170_WCJ2S1PD
[robert@nas ~]$ sudo zpool status backup
  pool: backup
 state: DEGRADED
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
  scan: resilvered 11.3G in 0 days 00:34:47 with 0 errors on Sun Dec 15 14:36:16 2019
config:

        NAME                                          STATE     READ WRITE CKSUM
        backup                                        DEGRADED     0     0     0
          mirror-0                                    DEGRADED     0     0     0
            ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803  DEGRADED    19     0    53  too many errors
            ata-WDC_WD40EZRX-00SPEB0_WD-WCC4E0VYJ8F8  ONLINE       0     0     0
            ata-ST5000LM000-2AN170_WCJ2S1PD           REMOVED      0     0     0

errors: No known data errors


Ik ga dus even de drive verplaatsen. Ook gezien dmesg redelijk gevuld lijkt te zijn met errors gerelateerd aan sde, oftewel, deze drive.

Ik update deze post zometeen weer.

Na omprikken was de status meteen ONLINE + resilvering. We wachten dus even af.

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Toch blijf ik issues houden. Systeem is aantal keren ontzettend traag geweest en gaf andere issues totdat ik uiteindelijk maar een reboot heb gedaan. Die vervolgens weer faalde met issue van vorige maand. Boot die bleef hangen. Zonder de (oude) falende schijf (WD Blue) lijkt de boot wel te lukken. Dom genoeg heb ik die daarna weer terug geplaatst en waren de lockups weer terug. Reboot daarbij heb ik (uiteindelijk) monitor weer erbij gepakt omdat systeem weer niet up kwam. Tot mijn verbazing bleek toen dat deze nog bezig was met het afsluiten (al 5 minuten volgens systemd), en wel specifiek het unmounten van de child datasets van backup. Na een tijdje sloot die dan toch eindelijk af en de boot zonder WD Blue was succesvol. Maar toen had ik weer een nieuw issue. Geen van de pools waren geïmporteerd. Met een zfs import -a werden deze wel herkent, maar mounten mislukte (intussen waren er al verschillende (sub)mappen aangemaakt op de mount points). Vervolgens dus die mappen verwijderd en met een zfs mount werd alles netjes gemount.

Maar een zpool status wees toen uit dat de resilver van de Seagate weer opnieuw begonnen was. Lijkt mij niet de bedoeling? Ik denk zelfs dat die op het moment dat de problemen begonnen al klaar was (gaat om 266GB aan data, meen dat die initieel aangaf ongeveer drie kwartier nodig te hebben voor de resilver).

Even later was het systeem weer redelijk unresponsive (lijkende op "backup pool is traag / werkt niet"). dmesg / journalctl leide vervolgens tot verschillende van deze regels:
kernel: INFO: task txg_sync:22481 blocked for more than 120 seconds.

Met verschillende "taken" (txg_sync, DataFileSync en zfs). Nadat ik de Seagate op offline heb gezet zijn deze fouten ook weg.

Daarom de Seagate maar weer op online gezet. En wederom startte de resilver vanaf 0. Deze loopt intussen nog steeds, ogenschijnlijk ook zonder issues, maar de snelheid bleef maar zakken en zakken. Daardoor is dit ook de huidige status:
robert@nas ~]$ sudo zpool status backup
  pool: backup
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
        continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Sun Dec 15 19:19:25 2019
        266G scanned at 53.8M/s, 44.5G issued at 9.02M/s, 266G total
        44.7G resilvered, 16.76% done, no estimated completion time
config:

        NAME                                          STATE     READ WRITE CKSUM
        backup                                        DEGRADED     0     0     0
          mirror-0                                    DEGRADED     0     0     0
            ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803  OFFLINE      0     0     0
            ata-WDC_WD40EZRX-00SPEB0_WD-WCC4E0VYJ8F8  ONLINE       0     0     0
            ata-ST5000LM000-2AN170_WCJ2S1PD           ONLINE       0     0     0  (resilvering)

errors: No known data errors

De defecte WD Blue (WD20EZRZ) heb ik dus zelf op offline gezet en is ook losgekoppeld.
De resilver is nu dus zo traag dat zelfs ZFS geen schatting meer kan geven over hoe lang deze nog zal lopen. Overigens liep de h2testw test (over USB 3.0) met om en nabij de 100MByte/s. Dus de disk zou goed moeten zijn en niet zoals nu maar 10M/s (waarvan ik niet durf te gokken of ZFS het in bytes of bits meld, maar langzamer is het zeer zeker).

Wie kan mij dus advies geven om hier nog iets van te maken? Of adviseren in welke richting te zoeken. SATA bekabeling? Kapot RAM? kapotte SATA aansluitingen? Maar bij defecte aansluiting of kabels verwacht ik ATA errors in dmesg/journal, en die zijn er niet.
Een systeem/ZFS upgrade lukt op het moment overigens ook niet. Iets met Arch Linux willen draaien waarbij de thirth party ZFS packages niet compatible zijn met de (LTS) kernel die momenteel in de repo staat. Oftewel dependency conflict.


Edit:
Intussen een system upgrade gedaan middels het DKMS package. Performance leek nog steeds nergens over te gaan. Daarom de disk op offline gezet en een hdparm -t gedaan. De eerste poging was zeer slecht (20MB/s). Tweede al iets beter (60MB/s) en derde goed (116MB/s). Disk nu dan maar weer op online gezet en hij begint soort van hoopvol op 75M/s (iets minder dan 1 uur voor 266GB)

Edit2:
Overigens was ook het afsluiten (na updaten/voor update te "activeren") weer super traag en duurde (al) minuten. Toen ik monitor weer erbij had bleek dit weer te liggen aan het unmounten van de datasets op de backup pool. Als "test" de Seagate eruit getrokken en een paar seconden later was die afgesloten en ook het opstarten ging goed. (En daarna de Seagate weer erin geprikt).

Overigens blijkt ook nu de performance van de resilver weer in te zakken, van ~70M/s op tijd van paar minuten al naar ~50M/s. Terwijl een tool als h2testw dus continu met rond de 100MB/s te kunnen schrijven.


Edit numero 3:
Omdat de performance maar weer bleef zakken wou ik de Seagate weer eruit halen en terug via USB aan PC testen. Tegelijkertijd maar de WD Blue terug gezet (ondanks de bad sectors). De Seagate eerst netjes gedetached (zodat die helemaal weg zou zijn) en daarna pas verwijderd. En de WD Blue stond dan op offline en na weer aansluiten netjes op online gezet. Het directe gevolg daarvan was echter:
[robert@nas ~]$ sudo zpool online backup ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803
warning: device 'ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803' onlined, but remains in faulted state
use 'zpool replace' to replace devices that are no longer present
[robert@nas ~]$ sudo zpool status backup
  pool: backup
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
        continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Sun Dec 15 22:20:24 2019
        2.30G scanned at 118M/s, 1.41G issued at 71.9M/s, 266G total
        1.41G resilvered, 0.53% done, 0 days 01:02:43 to go
config:

        NAME                                          STATE     READ WRITE CKSUM
        backup                                        DEGRADED     0     0     0
          mirror-0                                    DEGRADED     0     0     0
            ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803  DEGRADED     0     0    78  too many errors  (resilvering)
            ata-WDC_WD40EZRX-00SPEB0_WD-WCC4E0VYJ8F8  DEGRADED     0     0    78  too many errors

errors: 1 data errors, use '-v' for a list
[robert@nas ~]$ sudo zpool status backup -v
  pool: backup
 state: DEGRADED
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.
   see: http://zfsonlinux.org/msg/ZFS-8000-8A
  scan: resilvered 2.31G in 0 days 00:00:31 with 13 errors on Sun Dec 15 22:20:55 2019
config:

        NAME                                          STATE     READ WRITE CKSUM
        backup                                        DEGRADED     0     0     0
          mirror-0                                    DEGRADED     0     0     0
            ata-WDC_WD20EZRZ-00Z5HB0_WD-WCC4M1ZZ9803  DEGRADED     0     0    78  too many errors
            ata-WDC_WD40EZRX-00SPEB0_WD-WCC4E0VYJ8F8  DEGRADED     0     0    78  too many errors

errors: Permanent errors have been detected in the following files:

        <metadata>:<0x0>

Nu lijkt dus de hele pool corrupt te zijn? 8)7 (potentieel doordat de WD Blue in zijn metadata nog de Seagate had staan terwijl die in de andere disk (die continu erin heeft gezeten) gedetached was?).
Is er dus iets wat hier nog aan te doen valt? Of wordt het met een nieuwe/goede disk (die Seagate is dus ook iffy) een compleet nieuwe pool opzetten en data (en snapshots) over hevelen?

En ik was al aan het denken om nog een NASje op te zetten om buitenshuis te stallen om echte backups te hebben naast de ZFS snapshots. Lijkt erop dat ik na dit avondtuur dat toch maar echt moet gaan doen. Want dit begint een sterk gevalletje van Murphys law te worden waarbij ik toch wel "bang" begin te worden dat ik dadelijk helemaal niks meer over houd.


Laatste update voor vandaag:
Niet meer naar het ZFS deel gekeken (vind ik te riskant). Intussen wel nog de Seagate "getest". SATA-USB interface ingeprikt, onder Linux (op laptop dus ander systeem) een hdparm -t en performance was ook weer slecht (30MB/s). Reboot naar Windows, format naar NTFS en h2testw gestart: hetzelfde verhaal. Vervolgens, god knows why, de drive uit de hot swap bay gehaald (lees: 4 schroefjes die onderin worden gedraaid eruit gehaald), opnieuw h2testw gestart, en in ieder geval de eerste minuut was performance terug op ~110MB/s. En toen vond ik het welletjes. Morgenvroeg zie ik wel hoe ver die is aan de "13 uur om 5TB te schrijven."

[ Voor 38% gewijzigd door RobertMe op 15-12-2019 23:21 ]


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Schiet mij maar lek...
Ik heb de boel nu zoals ik het wou hebben, maar vraag me niet hoe.

De Seagate schijf heb ik via USB nog eens vol geschreven en dat ging gewoon goed en snel. (13 uur over 4,5 tot 5 TiB dus gemiddelde van in de 90MB/s)

Tegelijkertijd heb ik de kapotte ZFS pool (met dan de permanent error in metadata 0x0) een scrub laten doen. Deze was vrijwel meteen klaar en de "permanent" error bleek toch niet zo permanent te zijn want die was als sneeuw voor de zon verdwenen. Vervolgens nog een scrub laten lopen, die wel "volledig" was en die gaf weer wat errors op de defecte disk. Omdat de voor zover mij bekend andere, werkende, disk wel nog die CRC errors had heb ik daarop een clear gedaan. En stiekem heb ik toen ook een clear gedaan op de defecte WD Blue. Dat starte uiteraard een nieuwe scrub, die met 0 errors is afgerond (dus zelfs de kapotte disk gaf geen errors terwijl dat bij de vorige scrub wel nog het geval was). Vervolgens nog een of twee scrubs gedaan en die gaven hetzelfde resultaat: 0 errors op 2 schijven.

Vervolgens de WD Blue op offline gezet, Seagate erbij, en een aantal keren hdparm -t gedaan en die draaide met 100MB/s (ik weet dat het niet heel betrouwbaar is, maar ik meende dat die zondag ook niet meer correct draaide / langzaam was). Daarna de Seagate wederom ge-attach-ed aan de pool. En na een veel te lange zit (meer dan 9 uur over maar 266GB) is de resilver klaar en de disk online. Nu ook weer de WD Blue op online gezet en die heeft de laatste beetjes (300MB) ook al geresilverd.

Uiteindelijk heb ik nu dus wat ik wou hebben (alle drie de schijven in gebruik). Maar die resilver van 9 uur over maar 266GB lijkt mij toch absoluut niet normaal?

Edit:
Even snel rekensommetje gedaan: 266 * 1024 / 9 / 3600 = ~8,4. 8,4MByte/s dus wat de gemiddelde resilver snelheid was...

[ Voor 3% gewijzigd door RobertMe op 17-12-2019 07:20 ]


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Intussen zijn we bijna twee weken verder en heb ik nog steeds issues met deze schijf en/of ZFS en/of overige hardware of software.
Daarom heb ik maar een nieuw topic aangemaakt: Harde schijf (extreem) traag en veroorzaakt lockups

Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 12:26

Gonadan

Admin Beeld & Geluid, Harde Waren
Wellicht een hele stomme vraag, maar ik wil toch graag bevestiging voordat ik huilend in m'n kruipruimte zit vanwege een denkfout. :P

Ik heb een pool van vier disks in raidz (dus 1 parity) waar niet heel veel data op staat op dit moment. Eigenlijk wil ik die schijven ergens anders gaan gebruiken maar om de data veilige te stellen heb ik wel al één van die schijven nodig. Anders moet ik alles gaan uploaden ergens en dat schiet natuurlijk niet op. :P
Mijn plan was dus om er gewoon één schijf uit te halen en die ergens los in te hangen waarna ik de data daarheen kopieer.
Ik besef mij terdege dat ik dan een degraded pool heb en dus mijn bescherming kwijt ben totdat ik de data op de andere locatie weer van bescherming en parity heb voorzien. Het mag dus niet tijdens dat traject ergens fout gaan. Ik durf dit aan omdat verlies de data niet onoverkomelijk zou zijn, het is erg vervelend maar niet onvervangbaar.

Gaat dit gewoon werken of zie ik onwijs iets over het hoofd? :)

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • +3 Henk 'm!
@Gonadan ja, nee :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • mcDavid
  • Registratie: April 2008
  • Laatst online: 12-05 12:24
@Gonadan misschien de moeite waard om van te voren even te scrubben? Maar ja met de waarschuwing die je zelf noemt in acht genomen, kan dat verder gewoon.

Acties:
  • 0 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
Ik ben bezig met het vervangen van mijn home-server. Die draaide al 8 jaar op openindiana en nu heb ik een nieuwe ingericht op basis van proxmox.

Nu heb ik een probleem bij het migreren van mijn data-pool (3 x 6TB in raidz).
Ik had op mijn oude server een zil + cache toegevoegd aan deze pool op een SSD.

Voorafgaand aan het overzetten van de fysieke schijven wilde ik eerst de cache + log verwijderen. Cache verwijderen ging prima, maar de ZIL/log-partitie verwijderen weigerde het zpool-commando. Geen foutmelding, niks, maar ook geen resultaat.
Vervolgens heb ik de log-partitie offline gezet, zodat er in ieder geval geen dataverlies op kan treden.

Nadat ik de pool in de nieuwe server geplaatst heb (zonder de log-ssd) werd deze keurig geïmporteerd, echter wel in de staat "DEGRADED", vanwege de ontbrekende log-partitie.

Als vervolgstappen had ik twee ideeën:
- log-partitie alsnog uit de zpool verwijderen, mogelijk heeft de actuele zfs-implementatie een of ander bugje opgelost
- log-partitie vervangen door een nieuwe ssd-partitie in mijn nieuwe server.

Beide plannetjes lukken niet,
Status van de pool:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
zpool status
  pool: data
 state: DEGRADED
status: One or more devices has been taken offline by the administrator.
    Sufficient replicas exist for the pool to continue functioning in a
    degraded state.
action: Online the device using 'zpool online' or replace the device with
    'zpool replace'.
  scan: scrub repaired 0B in 1 days 07:41:45 with 0 errors on Mon Dec 23 15:53:35 2019
config:

    NAME        STATE     READ WRITE CKSUM
    data        DEGRADED     0     0     0
      raidz1-0  ONLINE       0     0     0
        sdb     ONLINE       0     0     0
        sdc     ONLINE       0     0     0
        sdd     ONLINE       0     0     0
    logs    
      c1t0d0p2  OFFLINE      0     0     0
    cache
      sda5      ONLINE       0     0     0

errors: No known data errors


Poging to verwijderen van de log-partitie:
code:
1
2
zpool remove data c1t0d0p2
cannot remove c1t0d0p2: no such device in pool


Poging tot vervangen van de log-partitie:
code:
1
2
zpool replace data c1t0d0p2 /dev/sda4
cannot replace c1t0d0p2 with /dev/sda4: no such device in pool


Het lijkt er dus op dat de pool-adminitratie de log-partitie deels wel verwijderd heeft, maar deels ook niet.
Overigens laat "zpool history" wel mijn pogingen zien om de log te verwijderen. Normaal komen commando's die niet uitgevoerd kunnen worden volgens mij niet in de history te staan?

Aangezien ik weinig ervaring heb met dit soort scenario's en ik de pool liever niet kwijt wil (belangrijkste delen zijn uiteraard gebackupped, maar niet alles, nog even los van de enorme tijd om al die data weer terug te zetten uit usb-schijven die ik offsite heb liggen).

Graag wat advies hoe ik de pool weer in een gecontroleerde toestand kan brengen zonder risico dat de pool corrupt raakt.

Acties:
  • 0 Henk 'm!
Hmm, klinkt lastig.
Kan je eens wat debug informatie ophalen met
zdb
?

Even niets...


Acties:
  • 0 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
@FireDrunk
Output van zdb (zonder allerlei extra parameters):
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
 zdb 
data:
    version: 28
    name: 'data'
    state: 0
    txg: 46463240
    pool_guid: 2804952382211208103
    errata: 0
    hostid: 499437667
    hostname: 'pve'
    com.delphix:has_per_vdev_zaps
    vdev_children: 2
    vdev_tree:
        type: 'root'
        id: 0
        guid: 2804952382211208103
        children[0]:
            type: 'raidz'
            id: 0
            guid: 17519543660618911807
            nparity: 1
            metaslab_array: 30
            metaslab_shift: 36
            ashift: 12
            asize: 18003484999680
            is_log: 0
            create_txg: 4
            com.delphix:vdev_zap_top: 483456
            children[0]:
                type: 'disk'
                id: 0
                guid: 15969809522297719686
                path: '/dev/sdb1'
                devid: 'id1,sd@SATA_____HGST_HDN726060AL____________K1G4PXTB/a'
                phys_path: '/pci@0,0/pci103c,1609@11/disk@1,0:a'
                whole_disk: 1
                DTL: 569345
                create_txg: 4
                com.delphix:vdev_zap_leaf: 483457
            children[1]:
                type: 'disk'
                id: 1
                guid: 18340865374314958236
                path: '/dev/sdc1'
                devid: 'id1,sd@SATA_____HGST_HDN726060AL____________NAHD2DPY/a'
                phys_path: '/pci@0,0/pci103c,1609@11/disk@2,0:a'
                whole_disk: 1
                DTL: 106514
                create_txg: 4
                com.delphix:vdev_zap_leaf: 483458
            children[2]:
                type: 'disk'
                id: 2
                guid: 4087825353476324795
                path: '/dev/sdd1'
                devid: 'id1,sd@SATA_____HGST_HDN726060AL____________NAHBSLHY/a'
                phys_path: '/pci@0,0/pci103c,1609@11/disk@3,0:a'
                whole_disk: 1
                DTL: 114814
                create_txg: 4
                com.delphix:vdev_zap_leaf: 483459
        children[1]:
            type: 'disk'
            id: 1
            guid: 3295162752423632086
            path: '/dev/dsk/c1t0d0p2'
            devid: 'id1,sd@SATA_____OCZ-VERTEX2_____OCZ-G2UF9049KOBP5427/s'
            phys_path: '/pci@0,0/pci103c,1609@11/disk@0,0:s'
            whole_disk: 0
            metaslab_array: 40963
            metaslab_shift: 24
            ashift: 9
            asize: 2141978624
            is_log: 1
            removing: 1
            DTL: 40965
            create_txg: 148631
            offline: 1
    features_for_read:


Geeft in ieder geval aan dat de log-partitie "removing:1" is. Hij lijkt dus bezig te zijn met removen, maar ik heb geen idee wat hem tegenhoudt. Ik dacht nadat ik hem offline gemaakt had dat er zeker niks meer gelocked zou kunnen zijn? (Nog even los van het feit dat ik daarna een zpool export gedaan heb en hem fysiek verplaatst naar een andere server).
Geen idee hoe ik zfs kan pushen om vooral door te gaan met verwijderen...

Zou het nog helpen om de oude ssd ook tijdelijk in de nieuwe server te plaatsen en kijken of zpool dan weer verder kan met verwijderen?

Update: Hmmm, nog veel vreemder is dat zdb de nieuw toegevoegde cache-schijf niet ziet? Die ziet zpool status wel? (sda5 is een cache-partitie in mijn nieuwe server)

Acties:
  • +2 Henk 'm!
Dat kan je proberen inderdaad. Zou geen kwaad moeten kunnen.

Wel behoorlijke YOLO om een Vertex 2 als ZIL te gebruiken :+

Even niets...


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Wie kan/wil er iets zinnigs zeggen over deduplicatie?

Ik ben een machine aan het bouwen voor mijn offsite backups, waarop ik Proxmox VE ga draaien met ZFS als onderlaag. Replicatie ga ik op ZFS niveau doen met Sanoid/Syncoid. https://github.com/jimsalterjrs/sanoid

Een gedeelte van de data gaan mijn reguliere bestanden zijn. (Ofwel, mp3's, foto's, etc.) Een ander deel gaan complete Linux vm's worden die hier thuis draaien. (Grofweg 12 vm's op het moment, kunnen er ook 20 worden. OS varieert, vnl Linux maar diverse distro's en versies.)

De machine word een DL20 Gen9 met op dit moment 8G RAM, mogelijk 24G maar kan naar meer. (De machine zelf kan 64G RAM aan.) CPU is een Intel Pentium G4400. (product: Intel Pentium G4400 )

Mijn huidige te backuppen dataset is rond de 6.5T groot, mogelijk gaat daar 1T vanaf wegens een vm met oude backups die ik uit de pool wil halen van te backuppen vm's.

Compression staat aan en zal ik ook op de DL20 aan zetten voor álle data. Huidige compressratio is 1.14x
Ook maak ik regelmatig snapshots. (Al wil ik dat mogelijk wel verminderen en de periode verkorten als offsite replicatie operationeel is.)

Ik twijfel over de aanschaf van een paar 12T disks zodat ik rond de 12T netto over heb en wat headroom (~7.5T) heb. Maar 12T disks zijn duur. :) €390 per stuk voor het model dat ik op het oog heb: pricewatch: Toshiba N300 (Retail), 12TB
De 10T is "maar" €335,- per stuk en levert me rond de 5.5T (50%) headroom op: pricewatch: Toshiba N300 (Retail), 10TB

Kortom: Wat is wijsheid?

Loont deduplicatie in dit geval, of zal het qua benodigde opslag weinig uitmaken en eerder duurder zijn wegens zware CPU belasting en memory? (Machine komt in een datacenter te hangen, kWh prijs ligt op iets meer dan €0,41/kWh. Volcontinu 50W laten trekken kost daarmee 3-4 tientjes per jaar, terwijl de machine in regulier bedrijf met een set onzunige testdisks rond de 35W doet.)

(Ik ben ook een beetje bang gemaakt door dit artikel van een van dé ZFS primers en GOTO guides: https://pthree.org/2013/1...ue-cost-of-deduplication/ )

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!
@unezra Voor een interessante bottleneck over dedup, zie mijn issue op GitHub: https://github.com/zfsonlinux/zfs/issues/6823

Dedup an sich is leuk, effectief, en kan zeker ruimte besparen. Of het in jouw geval echt veel helpt, is lastig van tevoren te zeggen. Je kan een dedup test doen:
https://www.oracle.com/te...1-113-size-zfs-dedup.html

Is een betaalde cloud dienst met 10TB storage niet gewoon veel simpeler en goedkoper?
https://www.backblaze.com/backup-pricing.html

Even niets...


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

FireDrunk schreef op vrijdag 3 januari 2020 @ 15:45:
@unezra Voor een interessante bottleneck over dedup, zie mijn issue op GitHub: https://github.com/zfsonlinux/zfs/issues/6823

Dedup an sich is leuk, effectief, en kan zeker ruimte besparen. Of het in jouw geval echt veel helpt, is lastig van tevoren te zeggen. Je kan een dedup test doen:
https://www.oracle.com/te...1-113-size-zfs-dedup.html
Hmmm.
Kan ik de dedup test doen op een bestaand systeem, zonder meteen dat systeem compleet over de zeik te helpen?

(Lees: Ik kan het op mijn hypervisor testen thuis, daar ga ik immers de backups van maken, maar dat ding word ook gebruikt. Die wil ik niet onderuit trekken met een test.)
Is een betaalde cloud dienst met 10TB storage niet gewoon veel simpeler en goedkoper?
https://www.backblaze.com/backup-pricing.html
Heb ik naar gekeken, maar nee. Bij BackBlaze betaal je voor je traffic en dat maakt het alsnog vrij snel vrij prijzig. Uiteindelijk besloten voor de ultieme flexibiliteit én controle te gaan, door een server die ik al had liggen (ik heb er zelfs 2, dus sparepart) te voorzien van wat extra geheugen (8G red ik wel maar 24G is prettiger) en mogelijk de disks te vervangen (ik heb 5T Toshiba MD's liggen, maar met 2 disks kom ik niet aan de 10-12T netto die ik wil hebben).

Alles bij elkaar verwacht ik net iets onder de €35,- per maand uit te komen. Kosten splits ik. Mijn vrouw betaald er aan mee. Dat maakt het uiteindelijk voor ons allebei tot een aanvaardbare oplossing.

(Afschrijving hardware tel ik even niet mee. De machine zelf hoef ik niet af te schrijven, die kan 10+ jaar mee, enkel de disks zijn na een tijd op of te klein.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!
Ja, hoewel het uiteraard IO kost. Dus als je systeem extreem latency gevoelig is, is het wat onhandig.

Mijn output:
root@nas:~# zdb -S archivev2
Simulated DDT histogram:

bucket              allocated                       referenced
______   ______________________________   ______________________________
refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
------   ------   -----   -----   -----   ------   -----   -----   -----
     1    16.3M   2.01T   1.98T   1.98T    16.3M   2.01T   1.98T   1.98T
     2    8.35M   1.03T   1.03T   1.03T    16.7M   2.07T   2.06T   2.06T
     4    39.6K   1.95G   1.18G   1.37G     184K   9.03G   5.34G   6.23G
     8    10.8K    447M    256M    314M     109K   4.05G   2.23G   2.81G
    16    5.64K    445M    401M    417M     115K   9.29G   8.34G   8.64G
    32    1.90K    108M   94.7M    103M    79.8K   5.12G   4.51G   4.80G
    64    2.23K    280M    271M    271M     149K   18.2G   17.4G   17.5G
   128    1.46K    186M    180M    180M     211K   26.2G   25.2G   25.2G
   256    1.62K    206M    198M    199M     637K   79.1G   75.9G   76.0G
   512       10   1.13M    333K    376K    7.02K    828M    242M    271M
    1K      447   55.6M   53.7M   53.7M     648K   80.7G   77.9G   78.0G
 Total    24.7M   3.05T   3.02T   3.02T    35.1M   4.31T   4.26T   4.26T

dedup = 1.41, compress = 1.01, copies = 1.00, dedup * compress / copies = 1.43


Ik zou dus 4.26T referenced kunnen hebben met 3.02T allocated, nu staat dedup uit, dus heb ik 'gewoon' 4.26T allocated. Zie hier:

root@nas:~# zfs list -d0
NAME        USED  AVAIL  REFER  MOUNTPOINT
archivev2  4.27T  2.75T   288K  /archivev2

Ik zou dus ~20-25%~40% ruimte besparen met dedup. Of dit het waard is, is subjectief.
Het zou me namelijk 8GB geheugen kosten (25M * 320 = 8000).
Nou kan ik het natuurlijk per filesystem aanzetten, maar je snapt het punt.

edit:
Rekenen is moeilijk...

[ Voor 4% gewijzigd door FireDrunk op 03-01-2020 17:02 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

FireDrunk schreef op vrijdag 3 januari 2020 @ 16:58:
Ja, hoewel het uiteraard IO kost. Dus als je systeem extreem latency gevoelig is, is het wat onhandig.
Dat is an-sich geen probleem.
Er draait weinig latency-critical spul op.

Zeker als ik 'm de nacht door laat draaien maakt het allemaal niet veel uit. Die anderhalve bezoeker van mijn website merkt dat toch niet. :)
Mijn output:
root@nas:~# zdb -S archivev2
Simulated DDT histogram:

bucket              allocated                       referenced
______   ______________________________   ______________________________
refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
------   ------   -----   -----   -----   ------   -----   -----   -----
     1    16.3M   2.01T   1.98T   1.98T    16.3M   2.01T   1.98T   1.98T
     2    8.35M   1.03T   1.03T   1.03T    16.7M   2.07T   2.06T   2.06T
     4    39.6K   1.95G   1.18G   1.37G     184K   9.03G   5.34G   6.23G
     8    10.8K    447M    256M    314M     109K   4.05G   2.23G   2.81G
    16    5.64K    445M    401M    417M     115K   9.29G   8.34G   8.64G
    32    1.90K    108M   94.7M    103M    79.8K   5.12G   4.51G   4.80G
    64    2.23K    280M    271M    271M     149K   18.2G   17.4G   17.5G
   128    1.46K    186M    180M    180M     211K   26.2G   25.2G   25.2G
   256    1.62K    206M    198M    199M     637K   79.1G   75.9G   76.0G
   512       10   1.13M    333K    376K    7.02K    828M    242M    271M
    1K      447   55.6M   53.7M   53.7M     648K   80.7G   77.9G   78.0G
 Total    24.7M   3.05T   3.02T   3.02T    35.1M   4.31T   4.26T   4.26T

dedup = 1.41, compress = 1.01, copies = 1.00, dedup * compress / copies = 1.43


Ik zou dus 4.26T referenced kunnen hebben met 3.02T allocated, nu staat dedup uit, dus heb ik 'gewoon' 4.26T allocated. Zie hier:

root@nas:~# zfs list -d0
NAME        USED  AVAIL  REFER  MOUNTPOINT
archivev2  4.27T  2.75T   288K  /archivev2

Ik zou dus ~20-25%~40% ruimte besparen met dedup. Of dit het waard is, is subjectief.
Het zou me namelijk 8GB geheugen kosten (25M * 320 = 8000).
Nou kan ik het natuurlijk per filesystem aanzetten, maar je snapt het punt.

edit:
Rekenen is moeilijk...
Hmmm.
Interpreteer ik het goed dat je daarmee grofweg 2G geheugen per 1T storage nodig hebt?
Of is dat niet als zodanig te zeggen?

(Dan word het vrij snel vrij duur. Systeem zelf kan 128G RAM aan, maar dat spul kost €6,- per G. Daarom wil ik beginnen met 24G. 2x8G plus de 2x4G die ik nog heb liggen.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
FireDrunk schreef op vrijdag 3 januari 2020 @ 11:55:
Dat kan je proberen inderdaad. Zou geen kwaad moeten kunnen.
Inmiddels de oude zil aan de nieuwe server toegevoegd (tijdelijk in een usb-enclosure, want de interne aansluitingen waren op, maakt voor zfs niks uit).

Het ging niet helemaal vanzelf, maar is uiteindelijk gelukt.
Nadat ik een zpool export gedaan had met de oude ZIL-partitie in het systeem was de drive-mapping aangepast. Overigens gaf hij bij zpool import vervolgens aan dat de pool nog in gebruik was door een ander systeem, beetje vreemd, maar middels zpool import -f gelukkig wel gewoon te importeren.

Hierna kwam alles online en kon ik de oude ZIL-partitie wél verwijderen.

Een nieuwe toevoegen kan proxmox kennelijk niet op een zpool met versie=28:
code:
1
2
zpool add data log /dev/sda4
cannot add to 'data': pool must be upgraded to add these vdevs

Voor ik de upgrade van mijn pool ga doen laat ik hem eerst even een paar dagen gewoon zo lopen en kijken of alles naar wens loopt zodat ik zeker weet dat ik niet meer terug hoef.
Wel behoorlijke YOLO om een Vertex 2 als ZIL te gebruiken :+
Tja, ik wist 8 jaar geleden niet beter. Hij heeft 8 jaar vlekkeloos gedraaid: 20GB voor OS, paar GB voor ZIL en nog iets van 30 voor L2ARC (in mijn systeem met ca 50% hit-rate toch een mooie aanvulling).

Smartctl heb ik onder Openindiana nooit aan de praat gekregen, dus geen idee hoe erg end-of-life hij intussen is. Maar na 8 jaar was het een mooi moment om eens te gaan vervangen. Nieuwe server zit een Samsung evo 860 Pro in, ga ik ook weer gebruiken voor OS + ZIL + Cache.

Data-schijven zijn in die 8 jaar al 3 keer vervangen ivm ruimtegebrek, maar dat is omdat ik niet goed ben in dingen weggooien. Overigens zie ik op 1 van mijn schijven nu wel een smart-melding: " Device: /dev/sdc [SAT], 8 Currently unreadable (pending) sectors".
Ben er nog niet wat ik daar mee aan moet, verder geeft de schijf geen alarmerende waardes.

Acties:
  • 0 Henk 'm!
@unezra dedup heeft véél geheugen nodig. Vuistregels zijn genoeg op internet te vinden.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

CurlyMo schreef op vrijdag 3 januari 2020 @ 22:02:
@unezra dedup heeft véél geheugen nodig. Vuistregels zijn genoeg op internet te vinden.
Maar hoeveel daarvan is waar?

Er word gezegd dat er ook een vuistregel is van 1G geheugen op 1T netto storage. Die regel is niet waar. Je kunt prima frank en vrij met een veel lagere ratio toe.

Hier hebben ze het zelfs over 20G RAM per 1T pool data:
https://superuser.com/que...ysical-deduped-compressed

This means you should plan for at least 20GB of system RAM per TB of pool data, if you want to keep the dedup table in RAM, plus any extra memory for other metadata, plus an extra GB for the OS.

Da's een heel andere waarde dan @FireDrunk heeft, die komt op 2G RAM per 1T pool data.

2G RAM per T is al behoorlijk heftig, ik plan op maximaal 20T op deze machine (ooit) en dat zou me dan 40G RAM kosten. Voor nu, met give or take 6T, zou het me 12G RAM kosten. Machine kan het aan. Daar kan 128G in maar RAM is niet goedkoop.

Als het 20G RAM per T is, word het helemaal bizar. Voor 20T op de machine zou ik dan 100G RAM nodig hebben. Nog steeds binnen wat de machine kan, maar dan zit je wel ff €600 aan RAM in die doos te duwen. (En zan zou ik nu, voor de 6T die ik wil, 36G alleen al voor dedup er in moeten zetten.)

Da's het lastige hier. De besparing klinkt interessant (al heb ik het nog niet gemeten), maar als ik nu al weet dat ik er 36G RAM voor nodig heb, koop ik wel die 12T disks om die later te upgraden naar 20T's of groter. :)

Ná Scaoll. - Don’t Panic.


Acties:
  • +1 Henk 'm!
Dat op het moment dat het echt zin het ook veel geheugen vraagt. Als het minder zin heeft ook minder geheugen. Een beetje een catch 22 :)

Dedup in thuis situaties is gewoon niet interessant en je ziet het ook vrijwel nooit. Juist omdat de data er niet geschikt genoeg voor is.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ZaPPZion
  • Registratie: Februari 2009
  • Laatst online: 17-03 01:01
@unezra Tenzij je echt hoge dedup ratios kunt halen, zou ik zelf de voorkeur hebben om gewoon een 40% grotere schijf te kopen ipv meer RAM. Schijfruimte is goedkoop, RAM niet echt, zeker als je 20G per TB zou doen. Ik zou gewoon lekker dikke schijven er in doen en geen gedoe met dedup hebben. Als je nu een ratio van 200 or 300% zou kunnen halen met dedup zou je het kunnen gaan overwegen, maar 40% is het wat mij betreft zeker niet waard.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 12:44
Zoals gezegd, je kunt uitrekenen hoe goed je huidige data te dedupliceren valt :) Aan de hand daarvan kun je zien wat er voor JOUW situatie nodig is.

Het probleem met vuistregels is dat ze nergens rekening mee houden. Ik heb heel veel media (RAW foto's, video footage) op mijn pool staan, en zou dus amper winst halen met dedup. In dat geval komt ieder blok overeen 1:1 overeen met een hash en heb je 2x zo veel geheugen nodig als wanneer je bijvoorbeeld veel VM's hebt draaien en je op een dedup ratio van 1:2 uit komt. Als je er veel backups naar wegschrijft en op een dedup ratio van 1:10 uitkomt kost het nog minder RAM.
Er word gezegd dat er ook een vuistregel is van 1G geheugen op 1T netto storage. Die regel is niet waar. Je kunt prima frank en vrij met een veel lagere ratio toe.
Ook hier is het flink afhankelijk van wat je doet. Is het je privé NAS, of zijn het de profiel-schijven van 10k medewerkers? Bij vuistregels moet je heel goed opletten op welke situatie die vuistregel betrekking heeft.

Overigens komt het geheugengebruik voor ARC (waar die 1G/1T over het algemeen op slaat) bovenop het geheugengebruik voor je dedup tabel. Die tabel valt onder metadata, en als ik https://constantin.glez.d...-to-dedupe-or-not-dedupe/ goed lees moet je dus minstens 4x zoveel RAM hebben als je aan dedup data hebt om alles in RAM te houden, omdat de metadata maximaal een kwart van de ARC cache in mag nemen.

Andere optie is voor L2ARC gaan met een Optane 900P. 1000x langzamer dan RAM (10 µs vs 10 ns) maar per GB wel een stuk goedkoper.

Deduplicatie is leuk om mee te knutselen, of voor sommige filesystems in te zetten (bijvoorbeeld de datastore met je VMs), maar bottom line denk ik dat het voor thuisgebruik geen of amper zin heeft :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

@ZaPPZion @Paul Ik denk idd dat ik het even laat voor wat het is.
Ook omdat ik er, in mijn speurtocht naar het besparen van geld, achter kom dat ik maar 2.5T data heb ipv de dik 5T die ik dacht te hebben.

Dus terug naar de tekentafel en ik ben nu aan het kijken naar 8T disks en een beetje geheugen, mogelijk een NVMe voor het OS in een enclosure (niet omdat NVMe daar winst oplevert, maar omdat m.2 USB enclosures heel klein zijn) en dan klaar.

Ik kan weer terug naar mijn 10T+ HDD voor backups in colocatie (24/7 gebruik) topic en daar verder puzzelen. :)

Thnx voor de input!

[ Voor 4% gewijzigd door unezra op 03-01-2020 23:55 ]

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!
@unezra en het is ook niet erg om na te denken aan energieverbruik. Liever wat meer 2.5" dan 3.5"

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

CurlyMo schreef op vrijdag 3 januari 2020 @ 23:58:
@unezra en het is ook niet erg om na te denken aan energieverbruik. Liever wat meer 2.5" dan 3.5"
2,5" is helaas te krap, 5T vind ik écht te eng. (Groter dan 5T bestaat nog niet in 2,5".)
Maar 8T zit redelijk op de sweet-spot qua prijs per G op het moment.

Dus nog even nachtje over slapen, maar grote kans dat ik (zoals ik ook net in mijn disk topic heb bijgewerkt) voor de 8T's ga, al dan niet met OS op USB. (Maar waarschijnlijk niet. Daar win ik zo weinig mee dat het vooral €160,- de prullenbak in is.)

[ Voor 3% gewijzigd door unezra op 04-01-2020 00:08 ]

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Brahiewahiewa
  • Registratie: Oktober 2001
  • Laatst online: 30-09-2022

Brahiewahiewa

boelkloedig

unezra schreef op zaterdag 4 januari 2020 @ 00:07:
[...]

Maar 8T zit redelijk op de sweet-spot qua prijs per G op het moment.
...
De sweet spot is aan het verschuiven naar de 10 en 12TB disks

QnJhaGlld2FoaWV3YQ==


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Brahiewahiewa schreef op zondag 5 januari 2020 @ 02:32:
[...]
De sweet spot is aan het verschuiven naar de 10 en 12TB disks
Is, maar daar zit 'ie nu nog niet. :)
Op dit moment zijn de 8T's nog flink voordeliger per G dan de 10T's en groter.

Tegen de tijd dat ik werkelijk 10T of groter nodig heb, zal hopenlijk de sweet spot ergens op 14T liggen.

Ná Scaoll. - Don’t Panic.


Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

unezra schreef op zondag 5 januari 2020 @ 11:57:
Op dit moment zijn de 8T's nog flink voordeliger per G dan de 10T's en groter.

Tegen de tijd dat ik werkelijk 10T of groter nodig heb, zal hopenlijk de sweet spot ergens op 14T liggen.
Ik weet niet of en wanneer dergelijke aanbiedingen nog langs gaan komen, maar als je voor Externe WD HDD's gaat die je kan "shucken" dan kom je op zoiets uit :

- 8 TB voor € 134
- 10 TB voor € 169
- 12 TB voor € 205

En dat zijn dan vaak WD Red of WD Blue modellen :)


Dus kijk daar gewoon eens naar, want Interne HDD's zijn belachelijk duur, terwijl je in feite minder krijgt... :F

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 09:09
nero355 schreef op zondag 5 januari 2020 @ 16:08:
Ik weet niet of en wanneer dergelijke aanbiedingen nog langs gaan komen, maar als je voor Externe WD HDD's gaat die je kan "shucken" dan kom je op zoiets uit :
Nu bijvoorbeeld, €240 voor 14 TB. De losse drive is slechts twee keer zo duur:
pricewatch: WD Red (512MB cache), 14TB
. Blijft bizar.


EDIT: zit een 5400 rpm HGST DC HC530 in.

[ Voor 3% gewijzigd door Thralas op 05-01-2020 23:05 ]


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
nero355 schreef op zondag 5 januari 2020 @ 16:08:
[...]

Ik weet niet of en wanneer dergelijke aanbiedingen nog langs gaan komen, maar als je voor Externe WD HDD's gaat die je kan "shucken" dan kom je op zoiets uit :

- 8 TB voor € 134
- 10 TB voor € 169
- 12 TB voor € 205

En dat zijn dan vaak WD Red of WD Blue modellen :)


Dus kijk daar gewoon eens naar, want Interne HDD's zijn belachelijk duur, terwijl je in feite minder krijgt... :F
Blue wil je volgens mij niet hebben? In ieder geval heb ik paar jaar terug een 6TB Blue besteld en die deed continu de leeskop parkeren om daarna toch weer gebruikt te worden.
En in mijn eigen recentere zoektocht bleek dat die WD externe schijven geen echte REDs meer bevatten maar een afwijkend typenummer. Dus dat het intern een RED is hoeft ook niet zo te zijn.

Daarnaast moet je afhankelijk van het gebruik ook opletten dat je geen SMR schijf hebt: Harde schijf (extreem) traag en veroorzaakt lockups En ook WD zou recenter bij bepaalde modellen (alleen externe?) HDDs SMR zijn gaan toepassen.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

nero355 schreef op zondag 5 januari 2020 @ 16:08:
[...]

Ik weet niet of en wanneer dergelijke aanbiedingen nog langs gaan komen, maar als je voor Externe WD HDD's gaat die je kan "shucken" dan kom je op zoiets uit :

- 8 TB voor € 134
- 10 TB voor € 169
- 12 TB voor € 205

En dat zijn dan vaak WD Red of WD Blue modellen :)


Dus kijk daar gewoon eens naar, want Interne HDD's zijn belachelijk duur, terwijl je in feite minder krijgt... :F
  • WD Red 12T: €0,035 per G
  • WD Red 8T: €0,030 per G
  • Toshiba N300 12T: €0,032 per G
  • Toshiba N300 8T: €0,027 per G
Daarom heb ik dus de Toshiba N300 8T gekocht. :)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

RobertMe schreef op zondag 5 januari 2020 @ 16:30:
Blue wil je volgens mij niet hebben? In ieder geval heb ik paar jaar terug een 6TB Blue besteld en die deed continu de leeskop parkeren om daarna toch weer gebruikt te worden.
Dat waren de Greens inderdaad en sinds die verdwenen zijn hebben de Blue modellen die markt overgenomen, maar of ze daar ook last van hebben : Geen idee!

Met de juiste tools is dat vast wel op een hele hoge waarde te zetten net als vroeger :)
En in mijn eigen recentere zoektocht bleek dat die WD externe schijven geen echte REDs meer bevatten maar een afwijkend typenummer. Dus dat het intern een RED is hoeft ook niet zo te zijn.
Klopt, maar voor zover ik weet zijn het wel Red modellen verder met de juiste features!
Daarnaast moet je afhankelijk van het gebruik ook opletten dat je geen SMR schijf hebt: Harde schijf (extreem) traag en veroorzaakt lockups En ook WD zou recenter bij bepaalde modellen (alleen externe?) HDDs SMR zijn gaan toepassen.
Die zitten er gelukkig niet in voor zover ik heb begrepen :)

Wie koopt die troep dan ook voor een NAS :? :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||

Pagina: 1 ... 193 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.