Acties:
  • 0 Henk 'm!
Specifieke model ken ik niet. Misschien kan je ergens vinden of je die met meerdere lanes kan aansluiten. Kunnen ze namelijk niet allemaal volgens mij.

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op woensdag 23 mei 2018 @ 18:37:
Specifieke model ken ik niet. Misschien kan je ergens vinden of je die met meerdere lanes kan aansluiten. Kunnen ze namelijk niet allemaal volgens mij.
Wat betekent dat? :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • TommyboyNL
  • Registratie: Januari 2006
  • Niet online
CurlyMo schreef op woensdag 23 mei 2018 @ 18:33:
[...]

Het zou dan gaan om een IBM M1015 i.c.m. een IBM x3650 (46M0997) mits dat ook nog een beetje zuinig is. Anders moet ik op zoek naar een betaalbare Ebay 16 poorts HBA en mijn M1015 verkopen. Onderlinge verbinding via 2x SFF-8087.
Waarom prik je er niet een tweede M1015 naast? Dat lijkt mij een nettere en goedkopere oplossing dan een expander. Of zijn je PCIe slots op?

Acties:
  • 0 Henk 'm!
TommyboyNL schreef op woensdag 23 mei 2018 @ 18:59:
[...]

Waarom prik je er niet een tweede M1015 naast? Dat lijkt mij een nettere en goedkopere oplossing dan een expander. Of zijn je PCIe slots op?
Precies, mini-itx bord.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Een aantal expanders ondersteunen twee sas kabels van de controller tegelijk naar de expander, dus dan heb je meer bandbreedte. Niet echt nodig voor thuis, tenzij je ssds er aan hangt.

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op woensdag 23 mei 2018 @ 19:02:
[...]

Een aantal expanders ondersteunen twee sas kabels van de controller tegelijk naar de expander, dus dan heb je meer bandbreedte. Niet echt nodig voor thuis, tenzij je ssds er aan hangt.
2 inputs inderdaad:
Afbeeldingslocatie: https://i.ebayimg.com/images/g/K8cAAOSwNmVaUI3f/s-l1600.jpg

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Niet vergeten dat de meeste modellen een PCIe slot nodig hebben voor voeding.
Of je moet dat gaan "tweaken"

Acties:
  • 0 Henk 'm!
IceTeaGX schreef op woensdag 23 mei 2018 @ 19:48:
Niet vergeten dat de meeste modellen een PCIe slot nodig hebben voor voeding.
Of je moet dat gaan "tweaken"
Inderdaad, zo'n mining riser met molex werkt prima :)

@FireDrunk Ik lees dat jij ook fan bent van de LSI 9201-16i. Misschien is het dan beter om mijn M1015 te verkopen en voor één 16 poorts HBA te gaan. De 16i gaat op ebay voor € 100,-. De 16e voor € 45,-. Dat moet met een SFF-8088 -> SFF-8087 ook prima gaan volgens mij.

[ Voor 34% gewijzigd door CurlyMo op 23-05-2018 22:06 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 13:16

Pantagruel

Mijn 80486 was snel,....was!

CurlyMo schreef op woensdag 23 mei 2018 @ 20:47:
[...]

Inderdaad, zo'n mining riser met molex werkt prima :)

@FireDrunk Ik lees dat jij ook fan bent van de LSI 9201-16i. Misschien is het dan beter om mijn M1015 te verkopen en voor één 16 poorts HBA te gaan. De 16i gaat op ebay voor € 100,-. De 16e voor € 45,-. Dat moet met een SFF-8088 -> SFF-8087 ook prima gaan volgens mij.
Been there, done it, still working ;)

(Intel heeft btw SAS expanders die van een molex voorzien zijn, kun je die hobby-bob opstelling mee vermijden, maar dat terzijde)

De 16e is idd een optie, moet je alleen geen probs hebben met de kabel spaghetti die terug je case in gaat (evt. gat maken en een nette rubber grommit). Heb op vergelijkbare wijze wel eens een Areca externe RAID controller voor intern gebruik 'geschikt' gemaakt.

[ Voor 7% gewijzigd door Pantagruel op 24-05-2018 09:08 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!
Fan van de 16i is lang lang geleden, er zijn tegenwoordig veel nieuwere (lees: zuinigere :+) controllers te krijgen. SAS2008 based chipsets zijn eigenlijk al niet meer zo interresant (heb zelf ook nog 2-3 van die controllers, maar gebruik ze eigenlijk nooit meer, vanwege stroomverbruik, en omdat schijven tegenwoordig zo groot zijn, dat het niet meer nodig is om veel schijven te hebben).

Even niets...


Acties:
  • 0 Henk 'm!
Dus jouw ervaringen met SAS expanders zijn positief i.c.m. ZFS? Kan je iets zeggen over het verbruik? En welke expander was dat?
(Intel heeft btw SAS expanders die van een molex voorzien zijn, kun je die hobby-bob opstelling mee vermijden, maar dat terzijde)
Die is niet super goedkoop te krijgen.
De 16e is idd een optie, moet je alleen geen probs hebben met de kabel spaghetti die terug je case in gaat (evt. gat maken en een nette rubber grommit). Heb op vergelijkbare wijze wel eens een Areca externe RAID controller voor intern gebruik 'geschikt' gemaakt.
Ik heb insteekkaart sloten genoeg achterin mijn behuizing dus dat is geen punt.
FireDrunk schreef op donderdag 24 mei 2018 @ 10:52:
Fan van de 16i is lang lang geleden, er zijn tegenwoordig veel nieuwere (lees: zuinigere :+) controllers te krijgen. SAS2008 based chipsets zijn eigenlijk al niet meer zo interresant.
Ze zijn wel te krijgen, maar voor welk prijskaartje? Dat is een beetje het punt. Of heb je nog tips voor kaarten die aan mijn aandacht zijn ontslipt.
(heb zelf ook nog 2-3 van die controllers, maar gebruik ze eigenlijk nooit meer, vanwege stroomverbruik, en omdat schijven tegenwoordig zo groot zijn, dat het niet meer nodig is om veel schijven te hebben).
Ik heb liever een paar schijven extra dan grote schijven. Scheelt toch weer redundantie. Desnoods een paar 2.5" HDD's van 2TB. En mijn case kan tenslotte prima 16 schijven huizen dus daar hoef ik het niet voor te laten. Stroomverbruik is wel een ding. Dus als het zuiniger kan.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 13:16

Pantagruel

Mijn 80486 was snel,....was!

CurlyMo schreef op donderdag 24 mei 2018 @ 10:59:
[...]

Dus jouw ervaringen met SAS expanders zijn positief i.c.m. ZFS? Kan je iets zeggen over het verbruik? En welke expander was dat?
Yep, werkt al een tierelier, verbruik heb ik nooit bepaald aangezien de prut meter destijds al heen gegaan was.
De expander in kwestie is een Lenovo SAS expander, de 'unboxing' staat hoger op in dit topic.
[...]

Die is niet super goedkoop te krijgen.
Klopt, was destijds al een duur ding en duur gebleven
[...]

Ik heb insteekkaart sloten genoeg achterin mijn behuizing dus dat is geen punt.


[...]

Ze zijn wel te krijgen, maar voor welk prijskaartje? Dat is een beetje het punt. Of heb je nog tips voor kaarten die aan mijn aandacht zijn ontslipt.


[...]

Ik heb liever een paar schijven extra dan grote schijven. Scheelt toch weer redundantie. Desnoods een paar 2.5" HDD's van 2TB. En mijn case kan tenslotte prima 16 schijven huizen dus daar hoef ik het niet voor te laten. Stroomverbruik is wel een ding. Dus als het zuiniger kan.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!
Mooie is dat met die zoekterm niets te vinden is :p De 9260-16i wel.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
De -8i is inderdaad beter te vinden.

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op donderdag 24 mei 2018 @ 12:14:
De -8i is inderdaad beter te vinden.
Valt er nog iets te zeggen over 9217-16i?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Ah, ik heb een verkeerde aanname gedaan. Ik dacht, omdat ik een 9217-8i zag, dat er ook wel een 16i zou moeten bestaan, maar die is er dus niet.

Externe broertje:
https://www.broadcom.com/...bus-adapters/sas-9202-16e

Interne varianten:
https://www.broadcom.com/...bus-adapters/sas-9305-16i
https://www.broadcom.com/...bus-adapters/sas-9300-16i

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op donderdag 24 mei 2018 @ 12:29:
Ah, ik heb een verkeerde aanname gedaan. Ik dacht, omdat ik een 9217-8i zag, dat er ook wel een 16i zou moeten bestaan, maar die is er dus niet.

Externe broertje:
https://www.broadcom.com/...bus-adapters/sas-9202-16e

Interne varianten:
https://www.broadcom.com/...bus-adapters/sas-9305-16i
https://www.broadcom.com/...bus-adapters/sas-9300-16i
En de 9260-16i dan, is dat ook ruk?

De 930X-16i is veel te nieuw om betaalbaar te zijn. Dat € 200,- tot € 300,- verschil ga ik niet terugverdienen met een lager verbruik :p

[ Voor 11% gewijzigd door CurlyMo op 24-05-2018 12:55 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Is geen HBA, is een 'echte' RAID controller.

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op donderdag 24 mei 2018 @ 12:55:
Is geen HBA, is een 'echte' RAID controller.
Niet als HBA te flashen?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Ik gok van niet, is een andere SoC.

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op donderdag 24 mei 2018 @ 12:56:
Ik gok van niet, is een andere SoC.
Ik las het inderdaad op fora. Dan is er dus eigenlijk nog geen betaalbaar 2de hands alternatief.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Holy sh*t: er zijn wel hele goedkope dingen te vinden:

https://www.ebay.com/itm/...81e307:g:NTMAAOSwdelZ0k-V

Hier kan lager verbruik niet tegenop...

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op donderdag 24 mei 2018 @ 12:58:
Holy sh*t: er zijn wel hele goedkope dingen te vinden:

https://www.ebay.com/itm/...81e307:g:NTMAAOSwdelZ0k-V

Hier kan lager verbruik niet tegenop...
Dat zeg ik toch :p De interne zijn rond de € 100,-

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Extern wordt veel meer gebruikt in grote JBOD enclosoures, dus snap het wel.

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op donderdag 24 mei 2018 @ 13:06:
Extern wordt veel meer gebruikt in grote JBOD enclosoures, dus snap het wel.
Ook voor de interne scheelt het al gauw € 200,- i.t.t. de nieuwe series. Dus volgens mij zijn ook die interne een prima deal.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 11-10 19:09

MikeVM

- Baloo -

ik zou mijn ZFS build willen omzetten naar Windows.

Waarom? ik draai nu 5 jaar ZFS, maar FreeBSD ligt mij gewoon niet, elke keer moet ik een dag spenderen om hem volledig in orde te stellen, en enkele weken later loopt er wel iets mis, mijn kennis van de unix commands is nihil, dus ik moet overal google voor bijhalen om iets uit te voeren. en dit kost veel tijd. zaken als Plex, Virtualbox, Torrents, NZBD draaien allemaal niet lekker.

hoe kan ik nu het makkelijkste/snelste/goedkoopste overgaan naar Windows, waarbij ik mijn volledige pool omzet naar NTFS/ExFAT/...

mijn pool bestaat uit 10 disks van 3TB, in RAIDZ2. hiervan is 24TB in gebruik, dit zou ik kunnen terugdringen naar 20TB door bepaalde data naar mijn Synology nas te verhuizen, en Backups (non-crucial) te verwijderen.

iemand stelde al voor om eventueel een Cloud-service te gebruiken om de data te parkeren. maar mijn upload is 30Mbit. ik zou ook kunnen aankloppen bij een lokale Cloudaanbieder, en mijn server daar lokaal installeren.

voordat ik verderga wou ik hier toch even horen of er nog andere opties zijn

\\ Baloo \\ Mijn iRacing profiel


Acties:
  • 0 Henk 'm!
Een V&A advertentie plaatsen en hopen dat er een tweakers is met 20TB vrij?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 11-10 19:09

MikeVM

- Baloo -

CurlyMo schreef op donderdag 7 juni 2018 @ 17:07:
Een V&A advertentie plaatsen en hopen dat er een tweakers is met 20TB vrij?
V&A gevraagd: 20TB server gezocht voor datamigratie*

}:O :+

\\ Baloo \\ Mijn iRacing profiel


Acties:
  • 0 Henk 'm!
Heb je andere alternatieven ook overwogen zoals een Proxmox, of (nog een) Synology?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 11-10 19:09

MikeVM

- Baloo -

Het eenvoudigste is een paar harde schijven kopen en daar de data op parkeren. Maar ik weet niet of ik die route op wil gaan. Ik moet op mn uitgaven letteb

\\ Baloo \\ Mijn iRacing profiel


Acties:
  • 0 Henk 'm!

  • TimvH
  • Registratie: Januari 2011
  • Laatst online: 09-10 19:42

TimvH

Kletsmajoor

MikeVM schreef op donderdag 7 juni 2018 @ 17:59:
Het eenvoudigste is een paar harde schijven kopen en daar de data op parkeren. Maar ik weet niet of ik die route op wil gaan. Ik moet op mn uitgaven letteb
Waarom gebruik je dan geen FreeNAS?
Met FreeNAS heb je enkel te maken met een Web UI en wordt er zelfs afgeraden om de terminal te gebruiken om instellingen aan te passen. Het is een stuk makkelijker te beheren en het mooiste van alles; je kan een ZFS pool gewoon importeren zonder je data kwijt te raken en als het toch niet fijn is kun je altijd nog kiezen om naar windows over te stappen. Maar zet het eens op een usb stick en probeer het uit.

Acties:
  • 0 Henk 'm!

  • vanaalten
  • Registratie: September 2002
  • Laatst online: 16:44
MikeVM schreef op donderdag 7 juni 2018 @ 16:46:voordat ik verderga wou ik hier toch even horen of er nog andere opties zijn
Dit gaat heel flauw klinken:
Disks formatteren als NTFS en data vanaf je backup terugzetten naar die nieuw geformatteerde NTFS schijven.

Nou gok ik, aangezien je het zelf nog niet bedacht had, dat je geen backup hebt. En dan mijn vraag: is dit een bewuste keuze geweest? En als je al het risico accepteert dat een stervende voeding al je data met zich meeneemt in z'n graf... dan is die data blijkbaar niet ZO belangrijk. Dus in dat geval kan je natuurlijk ook overwegen om nu even afscheid te nemen van je data en met ~20TB in Windows kaal te beginnen.

Acties:
  • 0 Henk 'm!

  • Sandor_Clegane
  • Registratie: Januari 2012
  • Niet online

Sandor_Clegane

Fancy plans and pants to match

MikeVM schreef op donderdag 7 juni 2018 @ 16:46:
ik zou mijn ZFS build willen omzetten naar Windows.

Waarom? ik draai nu 5 jaar ZFS, maar FreeBSD ligt mij gewoon niet, elke keer moet ik een dag spenderen om hem volledig in orde te stellen, en enkele weken later loopt er wel iets mis, mijn kennis van de unix commands is nihil, dus ik moet overal google voor bijhalen om iets uit te voeren. en dit kost veel tijd. zaken als Plex, Virtualbox, Torrents, NZBD draaien allemaal niet lekker.

hoe kan ik nu het makkelijkste/snelste/goedkoopste overgaan naar Windows, waarbij ik mijn volledige pool omzet naar NTFS/ExFAT/...

mijn pool bestaat uit 10 disks van 3TB, in RAIDZ2. hiervan is 24TB in gebruik, dit zou ik kunnen terugdringen naar 20TB door bepaalde data naar mijn Synology nas te verhuizen, en Backups (non-crucial) te verwijderen.

iemand stelde al voor om eventueel een Cloud-service te gebruiken om de data te parkeren. maar mijn upload is 30Mbit. ik zou ook kunnen aankloppen bij een lokale Cloudaanbieder, en mijn server daar lokaal installeren.

voordat ik verderga wou ik hier toch even horen of er nog andere opties zijn
Linux? Ik draai ZOL op Ubuntu en heb er geen omkijken naar. Heb een aantal containers draaien en een aantal VMs vanaf een Zpool op dezelfde server.

Less alienation, more cooperation.


Acties:
  • 0 Henk 'm!
Sandor_Clegane schreef op donderdag 7 juni 2018 @ 18:54:
[...]


Linux? Ik draai ZOL op Ubuntu en heb er geen omkijken naar. Heb een aantal containers draaien en een aantal VMs vanaf een Zpool op dezelfde server.
Voor iemand met nul linux cli ervaring is dat ook al te hoog gegrepen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Sandor_Clegane
  • Registratie: Januari 2012
  • Niet online

Sandor_Clegane

Fancy plans and pants to match

CurlyMo schreef op donderdag 7 juni 2018 @ 19:08:
[...]

Voor iemand met nul linux cli ervaring is dat ook al te hoog gegrepen.
Je moet ergens beginnen. :)

En Windows Storage Spaces is ook redelijk Powershell gedreven. Snap je punt, just saying.

Less alienation, more cooperation.


Acties:
  • 0 Henk 'm!

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 11-10 19:09

MikeVM

- Baloo -

CurlyMo schreef op donderdag 7 juni 2018 @ 19:08:
[...]

Voor iemand met nul linux cli ervaring is dat ook al te hoog gegrepen.
heb vroeger linux server gehad, zolang er geen ernstige problemen opduiken is het allemaal goed te doen. maar ik maak fouten waardoor de server nog alleens vastloopt. en dan begin ik te prutsen tot het werkt, waar ik vaak meer fout doe dan goed.

ik wil gewoon het gemak van windows weer.

\\ Baloo \\ Mijn iRacing profiel


Acties:
  • 0 Henk 'm!

  • Norjee
  • Registratie: April 2000
  • Niet online
MikeVM schreef op donderdag 7 juni 2018 @ 16:46:
ik zou mijn ZFS build willen omzetten naar Windows.

voordat ik verderga wou ik hier toch even horen of er nog andere opties zijn
Wat ik begrijp will je windows als server gebruiken, en daar je leech stuff op draaien? Waarom niet windows in een vm (virtualbox is waarschijnlijk het makkeljkst, bhyve meer freebsd native) draaien? Dan moet je nog een keer met freebsd "knoeien" en daarna gebruik je de vm voor Plex, Virtualbox, Torrents, NZBD.

(Of idd, proxmox, daar je zfs pool gebruiken, en een windows vm er in draaien. Maar dat is weer iets lastiger)

Hoewel ik denk dat het niet perse freebsd is wat de problemen levert, meer de software, die toch echt in de eerste plaats voor linux geschreven is en onder windows waarschijnlijk nog brakker werkt.

Acties:
  • 0 Henk 'm!
Of direct naar een ESXi setup. Ook voornamelijk GUI driven.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Demogorg0N
  • Registratie: Mei 2010
  • Laatst online: 15-10 11:57
MikeVM schreef op donderdag 7 juni 2018 @ 16:46:
ik zou mijn ZFS build willen omzetten naar Windows.

Waarom? ik draai nu 5 jaar ZFS, maar FreeBSD ligt mij gewoon niet, elke keer moet ik een dag spenderen om hem volledig in orde te stellen, en enkele weken later loopt er wel iets mis, mijn kennis van de unix commands is nihil, dus ik moet overal google voor bijhalen om iets uit te voeren. en dit kost veel tijd. zaken als Plex, Virtualbox, Torrents, NZBD draaien allemaal niet lekker.

hoe kan ik nu het makkelijkste/snelste/goedkoopste overgaan naar Windows, waarbij ik mijn volledige pool omzet naar NTFS/ExFAT/...

mijn pool bestaat uit 10 disks van 3TB, in RAIDZ2. hiervan is 24TB in gebruik, dit zou ik kunnen terugdringen naar 20TB door bepaalde data naar mijn Synology nas te verhuizen, en Backups (non-crucial) te verwijderen.

iemand stelde al voor om eventueel een Cloud-service te gebruiken om de data te parkeren. maar mijn upload is 30Mbit. ik zou ook kunnen aankloppen bij een lokale Cloudaanbieder, en mijn server daar lokaal installeren.

voordat ik verderga wou ik hier toch even horen of er nog andere opties zijn
@MikeVM ik heb nog een volume vrij van 27TB, je kan gerust je data eens komen parkeren, en ik draai ook een freenas met plex, sickrage, couchpotato & al die zaken. Draait super hier & ik moet hier amper naar omkijken.

edit: whoops, te rap gepost, wou op voorbeeld drukken

[ Voor 10% gewijzigd door Demogorg0N op 08-06-2018 11:32 . Reden: te rap gepost ]


Acties:
  • 0 Henk 'm!

  • Tafelpoowt
  • Registratie: Juli 2013
  • Laatst online: 17-11-2020
Heb hier recent een ZFS volume aangemaakt op een WD PR4100 NAS met debian stretch (en OMV).

Heeft er iemand enige tips om datasets met multimedia (video) te tunen?
Compression lijkt me vrij zinloos hier, maar mogelijks zijn er andere interessante opties.

Acties:
  • 0 Henk 'm!
Tafelpoowt schreef op vrijdag 8 juni 2018 @ 17:22:
Heb hier recent een ZFS volume aangemaakt op een WD PR4100 NAS met debian stretch (en OMV).

Heeft er iemand enige tips om datasets met multimedia (video) te tunen?
Compression lijkt me vrij zinloos hier, maar mogelijks zijn er andere interessante opties.
Wat is het doel dat je met die tuning wil bereiken?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Tafelpoowt
  • Registratie: Juli 2013
  • Laatst online: 17-11-2020
Eigenlijk geen idee... better harder faster stronger?
Momenteel gebruik ik enkel de NFS share opties en dat vind ik al prettig werken.

Wat me bvb. al opviel is dat je met aparte Download en Media datasets een tragere transfer hebt (van Download naar Media) omdat alles fysiek gekopieerd wordt.

Aangezien het nu gewoon 4 wd reds in RAIDZ zijn, kan ik nog eens experimenteren met caches, vb een SSD op USB3. Of is daar niet veel mee te winnen?

[ Voor 57% gewijzigd door Tafelpoowt op 08-06-2018 17:40 ]


Acties:
  • 0 Henk 'm!

  • ZaPPZion
  • Registratie: Februari 2009
  • Laatst online: 28-08 12:46
Tafelpoowt schreef op vrijdag 8 juni 2018 @ 17:28:
Aangezien het nu gewoon 4 wd reds in RAIDZ zijn, kan ik nog eens experimenteren met caches, vb een SSD op USB3. Of is daar niet veel mee te winnen?
Tenzij je je media 2 keer achter elkaar bekijkt, heb je niets aan een cache. De cache werkt namelijk bij de 2e keer aanvragen van de data.

Acties:
  • +1 Henk 'm!
Tafelpoowt schreef op vrijdag 8 juni 2018 @ 17:28:
Eigenlijk geen idee... better harder faster stronger?
Gewoon niet druk maken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • ZaPPZion
  • Registratie: Februari 2009
  • Laatst online: 28-08 12:46
CurlyMo schreef op vrijdag 8 juni 2018 @ 21:43:
[...]

Gewoon niet druk stuk maken.

Acties:
  • 0 Henk 'm!

  • DaCoTa
  • Registratie: April 2002
  • Laatst online: 18-10 17:04
ZaPPZion schreef op vrijdag 8 juni 2018 @ 20:53:
[...]


Tenzij je je media 2 keer achter elkaar bekijkt, heb je niets aan een cache. De cache werkt namelijk bij de 2e keer aanvragen van de data.
Kan je niet de SSD als meta-data cache gebruiken? Of vergis ik me nu?

Acties:
  • 0 Henk 'm!

  • ZaPPZion
  • Registratie: Februari 2009
  • Laatst online: 28-08 12:46
Ja dat zal vast kunnen, maar ik kan me niet voorstellen dat het enig verschil zal maken voor de performance (maar ik kan het fout hebben ;))

Acties:
  • 0 Henk 'm!

  • Dwarlorf
  • Registratie: Juni 2016
  • Laatst online: 17:56

Dwarlorf

Nokando a place near Kathmandu

nero355 schreef op dinsdag 24 april 2018 @ 23:08:
[...]

Begrijp ik het goed dat je Crucial M4 SSD deze update nodig heeft : downloads: Crucial M4 070H (Waarschijnlijk die ervoor, maar dit is de laatste!)

Toch :?


Die update kan je gewoon zonder dataloss doen door middel van een USB stick met daarop de Update ISO weggeschreven ;)

Niks spannends aan...
Lukt helaas ook niet. Alle instructies van Crucial ten spijt herkent hij de gemaakte boot USB drive niet als boot drive.

The blob ain't bothered. Its slime don't care. / The mind commands the body and it obeys. The mind orders itself and meets resistance.


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Dwarlorf schreef op zondag 10 juni 2018 @ 13:37:
Lukt helaas ook niet. Alle instructies van Crucial ten spijt herkent hij de gemaakte boot USB drive niet als boot drive.
Klinkt als een BIOS USB BOOT die i.c.m. een UEFI systeem "BIOS Legacy mode" nodig heeft :?

Maar ik neem aan dat iemand bij Crucial dat al geroepen heeft...


Kan je anders niet gewoon een Live ISO'tje booten en dan handmatig het geheel uitvoeren vanaf de USB Stick die je al gemaakt hebt ?
Zo heb ik dat een keer in het verleden gedaan voor wat Samsung SSD's zodat ik niet elke keer hoefde te rebooten :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Dwarlorf
  • Registratie: Juni 2016
  • Laatst online: 17:56

Dwarlorf

Nokando a place near Kathmandu

nero355 schreef op zondag 10 juni 2018 @ 13:54:
[...]

Klinkt als een BIOS USB BOOT die i.c.m. een UEFI systeem "BIOS Legacy mode" nodig heeft :?

Maar ik neem aan dat iemand bij Crucial dat al geroepen heeft...
Ja klopt, dat stond bij trouble shooting. Tenzij ik nog ergens een instelling in de BIOS over het hoofd heb gezien. Ik heb het net voor de zekerheid nogmaals geprobeerd, zowel 'Legacy Only' als 'Legacy and UEFI' instellingen.

Ik krijg krijg trouwens de melding dat het geen bootable drive betreft. Dus het kan zijn dat het daar ergens fout is gegaan maar ik heb ook meerdere keren een nieuwe bootable gemaakt.Maar ik heb gewoon crucials aanwijzingen opgevolgd: http://www.crucial.com/wc...rmware-update-070h-en.pdf
nero355 schreef op zondag 10 juni 2018 @ 13:54:
[...]
Kan je anders niet gewoon een Live ISO'tje booten en dan handmatig het geheel uitvoeren vanaf de USB Stick die je al gemaakt hebt ?
Zo heb ik dat een keer in het verleden gedaan voor wat Samsung SSD's zodat ik niet elke keer hoefde te rebooten :)
Ik zou niet weten hoe dat moet. Als ik google op windows 7 live boot cd dan krijg ik allemaal vage oplossingen die me niet echt bevallen.

En ik kan niet uit crucials website opmaken of dat uberhaupt wel kan met hun downloads:
http://www.crucial.com/us..._-ssd-support-page-button

[ Voor 5% gewijzigd door Dwarlorf op 10-06-2018 14:43 ]

The blob ain't bothered. Its slime don't care. / The mind commands the body and it obeys. The mind orders itself and meets resistance.


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Dwarlorf schreef op zondag 10 juni 2018 @ 14:39:
Ja klopt, dat stond bij trouble shooting. Tenzij ik nog ergens een instelling in de BIOS over het hoofd heb gezien. Ik heb het net voor de zekerheid nogmaals geprobeerd, zowel 'Legacy Only' als 'Legacy and UEFI' instellingen.

Ik krijg krijg trouwens de melding dat het geen bootable drive betreft. Dus het kan zijn dat het daar ergens fout is gegaan maar ik heb ook meerdere keren een nieuwe bootable gemaakt.Maar ik heb gewoon crucials aanwijzingen opgevolgd: http://www.crucial.com/wc...rmware-update-070h-en.pdf
Met Rufus zou je een FreeDOS USB Stick kunnen maken en dan gewoon handmatig wat dingetjes doen die ook in de Crucial ISO te vinden zijn als Rufus zelf al niet de oplossing is :
code:
1
2
3
4
5
6
7
8
9
10
crucial-m4-070h-07-00.iso\BOOT\ISOLINUX\BOOT2880.IMG\AUTOEXEC.BAT
@echo off 
SET dosdir=A:\
HDPMI32.EXE -R
MODE CO80,50
CLS

dosmcli.exe --bus ALL -U fwa.img --segmented 10 -p c400:00:070H

ECHO Finished.


Waar het natuurlijk om gaat is de dosmcli.exe regel :)


Wel een vage ISO trouwens : Gebruikt Linux om een DOS omgeving te booten :+
Ik zou niet weten hoe dat moet. Als ik google op windows 7 live boot cd dan krijg ik allemaal vage oplossingen die me niet echt bevallen.

En ik kan niet uit crucials website opmaken of dat uberhaupt wel kan met hun downloads:
http://www.crucial.com/us..._-ssd-support-page-button
Linux of FreeDOS uiteraard hé!

En dat moet gewoon prima lukken voor zover ik kan zien.


Dit heeft ondertussen weinig met ZFS te maken trouwens... :$

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • LigeTRy
  • Registratie: Juli 2010
  • Laatst online: 17-10 09:06
Hey all!

Ben zelf wat nieuw op het gebied van ZFS en heb eigenlijk een paar korte vragen.

Situatieschets: Ik heb nu een desktop draaien met een ubuntu (server) onder HyperV. Hier hangen 4 HDD's in (naast m'n SSD) waarvan ik er 1 voor windows meuk gebruik. Ik hou er dus 3 over voor m'n "server". Over enkele maanden wil ik een dedicated server bouwen zodat ik de boel netjes gesplitst heb, tegen die tijd koop ik er nog een paar extra HDD's bij.

1. Op het internet kom ik verschillende berichten tegen dat het niet mogelijk is om een pool uit te breiden met een nieuwe schijf. Hoe zit dit precies. andere websites stellen wel dat dit mogelijk is.

2. Hoe is de ervaring met compression in ZFS? is het echt zo tof als wordt beweerd?

3. Als ik naar een nieuw systeem/OS ga, kan ik mijn ZFS pool dan meenemen (OS staat hier natuurlijk niet op).

4. Met 3 harde schijven op het moment (1x 2tb, 2x 3tb) is de verstandigste keuze een RaidZ pool? Als ik het goed heb begrepen staat dit gelijk aan een RAID5 setup?

Thanks in advance!

[ Voor 7% gewijzigd door LigeTRy op 26-06-2018 19:38 ]


Acties:
  • +1 Henk 'm!
wessel145 schreef op dinsdag 26 juni 2018 @ 19:32:
1. Op het internet kom ik verschillende berichten tegen dat het niet mogelijk is om een pool uit te breiden met een nieuwe schijf. Hoe zit dit precies. andere websites stellen wel dat dit mogelijk is.
Dat is niet mogelijk. Je kan alleen je pool uitbreiden met een aanvullende vdev. Dus een RAIDZ2 met 4 schijven aanvullen met een mirror kan. Een RAIDZ2 met 4 met nog een RAIDZ met 4 kan ook. Echter een RAIDZ2 4 naar 8 binnen de vdev kan niet.
2. Hoe is de ervaring met compression in ZFS? is het echt zo tof als wordt beweerd?
Ja
3. Als ik naar een nieuw systeem/OS ga, kan ik mijn ZFS pool dan meenemen (OS staat hier natuurlijk niet op).
Meestal wel, even de feature flags vergelijken.
4. Met 3 harde schijven op het moment (1x 2tb, 2x 3tb) is de verstandigste keuze een RaidZ pool? Als ik het goed heb begrepen staat dit gelijk aan een RAID5 setup?
Als je dit in een RAIDZ zet, dan mis je 1TB van de 3TB schijven, dus dat is zonde. Het zou kunnen, als je snel je 2TB naar 3TB zodat je pool weer de volledige 3TB per schijf kan benutten.

Je kan ook overwegen om eerst de 3TB's in een mirror te zetten en er later een mirror bij te zetten met 2TB. Dan verlies je geen ruimte van je 3TB schijven.

Je kan ook een RAIDZ2 met één degraded schijf maken. Dan heb je in essentie een RAIDZ, maar kan je die RAIDZ in dit exotische geval wel omzetten naar een RAIDZ2.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ZaPPZion
  • Registratie: Februari 2009
  • Laatst online: 28-08 12:46
wessel145 schreef op dinsdag 26 juni 2018 @ 19:32:
2. Hoe is de ervaring met compression in ZFS? is het echt zo tof als wordt beweerd?
Afhankelijk van het soort bestanden dat je er op zet. Op het werk halen we 8/9% compressie, maar thuis heb ik ook datasets met 60% of meer compressie. JPGs gaan niet kleiner worden ;)

Acties:
  • 0 Henk 'm!

  • Giesber
  • Registratie: Juni 2005
  • Laatst online: 17-10 15:56
ZaPPZion schreef op dinsdag 26 juni 2018 @ 23:12:
[...]

Afhankelijk van het soort bestanden dat je er op zet. Op het werk halen we 8/9% compressie, maar thuis heb ik ook datasets met 60% of meer compressie. JPGs gaan niet kleiner worden ;)
Dat wel, maar het toffe eraan is dat je er niets van merkt (tenzij in bepaalde extreme gevallen).

[ Voor 12% gewijzigd door Giesber op 27-06-2018 10:37 ]


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Na jaren van stof verzamelen heb ik eindelijk mijn ZFS array weer up&running, maar het valt me op dat de random read/write enigszins tegenvalt. Als ik via een VM die op de pool zelf draait een benchmark doe met CrystalDiskMark is de 4KiB Q32T1 70-80MB/s en de 4KiB Q1T1 ~14MB/s. Ga ik deze sneller krijgen met een SSD voor ZIL/L2ARC doeleinden?

Acties:
  • 0 Henk 'm!

  • Sandor_Clegane
  • Registratie: Januari 2012
  • Niet online

Sandor_Clegane

Fancy plans and pants to match

Xudonax schreef op vrijdag 29 juni 2018 @ 08:55:
Na jaren van stof verzamelen heb ik eindelijk mijn ZFS array weer up&running, maar het valt me op dat de random read/write enigszins tegenvalt. Als ik via een VM die op de pool zelf draait een benchmark doe met CrystalDiskMark is de 4KiB Q32T1 70-80MB/s en de 4KiB Q1T1 ~14MB/s. Ga ik deze sneller krijgen met een SSD voor ZIL/L2ARC doeleinden?
Je kan sync eens uitzetten en dan de benchmark opnieuw draaien, is dit vele malen beter dan zou je dat kunnen overwegen ( een SSD bedoel ik ). Al zijn synced writes wel te verkiezen.

http://milek.blogspot.com...s-vs-asynchronous-io.html

sync=disabled

Een SSD als cache met mechanische schijven is naar mijn idee altijd een goed idee voor je reads.

[ Voor 6% gewijzigd door Sandor_Clegane op 29-06-2018 11:02 ]

Less alienation, more cooperation.


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Sandor_Clegane schreef op vrijdag 29 juni 2018 @ 10:51:
[...]


Je kan sync eens uitzetten en dan de benchmark opnieuw draaien, is dit vele malen beter dan zou je dat kunnen overwegen ( een SSD bedoel ik ). Al zijn synced writes wel te verkiezen.

http://milek.blogspot.com...s-vs-asynchronous-io.html

sync=disabled

Een SSD als cache met mechanische schijven is naar mijn idee altijd een goed idee voor je reads.
Helaas, dat levert bijna geen verschil op :-( Maar een SSD cache staat sowieso op mijn verlanglijstje dus ik moet eens even gaan kijken hoe ik die handig in ga bouwen. Dank je!

Acties:
  • 0 Henk 'm!
80MB/s 4KiB writes is 20.000 iops.... Dat is juist super goed?

Het wordt pas raar als je bij 1MB writes die snelheden haalt.

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
FireDrunk schreef op vrijdag 29 juni 2018 @ 19:59:
80MB/s 4KiB writes is 20.000 iops.... Dat is juist super goed?

Het wordt pas raar als je bij 1MB writes die snelheden haalt.
De 70~80MB/s 4k writes met een queuedepth van 32 is ook niet mijn grootste punt, ik had vooral gehoopt om mijn 4k writes met een queuedepth van 1 sneller te krijgen dan ~14MB/s. Niet eens met een directe reden maar eerder omdat het het enige dat wat achterblijft op deze host.

Ik ga mijn SanDisk 32GB SSD voorlopig terug erin hangen, en dan staat enkel nog de upgrade naar 6x 5TB in plaats van 6x 1TB op de kortetermijnplanning.

Acties:
  • 0 Henk 'm!
Dat zijn pure sync writes, dat is niet heel slecht hoor.

Even niets...


Acties:
  • 0 Henk 'm!

  • Sandor_Clegane
  • Registratie: Januari 2012
  • Niet online

Sandor_Clegane

Fancy plans and pants to match

Xudonax schreef op vrijdag 29 juni 2018 @ 19:56:
[...]


Helaas, dat levert bijna geen verschil op :-( Maar een SSD cache staat sowieso op mijn verlanglijstje dus ik moet eens even gaan kijken hoe ik die handig in ga bouwen. Dank je!
Voor de gein heb ik dat ook eens getest op mijn Zpool mirror met 2 SSDs. Zijn gewoon ghetto Samsung 250GB SATA SSDs.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
-----------------------------------------------------------------------
CrystalDiskMark 6.0.1 x64 (C) 2007-2018 hiyohiyo
                          Crystal Dew World : https://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 bytes/s [SATA/600 = 600,000,000 bytes/s]
* KB = 1000 bytes, KiB = 1024 bytes

   Sequential Read (Q= 32,T= 1) :   824.311 MB/s
  Sequential Write (Q= 32,T= 1) :   199.308 MB/s
  Random Read 4KiB (Q=  8,T= 8) :    36.568 MB/s [   8927.7 IOPS]
 Random Write 4KiB (Q=  8,T= 8) :     8.783 MB/s [   2144.3 IOPS]
  Random Read 4KiB (Q= 32,T= 1) :    35.477 MB/s [   8661.4 IOPS]
 Random Write 4KiB (Q= 32,T= 1) :    15.500 MB/s [   3784.2 IOPS]
  Random Read 4KiB (Q=  1,T= 1) :     7.229 MB/s [   1764.9 IOPS]
 Random Write 4KiB (Q=  1,T= 1) :    13.728 MB/s [   3351.6 IOPS]

  Test : 1024 MiB [C: 41.8% (20.8/49.7 GiB)] (x5)  [Interval=5 sec]
  Date : 2018/06/30 9:07:46
    OS : Windows Server 2012 R2 Server Standard (full installation) [6.3 Build 9600] (x64)


Dit is wel een QCow2 volume op een dataset, misschien is een ZVOL sneller.

Less alienation, more cooperation.


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Sandor_Clegane schreef op zaterdag 30 juni 2018 @ 09:11:
[...]


Voor de gein heb ik dat ook eens getest op mijn Zpool mirror met 2 SSDs. Zijn gewoon ghetto Samsung 250GB SATA SSDs.

code:
1
...


Dit is wel een QCow2 volume op een dataset, misschien is een ZVOL sneller.
Hmm, dat is niet eens zo héél veel trager dan mijn resultaten. Ik hang ook rond de 3500 IOPS bij de random writes. Mijn onderliggende infra is echter een RAW file op een RAID-Z2 array van 6 1TB harde schijven. Knap dat het dan toch mee kan komen.

Afbeeldingslocatie: https://cdn.discordapp.com/attachments/286279073238351874/461992412626157568/unknown.png

Acties:
  • 0 Henk 'm!

  • Sandor_Clegane
  • Registratie: Januari 2012
  • Niet online

Sandor_Clegane

Fancy plans and pants to match

Xudonax schreef op zaterdag 30 juni 2018 @ 14:57:
[...]


Hmm, dat is niet eens zo héél veel trager dan mijn resultaten. Ik hang ook rond de 3500 IOPS bij de random writes. Mijn onderliggende infra is echter een RAW file op een RAID-Z2 array van 6 1TB harde schijven. Knap dat het dan toch mee kan komen.

[afbeelding]
Als je het geld hebt is een Optane schijf als SLOG misschien een idee. :)

BTW ik heb hem nog een keer gedraaid:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
-----------------------------------------------------------------------
CrystalDiskMark 6.0.1 x64 (C) 2007-2018 hiyohiyo
                          Crystal Dew World : https://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 bytes/s [SATA/600 = 600,000,000 bytes/s]
* KB = 1000 bytes, KiB = 1024 bytes

   Sequential Read (Q= 32,T= 1) :   875.771 MB/s
  Sequential Write (Q= 32,T= 1) :   724.500 MB/s
  Random Read 4KiB (Q=  8,T= 8) :    45.241 MB/s [  11045.2 IOPS]
 Random Write 4KiB (Q=  8,T= 8) :    40.331 MB/s [   9846.4 IOPS]
  Random Read 4KiB (Q= 32,T= 1) :    43.377 MB/s [  10590.1 IOPS]
 Random Write 4KiB (Q= 32,T= 1) :    40.064 MB/s [   9781.3 IOPS]
  Random Read 4KiB (Q=  1,T= 1) :    39.074 MB/s [   9539.6 IOPS]
 Random Write 4KiB (Q=  1,T= 1) :    35.598 MB/s [   8690.9 IOPS]

  Test : 1024 MiB [C: 42.1% (20.9/49.7 GiB)] (x5)  [Interval=5 sec]
  Date : 2018/06/30 16:19:16
    OS : Windows Server 2012 R2 Server Standard (full installation) [6.3 Build 9600] (x64)


Beduidend beter, misschien dat de QCow nu niet ge-extend moest worden oid.

[ Voor 51% gewijzigd door Sandor_Clegane op 30-06-2018 16:21 ]

Less alienation, more cooperation.


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Toevallig heb ik eerder deze week (of vorige week?) ook (toegeven: een oude versie van) CrystalDiskMark gedraaid in een VM op mijn nieuwe server. Één test was op een raid-z2 met viermaal een Samsung EcoGreen, en de andere test zat een Optane SSD onder. De verschillen vond ik dusdanig minimaal dat ik al snel afgeleid had dat ik ZFS aan het testen was, en niet de schijven. Een kijkje in de grafieken gaf ook aan dat de CPU op de hypervisor op dat moment voor 50% werd belast (met enkel een pfSense- en de Windows-VM aan).

Overigens had ik me ook schuldig gemaakt aan een testgrootte van 1GB, terwijl ZFS ruim meer dan 1GB aan geheugen kan en mag gebruiken. Waarschijnlijk komen er wat meer realistische resultaten uit als je de testgrootte significant vergroot.

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Ja, als ik de testset op 32GiB zet dan lijken de cijfers een stuk netter. En een Optane SSD zit wel op mijn verlanglijstje, maar ik wil eerst nog 8 extra schijven kunnen mounten (dus dat is een extra backplane, schijfhouders en HBA) en daar 6x 5TB schijven in steken. Daarna ga ik naar een PCIe Optane SSD kijken :)

Afbeeldingslocatie: https://cdn.discordapp.com/attachments/286279073238351874/462712707150381066/unknown.png

Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 16-10 19:07
Hoi, graag wat advies. ZFS is al jaren zo stabiel dat ik het meeste vergeten ben ;)

Context: 10x3TB disk linux server met ZFS (ZoL), 24/7 aan.

Van de week een melding gezien dat de pool Degraded was. 1 van de disks was REMOVED, terwijl ik niets gedaan heb.
Server uit gezet, dag later kabels nagelopen en aangedrukt en opgestart. Resultaat: pool ONLINE en aan het Resilveren.
Duurt even, dus nu net heb ik weer gekeken. Ik krijg nu de volgende status.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
root@server:~$ zpool status -Lv
  pool: tank
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
  scan: resilvered 27.6G in 0h30m with 0 errors on Sat Jun 30 15:11:53 2018
config:

        NAME        STATE     READ WRITE CKSUM
        tank        ONLINE       0     0     0
          raidz2-0  ONLINE       0     0     0
            sdk     ONLINE       0     0     1   <---
            sdc     ONLINE       0     0     0
            sdj     ONLINE       0     0     0
            sdd     ONLINE       0     0     0
            sdb     ONLINE       0     0     0
            sda     ONLINE       0     0     0
            sdh     ONLINE       0     0     0
            sdf     ONLINE       0     0     0
            sdg     ONLINE       0     0     0
            sde     ONLINE       0     0     0

errors: No known data errors


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
root@server:~$ smartctl -a /dev/sdk
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.13.0-49-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red (AF)
Device Model:     WDC WD30EFRX-68AX9N0
LU WWN Device Id: 5 0014ee 00359c650
Firmware Version: 80.00A80
User Capacity:    3,000,592,982,016 bytes [3.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Tue Jul  3 23:13:15 2018 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                                        was never started.
                                        Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (41280) seconds.
Offline data collection
capabilities:                    (0x7b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        ( 414) minutes.
Conveyance self-test routine
recommended polling time:        (   5) minutes.
SCT capabilities:              (0x70bd) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   196   179   021    Pre-fail  Always       -       5183
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       347
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   041   040   000    Old_age   Always       -       43580
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       300
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       183
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       163
194 Temperature_Celsius     0x0022   113   098   000    Old_age   Always       -       37
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed without error       00%     21356         -
# 2  Extended offline    Completed without error       00%     19181         -
# 3  Short offline       Completed without error       00%     19167         -
# 4  Extended offline    Completed without error       00%     18482         -
# 5  Extended offline    Completed without error       00%     18433         -
# 6  Short offline       Completed without error       00%     18394         -
# 7  Extended offline    Completed without error       00%     16169         -
# 8  Short offline       Completed without error       00%     16139         -
# 9  Short offline       Completed without error       00%      6515         -
#10  Short offline       Completed without error       00%      6515         -
#11  Short offline       Completed without error       00%      4205         -
#12  Extended offline    Completed without error       00%       181         -
#13  Extended offline    Aborted by host               90%       173         -
#14  Extended offline    Interrupted (host reset)      50%        44         -
#15  Short offline       Completed without error       00%        41         -
#16  Short offline       Completed without error       00%        21         -
#17  Short offline       Completed without error       00%        11         -
#18  Short offline       Completed without error       00%         0         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.


Checksum error in de zpool?
Disk ziet er nog goed uit voor zijn leeftijd (als ik niets over het hoofd zie).

Moet ik een actie ondernemen of kan ik de fout clearen en vergeten?

Dank

Acties:
  • 0 Henk 'm!
Clear -> Scrub -> Clear -> Scrub

Als de fouten blijven, schijf vervangen.

Als de fouten bij willekeurige schijven voorkomen -> geheugen checken.

[ Voor 32% gewijzigd door CurlyMo op 03-07-2018 23:20 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Durandal schreef op dinsdag 3 juli 2018 @ 23:17:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
3 Spin_Up_Time 0x0027 196 179 021 Pre-fail Always - 5183

Disk ziet er nog goed uit voor zijn leeftijd (als ik niets over het hoofd zie).

Moet ik een actie ondernemen of kan ik de fout clearen en vergeten?
Ik zou die waarde effe met die van de andere disken vergelijken (neem aan dat het dezelfde zijn ?!) en als die teveel afwijkt de HDD vervangen.

Mijn idee is dat de HDD niet op tijd klaar stond om met de rest mee te doen :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 16-10 19:07
Bedankt,
de Spin_Up_Times zitten allemaal rond de 6000 behalve mijn boot-SSD, die zit op 3500 :D

Clean and scrub gedaan, geen fouten meer gevonden. Ik hou het op het warme weer, een los kabeltje of een kosmisch deeltje.

Acties:
  • 0 Henk 'm!

  • DaCoTa
  • Registratie: April 2002
  • Laatst online: 18-10 17:04
Wat kan er aan de hand zijn als de leessnelheid van een groot bestand vanaf een Samba share heel laag is (300 kB/s) terwijl de schrijfsnelheid wel ok is (6 MB/s)?

De server is een AMD A8-5500 met 16 GB ram, ZFSguru 11.0.008, een pool 6 disk RaidZ2. De snelheden zijn met zowel een Ubuntu als een Windows 10 client.

Acties:
  • 0 Henk 'm!

  • TommyboyNL
  • Registratie: Januari 2006
  • Niet online
DaCoTa schreef op maandag 9 juli 2018 @ 20:17:
Wat kan er aan de hand zijn als de leessnelheid van een groot bestand vanaf een Samba share heel laag is (300 kB/s) terwijl de schrijfsnelheid wel ok is (6 MB/s)?

De server is een AMD A8-5500 met 16 GB ram, ZFSguru 11.0.008, een pool 6 disk RaidZ2. De snelheden zijn met zowel een Ubuntu als een Windows 10 client.
Gaat het via andere protocollen (FTP, NFS, SCP) wel sneller? Gaat lokaal lezen ook zo traag? 6MB/s is overigens ook erg traag, test je toevallig over wifi?

Acties:
  • 0 Henk 'm!

  • DaCoTa
  • Registratie: April 2002
  • Laatst online: 18-10 17:04
TommyboyNL schreef op maandag 9 juli 2018 @ 20:24:
[...]

Gaat het via andere protocollen (FTP, NFS, SCP) wel sneller? Gaat lokaal lezen ook zo traag? 6MB/s is overigens ook erg traag, test je toevallig over wifi?
Nee, als ik een scp test met een machine die op dezefde switch zit, gaat het richting 100 MB/s. Een scp vanaf de Ubuntu client is idd via Wifi, dan is de topoligie ZFS - Sitecom LN-121 - Sitecom LN-120 - Asus RT N66U - Ubuntu Laptop. De andere client is ZFS - Sitecom LN-121 - Sitecom LN-120 - Windows 10, dus wel bedraad.

Het lijkt erop dat die LN-120 gaar is.

Acties:
  • +1 Henk 'm!

  • TommyboyNL
  • Registratie: Januari 2006
  • Niet online
@DaCoTa Wel een beest van een NAS neerzetten, en dan vervolgens je netwerk laten draaien op Sitecom spul... Interessante keuze :P
Wel mooi dat je een verwachte aan hebt kunnen wijzen.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 13:16

Pantagruel

Mijn 80486 was snel,....was!

DaCoTa schreef op maandag 9 juli 2018 @ 20:32:
[...]

Nee, als ik een scp test met een machine die op dezefde switch zit, gaat het richting 100 MB/s. Een scp vanaf de Ubuntu client is idd via Wifi, dan is de topoligie ZFS - Sitecom LN-121 - Sitecom LN-120 - Asus RT N66U - Ubuntu Laptop. De andere client is ZFS - Sitecom LN-121 - Sitecom LN-120 - Windows 10, dus wel bedraad.

Het lijkt erop dat die LN-120 gaar is.
Als je er echt werk van wilt maken dan laat je iperf los op je setup vanaf de verschillende pc's over de verschillende routes. Voordeel van iperf is dat vanuit t geheugen werkt en een zeer lage protocol overhead heeft.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • DaCoTa
  • Registratie: April 2002
  • Laatst online: 18-10 17:04
TommyboyNL schreef op maandag 9 juli 2018 @ 20:37:
@DaCoTa Wel een beest van een NAS neerzetten, en dan vervolgens je netwerk laten draaien op Sitecom spul... Interessante keuze :P
Wel mooi dat je een verwachte aan hebt kunnen wijzen.
:-) Die LN-120 is uit de ramsj-doos in de kelder getrokken en toegevoegd aan het netwerk na een verhuizing van de server. Ik wilde toch al andere switches bestellen ivm IGMP-snooping, zodat ik ip-tv niet op aparte kabels meer hoef te laten lopen, dus er zijn nu twee Netgear GS108Ev3 onderweg.

Wel leuk om een 5 jaar oude ZFS build (DaCoTa in "Het grote DIY RAID NAS topic deel 3") nog steeds als beest wordt aangeduid :-) Inmiddels zijn wel alle disks een keer vervangen.
Pantagruel schreef op maandag 9 juli 2018 @ 20:48:
[...]
Als je er echt werk van wilt maken dan laat je iperf los op je setup vanaf de verschillende pc's over de verschillende routes. Voordeel van iperf is dat vanuit t geheugen werkt en een zeer lage protocol overhead heeft.
Goed idee, als de nieuwe switches in het netwerk zitten zal ik eens een iperf draaien over de verschillende routes. Is wel duidelijk dat die LN-120 brak is, na een power cycle kwam er nog maar 64 kB/s over die lijn.

[ Voor 9% gewijzigd door DaCoTa op 10-07-2018 09:24 ]


Acties:
  • 0 Henk 'm!

  • vanaalten
  • Registratie: September 2002
  • Laatst online: 16:44
DaCoTa schreef op dinsdag 10 juli 2018 @ 09:07:
Is wel duidelijk dat die LN-120 brak is, na een power cycle kwam er nog maar 64 kB/s over die lijn.
"64k ought to be enough for anybody" ;)

Acties:
  • +2 Henk 'm!

  • DaCoTa
  • Registratie: April 2002
  • Laatst online: 18-10 17:04
Ok, beide Sitecoms vervangen door een Netgear GS108Ev3, transfer zit nu rond de 80 MB/s, dat lijkt me afdoende :-) Het kan best dat beide switches niet meer lekker werkten.

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 15:32
Vandaag kwam ik ineens tot de ontdekking dat m'n pool degraded staat.
Ik mis een disk deze is verwijderd door de administator gaf hij aan.
Na een reboot geeft ie dat helemaal niet meer aan maar hij ziet de disk niet meer.
(of het label zoals hij het zegt).

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
 pool: Tank
 state: DEGRADED
status: One or more devices could not be used because the label is missing or
        invalid.  Sufficient replicas exist for the pool to continue
        functioning in a degraded state.
action: Replace the device using 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-4J
  scan: scrub repaired 0B in 3h10m with 0 errors on Sun Jul  8 03:34:48 2018
config:

        NAME                                                    STATE     READ WRITE CKSUM
        Tank                                                    DEGRADED     0     0     0
          mirror-0                                              DEGRADED     0     0     0
            8091018388151779605                                 UNAVAIL      0     0     0  was /dev/disk/by-id/ata-ST2000                         DM001-1ER164_W4Z176HZ-part1
            ata-ST2000VN004-2E4164_Z5248BFT                     ONLINE       0     0     0
          mirror-1                                              ONLINE       0     0     0
            ata-ST2000DM001-1ER164_W4Z19AR3                     ONLINE       0     0     0
            ata-ST2000VN004-2E4164_Z524CWK8                     ONLINE       0     0     0
        cache
          nvme-SAMSUNG_MZVPW256HEGL-000H1_S34ENY0J516995-part5  ONLINE       0     0     0

errors: No known data errors


Waarom heeft die disk nu ineens 8091018388151779605 als naam? Omdat ie het label mist? Of de hele disk ?
Moet ik die dan gebruiken voor een replace?
code:
1
zpool replace Tank 8091018388151779605 /nieuwedisk

Acties:
  • 0 Henk 'm!
ComTech schreef op woensdag 18 juli 2018 @ 22:41:
Vandaag kwam ik ineens tot de ontdekking dat m'n pool degraded staat.
Ineens? Dan heb je je error reporting niet op orde. Je had dit vrij snel na het moment van degraderen in je mail of sms moeten hebben
Waarom heeft die disk nu ineens 8091018388151779605 als naam? Omdat ie het label mist? Of de hele disk ?
Begin eens met een:
code:
1
zpool online Tank 8091018388151779605

Om te zien of je de schijf weer online kunt brengen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 15:32
CurlyMo schreef op woensdag 18 juli 2018 @ 22:58:
[...]

Ineens? Dan heb je je error reporting niet op orde. Je had dit vrij snel na het moment van degraderen in je mail of sms moeten hebben


[...]
Heb inderdaad m'n error reporting niet op orde ik draai proxmox en krijg de mailserver niet aan de gang.
Was van plan om hier in de vakantie eens goed mee aan de gang te gaan..
Begin eens met een:
code:
1
zpool online Tank 8091018388151779605

Om te zien of je de schijf weer online kunt brengen.
Dat had ik de 1e keer ook geprobeerd en toen kreeg ik dezelfde melding als nu:
code:
1
cannot online 8091018388151779605: no such device in pool

Maar dan met een ander id zoals hij eerst was (/dev/disk/by-id/ata-ST2000DM001-1ER164_W4Z176HZ-part1).

Acties:
  • 0 Henk 'm!
Dan is de disk dus weg. Check even dmesg / kernel.log / /var/log/messages, journalctl (afhankelijk van distro).

Even niets...


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Tja, ik kwam er pasgeleden ook achter dat Zed me wel mailtjes stuurt over resilvers en een scrub met fouten, maar niet bij verdwijnende schijven. Moet ik ook nog eens naar kijken...

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 15:32
ComTech schreef op woensdag 18 juli 2018 @ 22:41:
Vandaag kwam ik ineens tot de ontdekking dat m'n pool degraded staat.
Ik mis een disk deze is verwijderd door de administator gaf hij aan.
De disk was dus echt overleden, hij spint op paar harde tikken en gaat weer uit,
Nieuwe disk erin en hij is aan het resilveren dat duurt nog wel even. (14 uur).
Dacht dat een RAID1-0 wel vrij snel resilverd ? (ongeveer 2 TB aan data).

Moet ook binnenkort maar eens m'n error reporting op orde brengen want het kan best dat ie al een tijdje de geest heeft gegeven.

Acties:
  • 0 Henk 'm!
Resilver begint heel langzaam, gaat later wel sneller.

Even niets...


Acties:
  • 0 Henk 'm!

  • jinglewood
  • Registratie: Juli 2015
  • Niet online
Allen, via advies van een mede-tweaker kom ik met deze vraag nu bij jullie:
jinglewood in "Het grote Proxmox VE topic"

tldr:

Op dit moment heb ik een zfs pool draaiend in FreeNAS 11 (=freebsd). Als ik zo op het internet rondkijk zijn er mensen die zeggen dat het een kwestie van export en import is, maar er zijn ook mensen die direct aangeven dat dit onmogelijk is vanwege verschil in feature flags en wanneer er sprake is van geli disk encryptie.
Mijn disks zijn nu niet meer geli-encrypted dus mijn vragen zijn als volgt:

1. Is het inderdaad een kwestie van export en import wanneer je overstapt van FreeNAS naar Proxmox?
2. Als er sprake is van een verschil in feature flags, is er dan iets te doen waardoor het alsnog te importeren is?

Alvast bedankt!

Acties:
  • 0 Henk 'm!
Begin eens met het te proberen. ZFS is robust. Als het niet gaat is er verder niks aan de hand. Als je de foutmelding plaats, dan kunnen we je weer verder helpen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-10 06:46
Is migreren van zfs guru naar freenas ook een kwestie van export en import, of beter maar nieuwe server inrichten pool met lege hdds maken en data copieren ?

Zou toch wel een keer een snellere samba versie willen.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
jacovn schreef op vrijdag 10 augustus 2018 @ 09:49:
Is migreren van zfs guru naar freenas ook een kwestie van export en import, of beter maar nieuwe server inrichten pool met lege hdds maken en data copieren ?

Zou toch wel een keer een snellere samba versie willen.
Zelfde antwoord. Probeer het eerst.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-10 06:46
CurlyMo schreef op vrijdag 10 augustus 2018 @ 09:55:
[...]

Zelfde antwoord. Probeer het eerst.
Deze (oude) thread geeft me weinig hoop
https://forums.freenas.or...ation-from-zfsguru.21551/

Kan wel een pool leeg maken de pool deleten en dan in een andere server met freenas een nieuwe pool maken van die leeg gemaakte hdd’s

Kost even wat tijd, maar goed starten en tig uur later weer kijken.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
Opnieuw, je weet het pas als je het geprobeerd hebt.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!
@jacovn
ZFSguru is zo oud, dat de feature flags die je nu in use hebt, waarschijnlijk allemaal prima werken op alle andere operating systems.

Hier staat een lijst met welke feature in welk OS werkt.
http://open-zfs.org/wiki/Features

Door:
zpool get all | grep feature

Uit te voeren kan je zien welke features *active* zijn (enabled is niet erg voor migratie).

In mijn geval:

root@nas:~# zpool get all | grep feature

archive  feature@async_destroy          enabled                        local
archive  feature@empty_bpobj            active                         local
archive  feature@lz4_compress           active                         local
archive  feature@multi_vdev_crash_dump  disabled                       local
archive  feature@spacemap_histogram     active                         local
archive  feature@enabled_txg            active                         local
archive  feature@hole_birth             active                         local
archive  feature@extensible_dataset     enabled                        local
archive  feature@embedded_data          active                         local
archive  feature@bookmarks              enabled                        local
archive  feature@filesystem_limits      disabled                       local
archive  feature@large_blocks           disabled                       local
archive  feature@large_dnode            disabled                       local
archive  feature@sha512                 disabled                       local
archive  feature@skein                  disabled                       local
archive  feature@edonr                  disabled                       local
archive  feature@userobj_accounting     disabled                       local

elli     feature@async_destroy          enabled                        local
elli     feature@empty_bpobj            active                         local
elli     feature@lz4_compress           active                         local
elli     feature@multi_vdev_crash_dump  enabled                        local
elli     feature@spacemap_histogram     active                         local
elli     feature@enabled_txg            active                         local
elli     feature@hole_birth             active                         local
elli     feature@extensible_dataset     active                         local
elli     feature@embedded_data          active                         local
elli     feature@bookmarks              enabled                        local
elli     feature@filesystem_limits      enabled                        local
elli     feature@large_blocks           enabled                        local
elli     feature@large_dnode            enabled                        local
elli     feature@sha512                 enabled                        local
elli     feature@skein                  enabled                        local
elli     feature@edonr                  enabled                        local
elli     feature@userobj_accounting     active                         local


Mijn archive pool is al heel oud, en mijn elli pool vrij nieuw, hier zie je dus dat bepaalde features wel of niet automatisch aangezet zijn.

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 13:16

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op vrijdag 10 augustus 2018 @ 10:48:
@jacovn
ZFSguru is zo oud, dat de feature flags die je nu in use hebt, waarschijnlijk allemaal prima werken op alle andere operating systems.

Hier staat een lijst met welke feature in welk OS werkt.
http://open-zfs.org/wiki/Features

Door:
zpool get all | grep feature

Uit te voeren kan je zien welke features *active* zijn (enabled is niet erg voor migratie).

In mijn geval:

root@nas:~# zpool get all | grep feature

archive  feature@async_destroy          enabled                        local
archive  feature@empty_bpobj            active                         local
archive  feature@lz4_compress           active                         local
archive  feature@multi_vdev_crash_dump  disabled                       local
archive  feature@spacemap_histogram     active                         local
archive  feature@enabled_txg            active                         local
archive  feature@hole_birth             active                         local
archive  feature@extensible_dataset     enabled                        local
archive  feature@embedded_data          active                         local
archive  feature@bookmarks              enabled                        local
archive  feature@filesystem_limits      disabled                       local
archive  feature@large_blocks           disabled                       local
archive  feature@large_dnode            disabled                       local
archive  feature@sha512                 disabled                       local
archive  feature@skein                  disabled                       local
archive  feature@edonr                  disabled                       local
archive  feature@userobj_accounting     disabled                       local

elli     feature@async_destroy          enabled                        local
elli     feature@empty_bpobj            active                         local
elli     feature@lz4_compress           active                         local
elli     feature@multi_vdev_crash_dump  enabled                        local
elli     feature@spacemap_histogram     active                         local
elli     feature@enabled_txg            active                         local
elli     feature@hole_birth             active                         local
elli     feature@extensible_dataset     active                         local
elli     feature@embedded_data          active                         local
elli     feature@bookmarks              enabled                        local
elli     feature@filesystem_limits      enabled                        local
elli     feature@large_blocks           enabled                        local
elli     feature@large_dnode            enabled                        local
elli     feature@sha512                 enabled                        local
elli     feature@skein                  enabled                        local
elli     feature@edonr                  enabled                        local
elli     feature@userobj_accounting     active                         local


Mijn archive pool is al heel oud, en mijn elli pool vrij nieuw, hier zie je dus dat bepaalde features wel of niet automatisch aangezet zijn.
Met FireDrunk.

Controleer je feature flags, export je pool, verander OS/transplantteer de schijven/wat dan ook en importeer de boel. In mijn handen toch al 3x succesvol gedaan (OpenIndiana ->ZFSguru->RedHat->Ubuntu), maar zoals altijd geen garanties en t risico dat je kat/hond afgeschoten wordt ;) (hou je back-up alvast paraat)

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 19:39
Heren (en dames) ZFS kenners, ik heb 1,5e vraag.

In mijn thuisserver heb ik een ZFS mirror bestaande uit twee schijven waar mijn backups op staan. I.v.m. de onweer van afgelopen dagen heb ik uit 'veiligheid' een schijf offline gezet en vervolgens fysiek uit de server gehaald. Nu heb ik deze weer teruggeplaatst en online gezet. So far so good. Maar hoe gaat dat precies als door omstandigheden de server wel was komen te overlijden? Had ik die ene schijf dan in een ander systeem kunnen plaatsen en importeren? Ik gok dat dat het geval is en deze dan degraded zal zijn i.v.m. de ontbrekende tweede schijf? Maar die schijf dan of verwijderd kan worden (dus van mirror naar een enkele schijf), of gereplaced met een vervangende schijf en zo dus de mirror herstelt.

En een semi gerelateerde vervolgvraag uit interesse. Als je een schijf uit een mirror offline haalt, vervolgens in een ander systeem importeert, eventueel data schrijft en de schijf dan terug plaatst in het originele systeem, wat gebeurt er dan? Heb je dan een conflict, waarbij de schijf geweigerd wordt? Of vind dan een resilver plaats op basis van de schijf die altijd aanwezig is geweest/online stond op het moment van terugplaatsen?

Acties:
  • +1 Henk 'm!
Antwoord op beide vragen is ja.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 19:39
Gezien ik meerdere opties noemde toch even om bevestiging vragen :P

1. De schijf kan in een ander systeem worden gezet en vervolgens kan de missende schijf of verwijderd of gereplaced worden
2. Als je een schijf in ander systeem gebruikt en dan terug plaatst in het originele systeem dan wordt deze geresilved op basis van de disk die gewoon altijd online is geweest (i.p.v. conflict omdat beide hun eigen set mutaties hebben gehad)

Correct?

Acties:
  • +1 Henk 'm!
1. Ja.
2. Als je beide schijven online gehad hebt zullen de laatst geschreven transacties verschillend zijn (inclusief timestamp) dat zal ZFS niet leuk vinden, en zie je daarna 2 pools, je moet dan zelf een (welke jij dus zelf kiest) schijf moeten attachen. Daarna zal ZFS een resilver starten om de data gelijk te trekken.

Even niets...


Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 15:32
Overgestapt van ProxMox naar Freenas maar helaas kon ik m'n volume niet importeren.
Ik wilde toch een andere configuratie dus dan maar opnieuw en m'n backup aangesproken.
Alle data is inmiddels weer terug en het draait prima alleen 1 ding kom ik niet uit.
Snapshots.
Met proxmox kon ik de .zfs snapshot dir zien en doorbladeren (met total commander).
Dit krijg ik met freenas niet voor elkaas.
de .zfs directory is wel zichtbaar via de cli in freenas.
Verborgen bestanden weergaven staat natuurlijk aan .
In m'n dataset opties staat de snapshot directory visable
Ik kom er niet meer uit.

wie helpt mij opweg?

Acties:
  • 0 Henk 'm!
Volgens mij is het tonen van de .zfs directory ergens een losse optie in FreeNAS.
Wil je hem zien in Samba? Dan zit het daar waarschijnlijk in de service options.

Even niets...

Pagina: 1 ... 185 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.