Even niets...
Wat betekent dat?FireDrunk schreef op woensdag 23 mei 2018 @ 18:37:
Specifieke model ken ik niet. Misschien kan je ergens vinden of je die met meerdere lanes kan aansluiten. Kunnen ze namelijk niet allemaal volgens mij.
Sinds de 2 dagen regel reageer ik hier niet meer
Waarom prik je er niet een tweede M1015 naast? Dat lijkt mij een nettere en goedkopere oplossing dan een expander. Of zijn je PCIe slots op?CurlyMo schreef op woensdag 23 mei 2018 @ 18:33:
[...]
Het zou dan gaan om een IBM M1015 i.c.m. een IBM x3650 (46M0997) mits dat ook nog een beetje zuinig is. Anders moet ik op zoek naar een betaalbare Ebay 16 poorts HBA en mijn M1015 verkopen. Onderlinge verbinding via 2x SFF-8087.
Precies, mini-itx bord.TommyboyNL schreef op woensdag 23 mei 2018 @ 18:59:
[...]
Waarom prik je er niet een tweede M1015 naast? Dat lijkt mij een nettere en goedkopere oplossing dan een expander. Of zijn je PCIe slots op?
Sinds de 2 dagen regel reageer ik hier niet meer
Een aantal expanders ondersteunen twee sas kabels van de controller tegelijk naar de expander, dus dan heb je meer bandbreedte. Niet echt nodig voor thuis, tenzij je ssds er aan hangt.
Even niets...
2 inputs inderdaad:FireDrunk schreef op woensdag 23 mei 2018 @ 19:02:
[...]
Een aantal expanders ondersteunen twee sas kabels van de controller tegelijk naar de expander, dus dan heb je meer bandbreedte. Niet echt nodig voor thuis, tenzij je ssds er aan hangt.

Sinds de 2 dagen regel reageer ik hier niet meer
Of je moet dat gaan "tweaken"
Inderdaad, zo'n mining riser met molex werkt primaIceTeaGX schreef op woensdag 23 mei 2018 @ 19:48:
Niet vergeten dat de meeste modellen een PCIe slot nodig hebben voor voeding.
Of je moet dat gaan "tweaken"
@FireDrunk Ik lees dat jij ook fan bent van de LSI 9201-16i. Misschien is het dan beter om mijn M1015 te verkopen en voor één 16 poorts HBA te gaan. De 16i gaat op ebay voor € 100,-. De 16e voor € 45,-. Dat moet met een SFF-8088 -> SFF-8087 ook prima gaan volgens mij.
[ Voor 34% gewijzigd door CurlyMo op 23-05-2018 22:06 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Been there, done it, still workingCurlyMo schreef op woensdag 23 mei 2018 @ 20:47:
[...]
Inderdaad, zo'n mining riser met molex werkt prima
@FireDrunk Ik lees dat jij ook fan bent van de LSI 9201-16i. Misschien is het dan beter om mijn M1015 te verkopen en voor één 16 poorts HBA te gaan. De 16i gaat op ebay voor € 100,-. De 16e voor € 45,-. Dat moet met een SFF-8088 -> SFF-8087 ook prima gaan volgens mij.
(Intel heeft btw SAS expanders die van een molex voorzien zijn, kun je die hobby-bob opstelling mee vermijden, maar dat terzijde)
De 16e is idd een optie, moet je alleen geen probs hebben met de kabel spaghetti die terug je case in gaat (evt. gat maken en een nette rubber grommit). Heb op vergelijkbare wijze wel eens een Areca externe RAID controller voor intern gebruik 'geschikt' gemaakt.
[ Voor 7% gewijzigd door Pantagruel op 24-05-2018 09:08 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Even niets...
Dus jouw ervaringen met SAS expanders zijn positief i.c.m. ZFS? Kan je iets zeggen over het verbruik? En welke expander was dat?
Die is niet super goedkoop te krijgen.(Intel heeft btw SAS expanders die van een molex voorzien zijn, kun je die hobby-bob opstelling mee vermijden, maar dat terzijde)
Ik heb insteekkaart sloten genoeg achterin mijn behuizing dus dat is geen punt.De 16e is idd een optie, moet je alleen geen probs hebben met de kabel spaghetti die terug je case in gaat (evt. gat maken en een nette rubber grommit). Heb op vergelijkbare wijze wel eens een Areca externe RAID controller voor intern gebruik 'geschikt' gemaakt.
Ze zijn wel te krijgen, maar voor welk prijskaartje? Dat is een beetje het punt. Of heb je nog tips voor kaarten die aan mijn aandacht zijn ontslipt.FireDrunk schreef op donderdag 24 mei 2018 @ 10:52:
Fan van de 16i is lang lang geleden, er zijn tegenwoordig veel nieuwere (lees: zuinigere) controllers te krijgen. SAS2008 based chipsets zijn eigenlijk al niet meer zo interresant.
Ik heb liever een paar schijven extra dan grote schijven. Scheelt toch weer redundantie. Desnoods een paar 2.5" HDD's van 2TB. En mijn case kan tenslotte prima 16 schijven huizen dus daar hoef ik het niet voor te laten. Stroomverbruik is wel een ding. Dus als het zuiniger kan.(heb zelf ook nog 2-3 van die controllers, maar gebruik ze eigenlijk nooit meer, vanwege stroomverbruik, en omdat schijven tegenwoordig zo groot zijn, dat het niet meer nodig is om veel schijven te hebben).
Sinds de 2 dagen regel reageer ik hier niet meer
Yep, werkt al een tierelier, verbruik heb ik nooit bepaald aangezien de prut meter destijds al heen gegaan was.CurlyMo schreef op donderdag 24 mei 2018 @ 10:59:
[...]
Dus jouw ervaringen met SAS expanders zijn positief i.c.m. ZFS? Kan je iets zeggen over het verbruik? En welke expander was dat?
De expander in kwestie is een Lenovo SAS expander, de 'unboxing' staat hoger op in dit topic.
Klopt, was destijds al een duur ding en duur gebleven[...]
Die is niet super goedkoop te krijgen.
[...]
Ik heb insteekkaart sloten genoeg achterin mijn behuizing dus dat is geen punt.
[...]
Ze zijn wel te krijgen, maar voor welk prijskaartje? Dat is een beetje het punt. Of heb je nog tips voor kaarten die aan mijn aandacht zijn ontslipt.
[...]
Ik heb liever een paar schijven extra dan grote schijven. Scheelt toch weer redundantie. Desnoods een paar 2.5" HDD's van 2TB. En mijn case kan tenslotte prima 16 schijven huizen dus daar hoef ik het niet voor te laten. Stroomverbruik is wel een ding. Dus als het zuiniger kan.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Mooie is dat met die zoekterm niets te vinden is
Sinds de 2 dagen regel reageer ik hier niet meer
Even niets...
Valt er nog iets te zeggen over 9217-16i?FireDrunk schreef op donderdag 24 mei 2018 @ 12:14:
De -8i is inderdaad beter te vinden.
Sinds de 2 dagen regel reageer ik hier niet meer
Externe broertje:
https://www.broadcom.com/...bus-adapters/sas-9202-16e
Interne varianten:
https://www.broadcom.com/...bus-adapters/sas-9305-16i
https://www.broadcom.com/...bus-adapters/sas-9300-16i
Even niets...
En de 9260-16i dan, is dat ook ruk?FireDrunk schreef op donderdag 24 mei 2018 @ 12:29:
Ah, ik heb een verkeerde aanname gedaan. Ik dacht, omdat ik een 9217-8i zag, dat er ook wel een 16i zou moeten bestaan, maar die is er dus niet.
Externe broertje:
https://www.broadcom.com/...bus-adapters/sas-9202-16e
Interne varianten:
https://www.broadcom.com/...bus-adapters/sas-9305-16i
https://www.broadcom.com/...bus-adapters/sas-9300-16i
De 930X-16i is veel te nieuw om betaalbaar te zijn. Dat € 200,- tot € 300,- verschil ga ik niet terugverdienen met een lager verbruik
[ Voor 11% gewijzigd door CurlyMo op 24-05-2018 12:55 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Even niets...
Niet als HBA te flashen?FireDrunk schreef op donderdag 24 mei 2018 @ 12:55:
Is geen HBA, is een 'echte' RAID controller.
Sinds de 2 dagen regel reageer ik hier niet meer
Even niets...
Ik las het inderdaad op fora. Dan is er dus eigenlijk nog geen betaalbaar 2de hands alternatief.FireDrunk schreef op donderdag 24 mei 2018 @ 12:56:
Ik gok van niet, is een andere SoC.
Sinds de 2 dagen regel reageer ik hier niet meer
https://www.ebay.com/itm/...81e307:g:NTMAAOSwdelZ0k-V
Hier kan lager verbruik niet tegenop...
Even niets...
Dat zeg ik tochFireDrunk schreef op donderdag 24 mei 2018 @ 12:58:
Holy sh*t: er zijn wel hele goedkope dingen te vinden:
https://www.ebay.com/itm/...81e307:g:NTMAAOSwdelZ0k-V
Hier kan lager verbruik niet tegenop...
Sinds de 2 dagen regel reageer ik hier niet meer
Even niets...
Ook voor de interne scheelt het al gauw € 200,- i.t.t. de nieuwe series. Dus volgens mij zijn ook die interne een prima deal.FireDrunk schreef op donderdag 24 mei 2018 @ 13:06:
Extern wordt veel meer gebruikt in grote JBOD enclosoures, dus snap het wel.
Sinds de 2 dagen regel reageer ik hier niet meer
Waarom? ik draai nu 5 jaar ZFS, maar FreeBSD ligt mij gewoon niet, elke keer moet ik een dag spenderen om hem volledig in orde te stellen, en enkele weken later loopt er wel iets mis, mijn kennis van de unix commands is nihil, dus ik moet overal google voor bijhalen om iets uit te voeren. en dit kost veel tijd. zaken als Plex, Virtualbox, Torrents, NZBD draaien allemaal niet lekker.
hoe kan ik nu het makkelijkste/snelste/goedkoopste overgaan naar Windows, waarbij ik mijn volledige pool omzet naar NTFS/ExFAT/...
mijn pool bestaat uit 10 disks van 3TB, in RAIDZ2. hiervan is 24TB in gebruik, dit zou ik kunnen terugdringen naar 20TB door bepaalde data naar mijn Synology nas te verhuizen, en Backups (non-crucial) te verwijderen.
iemand stelde al voor om eventueel een Cloud-service te gebruiken om de data te parkeren. maar mijn upload is 30Mbit. ik zou ook kunnen aankloppen bij een lokale Cloudaanbieder, en mijn server daar lokaal installeren.
voordat ik verderga wou ik hier toch even horen of er nog andere opties zijn
\\ Baloo \\ Mijn iRacing profiel
Sinds de 2 dagen regel reageer ik hier niet meer
V&A gevraagd: 20TB server gezocht voor datamigratie*CurlyMo schreef op donderdag 7 juni 2018 @ 17:07:
Een V&A advertentie plaatsen en hopen dat er een tweakers is met 20TB vrij?
\\ Baloo \\ Mijn iRacing profiel
Heb je andere alternatieven ook overwogen zoals een Proxmox, of (nog een) Synology?
Sinds de 2 dagen regel reageer ik hier niet meer
\\ Baloo \\ Mijn iRacing profiel
Waarom gebruik je dan geen FreeNAS?MikeVM schreef op donderdag 7 juni 2018 @ 17:59:
Het eenvoudigste is een paar harde schijven kopen en daar de data op parkeren. Maar ik weet niet of ik die route op wil gaan. Ik moet op mn uitgaven letteb
Met FreeNAS heb je enkel te maken met een Web UI en wordt er zelfs afgeraden om de terminal te gebruiken om instellingen aan te passen. Het is een stuk makkelijker te beheren en het mooiste van alles; je kan een ZFS pool gewoon importeren zonder je data kwijt te raken en als het toch niet fijn is kun je altijd nog kiezen om naar windows over te stappen. Maar zet het eens op een usb stick en probeer het uit.
Dit gaat heel flauw klinken:MikeVM schreef op donderdag 7 juni 2018 @ 16:46:voordat ik verderga wou ik hier toch even horen of er nog andere opties zijn
Disks formatteren als NTFS en data vanaf je backup terugzetten naar die nieuw geformatteerde NTFS schijven.
Nou gok ik, aangezien je het zelf nog niet bedacht had, dat je geen backup hebt. En dan mijn vraag: is dit een bewuste keuze geweest? En als je al het risico accepteert dat een stervende voeding al je data met zich meeneemt in z'n graf... dan is die data blijkbaar niet ZO belangrijk. Dus in dat geval kan je natuurlijk ook overwegen om nu even afscheid te nemen van je data en met ~20TB in Windows kaal te beginnen.
Linux? Ik draai ZOL op Ubuntu en heb er geen omkijken naar. Heb een aantal containers draaien en een aantal VMs vanaf een Zpool op dezelfde server.MikeVM schreef op donderdag 7 juni 2018 @ 16:46:
ik zou mijn ZFS build willen omzetten naar Windows.
Waarom? ik draai nu 5 jaar ZFS, maar FreeBSD ligt mij gewoon niet, elke keer moet ik een dag spenderen om hem volledig in orde te stellen, en enkele weken later loopt er wel iets mis, mijn kennis van de unix commands is nihil, dus ik moet overal google voor bijhalen om iets uit te voeren. en dit kost veel tijd. zaken als Plex, Virtualbox, Torrents, NZBD draaien allemaal niet lekker.
hoe kan ik nu het makkelijkste/snelste/goedkoopste overgaan naar Windows, waarbij ik mijn volledige pool omzet naar NTFS/ExFAT/...
mijn pool bestaat uit 10 disks van 3TB, in RAIDZ2. hiervan is 24TB in gebruik, dit zou ik kunnen terugdringen naar 20TB door bepaalde data naar mijn Synology nas te verhuizen, en Backups (non-crucial) te verwijderen.
iemand stelde al voor om eventueel een Cloud-service te gebruiken om de data te parkeren. maar mijn upload is 30Mbit. ik zou ook kunnen aankloppen bij een lokale Cloudaanbieder, en mijn server daar lokaal installeren.
voordat ik verderga wou ik hier toch even horen of er nog andere opties zijn
Less alienation, more cooperation.
Voor iemand met nul linux cli ervaring is dat ook al te hoog gegrepen.Sandor_Clegane schreef op donderdag 7 juni 2018 @ 18:54:
[...]
Linux? Ik draai ZOL op Ubuntu en heb er geen omkijken naar. Heb een aantal containers draaien en een aantal VMs vanaf een Zpool op dezelfde server.
Sinds de 2 dagen regel reageer ik hier niet meer
Je moet ergens beginnen.CurlyMo schreef op donderdag 7 juni 2018 @ 19:08:
[...]
Voor iemand met nul linux cli ervaring is dat ook al te hoog gegrepen.
En Windows Storage Spaces is ook redelijk Powershell gedreven. Snap je punt, just saying.
Less alienation, more cooperation.
heb vroeger linux server gehad, zolang er geen ernstige problemen opduiken is het allemaal goed te doen. maar ik maak fouten waardoor de server nog alleens vastloopt. en dan begin ik te prutsen tot het werkt, waar ik vaak meer fout doe dan goed.CurlyMo schreef op donderdag 7 juni 2018 @ 19:08:
[...]
Voor iemand met nul linux cli ervaring is dat ook al te hoog gegrepen.
ik wil gewoon het gemak van windows weer.
\\ Baloo \\ Mijn iRacing profiel
Wat ik begrijp will je windows als server gebruiken, en daar je leech stuff op draaien? Waarom niet windows in een vm (virtualbox is waarschijnlijk het makkeljkst, bhyve meer freebsd native) draaien? Dan moet je nog een keer met freebsd "knoeien" en daarna gebruik je de vm voor Plex, Virtualbox, Torrents, NZBD.MikeVM schreef op donderdag 7 juni 2018 @ 16:46:
ik zou mijn ZFS build willen omzetten naar Windows.
voordat ik verderga wou ik hier toch even horen of er nog andere opties zijn
(Of idd, proxmox, daar je zfs pool gebruiken, en een windows vm er in draaien. Maar dat is weer iets lastiger)
Hoewel ik denk dat het niet perse freebsd is wat de problemen levert, meer de software, die toch echt in de eerste plaats voor linux geschreven is en onder windows waarschijnlijk nog brakker werkt.
Sinds de 2 dagen regel reageer ik hier niet meer
@MikeVM ik heb nog een volume vrij van 27TB, je kan gerust je data eens komen parkeren, en ik draai ook een freenas met plex, sickrage, couchpotato & al die zaken. Draait super hier & ik moet hier amper naar omkijken.MikeVM schreef op donderdag 7 juni 2018 @ 16:46:
ik zou mijn ZFS build willen omzetten naar Windows.
Waarom? ik draai nu 5 jaar ZFS, maar FreeBSD ligt mij gewoon niet, elke keer moet ik een dag spenderen om hem volledig in orde te stellen, en enkele weken later loopt er wel iets mis, mijn kennis van de unix commands is nihil, dus ik moet overal google voor bijhalen om iets uit te voeren. en dit kost veel tijd. zaken als Plex, Virtualbox, Torrents, NZBD draaien allemaal niet lekker.
hoe kan ik nu het makkelijkste/snelste/goedkoopste overgaan naar Windows, waarbij ik mijn volledige pool omzet naar NTFS/ExFAT/...
mijn pool bestaat uit 10 disks van 3TB, in RAIDZ2. hiervan is 24TB in gebruik, dit zou ik kunnen terugdringen naar 20TB door bepaalde data naar mijn Synology nas te verhuizen, en Backups (non-crucial) te verwijderen.
iemand stelde al voor om eventueel een Cloud-service te gebruiken om de data te parkeren. maar mijn upload is 30Mbit. ik zou ook kunnen aankloppen bij een lokale Cloudaanbieder, en mijn server daar lokaal installeren.
voordat ik verderga wou ik hier toch even horen of er nog andere opties zijn
edit: whoops, te rap gepost, wou op voorbeeld drukken
[ Voor 10% gewijzigd door Demogorg0N op 08-06-2018 11:32 . Reden: te rap gepost ]
Heeft er iemand enige tips om datasets met multimedia (video) te tunen?
Compression lijkt me vrij zinloos hier, maar mogelijks zijn er andere interessante opties.
Wat is het doel dat je met die tuning wil bereiken?Tafelpoowt schreef op vrijdag 8 juni 2018 @ 17:22:
Heb hier recent een ZFS volume aangemaakt op een WD PR4100 NAS met debian stretch (en OMV).
Heeft er iemand enige tips om datasets met multimedia (video) te tunen?
Compression lijkt me vrij zinloos hier, maar mogelijks zijn er andere interessante opties.
Sinds de 2 dagen regel reageer ik hier niet meer
Momenteel gebruik ik enkel de NFS share opties en dat vind ik al prettig werken.
Wat me bvb. al opviel is dat je met aparte Download en Media datasets een tragere transfer hebt (van Download naar Media) omdat alles fysiek gekopieerd wordt.
Aangezien het nu gewoon 4 wd reds in RAIDZ zijn, kan ik nog eens experimenteren met caches, vb een SSD op USB3. Of is daar niet veel mee te winnen?
[ Voor 57% gewijzigd door Tafelpoowt op 08-06-2018 17:40 ]
Tenzij je je media 2 keer achter elkaar bekijkt, heb je niets aan een cache. De cache werkt namelijk bij de 2e keer aanvragen van de data.Tafelpoowt schreef op vrijdag 8 juni 2018 @ 17:28:
Aangezien het nu gewoon 4 wd reds in RAIDZ zijn, kan ik nog eens experimenteren met caches, vb een SSD op USB3. Of is daar niet veel mee te winnen?
Gewoon niet druk maken.Tafelpoowt schreef op vrijdag 8 juni 2018 @ 17:28:
Eigenlijk geen idee... better harder faster stronger?
Sinds de 2 dagen regel reageer ik hier niet meer
Kan je niet de SSD als meta-data cache gebruiken? Of vergis ik me nu?ZaPPZion schreef op vrijdag 8 juni 2018 @ 20:53:
[...]
Tenzij je je media 2 keer achter elkaar bekijkt, heb je niets aan een cache. De cache werkt namelijk bij de 2e keer aanvragen van de data.
Lukt helaas ook niet. Alle instructies van Crucial ten spijt herkent hij de gemaakte boot USB drive niet als boot drive.nero355 schreef op dinsdag 24 april 2018 @ 23:08:
[...]
Begrijp ik het goed dat je Crucial M4 SSD deze update nodig heeft : downloads: Crucial M4 070H (Waarschijnlijk die ervoor, maar dit is de laatste!)
Toch
Die update kan je gewoon zonder dataloss doen door middel van een USB stick met daarop de Update ISO weggeschreven
Niks spannends aan...
The blob ain't bothered. Its slime don't care. / The mind commands the body and it obeys. The mind orders itself and meets resistance.
Klinkt als een BIOS USB BOOT die i.c.m. een UEFI systeem "BIOS Legacy mode" nodig heeftDwarlorf schreef op zondag 10 juni 2018 @ 13:37:
Lukt helaas ook niet. Alle instructies van Crucial ten spijt herkent hij de gemaakte boot USB drive niet als boot drive.
Maar ik neem aan dat iemand bij Crucial dat al geroepen heeft...
Kan je anders niet gewoon een Live ISO'tje booten en dan handmatig het geheel uitvoeren vanaf de USB Stick die je al gemaakt hebt ?
Zo heb ik dat een keer in het verleden gedaan voor wat Samsung SSD's zodat ik niet elke keer hoefde te rebooten
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ja klopt, dat stond bij trouble shooting. Tenzij ik nog ergens een instelling in de BIOS over het hoofd heb gezien. Ik heb het net voor de zekerheid nogmaals geprobeerd, zowel 'Legacy Only' als 'Legacy and UEFI' instellingen.nero355 schreef op zondag 10 juni 2018 @ 13:54:
[...]
Klinkt als een BIOS USB BOOT die i.c.m. een UEFI systeem "BIOS Legacy mode" nodig heeft
Maar ik neem aan dat iemand bij Crucial dat al geroepen heeft...
Ik krijg krijg trouwens de melding dat het geen bootable drive betreft. Dus het kan zijn dat het daar ergens fout is gegaan maar ik heb ook meerdere keren een nieuwe bootable gemaakt.Maar ik heb gewoon crucials aanwijzingen opgevolgd: http://www.crucial.com/wc...rmware-update-070h-en.pdf
Ik zou niet weten hoe dat moet. Als ik google op windows 7 live boot cd dan krijg ik allemaal vage oplossingen die me niet echt bevallen.nero355 schreef op zondag 10 juni 2018 @ 13:54:
[...]
Kan je anders niet gewoon een Live ISO'tje booten en dan handmatig het geheel uitvoeren vanaf de USB Stick die je al gemaakt hebt ?
Zo heb ik dat een keer in het verleden gedaan voor wat Samsung SSD's zodat ik niet elke keer hoefde te rebooten
En ik kan niet uit crucials website opmaken of dat uberhaupt wel kan met hun downloads:
http://www.crucial.com/us..._-ssd-support-page-button
[ Voor 5% gewijzigd door Dwarlorf op 10-06-2018 14:43 ]
The blob ain't bothered. Its slime don't care. / The mind commands the body and it obeys. The mind orders itself and meets resistance.
Met Rufus zou je een FreeDOS USB Stick kunnen maken en dan gewoon handmatig wat dingetjes doen die ook in de Crucial ISO te vinden zijn als Rufus zelf al niet de oplossing is :Dwarlorf schreef op zondag 10 juni 2018 @ 14:39:
Ja klopt, dat stond bij trouble shooting. Tenzij ik nog ergens een instelling in de BIOS over het hoofd heb gezien. Ik heb het net voor de zekerheid nogmaals geprobeerd, zowel 'Legacy Only' als 'Legacy and UEFI' instellingen.
Ik krijg krijg trouwens de melding dat het geen bootable drive betreft. Dus het kan zijn dat het daar ergens fout is gegaan maar ik heb ook meerdere keren een nieuwe bootable gemaakt.Maar ik heb gewoon crucials aanwijzingen opgevolgd: http://www.crucial.com/wc...rmware-update-070h-en.pdf
1
2
3
4
5
6
7
8
9
10
| crucial-m4-070h-07-00.iso\BOOT\ISOLINUX\BOOT2880.IMG\AUTOEXEC.BAT @echo off SET dosdir=A:\ HDPMI32.EXE -R MODE CO80,50 CLS dosmcli.exe --bus ALL -U fwa.img --segmented 10 -p c400:00:070H ECHO Finished. |
Waar het natuurlijk om gaat is de dosmcli.exe regel
Wel een vage ISO trouwens : Gebruikt Linux om een DOS omgeving te booten
Linux of FreeDOS uiteraard hé!Ik zou niet weten hoe dat moet. Als ik google op windows 7 live boot cd dan krijg ik allemaal vage oplossingen die me niet echt bevallen.
En ik kan niet uit crucials website opmaken of dat uberhaupt wel kan met hun downloads:
http://www.crucial.com/us..._-ssd-support-page-button
En dat moet gewoon prima lukken voor zover ik kan zien.
Dit heeft ondertussen weinig met ZFS te maken trouwens...
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ben zelf wat nieuw op het gebied van ZFS en heb eigenlijk een paar korte vragen.
Situatieschets: Ik heb nu een desktop draaien met een ubuntu (server) onder HyperV. Hier hangen 4 HDD's in (naast m'n SSD) waarvan ik er 1 voor windows meuk gebruik. Ik hou er dus 3 over voor m'n "server". Over enkele maanden wil ik een dedicated server bouwen zodat ik de boel netjes gesplitst heb, tegen die tijd koop ik er nog een paar extra HDD's bij.
1. Op het internet kom ik verschillende berichten tegen dat het niet mogelijk is om een pool uit te breiden met een nieuwe schijf. Hoe zit dit precies. andere websites stellen wel dat dit mogelijk is.
2. Hoe is de ervaring met compression in ZFS? is het echt zo tof als wordt beweerd?
3. Als ik naar een nieuw systeem/OS ga, kan ik mijn ZFS pool dan meenemen (OS staat hier natuurlijk niet op).
4. Met 3 harde schijven op het moment (1x 2tb, 2x 3tb) is de verstandigste keuze een RaidZ pool? Als ik het goed heb begrepen staat dit gelijk aan een RAID5 setup?
Thanks in advance!
[ Voor 7% gewijzigd door LigeTRy op 26-06-2018 19:38 ]
Dat is niet mogelijk. Je kan alleen je pool uitbreiden met een aanvullende vdev. Dus een RAIDZ2 met 4 schijven aanvullen met een mirror kan. Een RAIDZ2 met 4 met nog een RAIDZ met 4 kan ook. Echter een RAIDZ2 4 naar 8 binnen de vdev kan niet.wessel145 schreef op dinsdag 26 juni 2018 @ 19:32:
1. Op het internet kom ik verschillende berichten tegen dat het niet mogelijk is om een pool uit te breiden met een nieuwe schijf. Hoe zit dit precies. andere websites stellen wel dat dit mogelijk is.
Ja2. Hoe is de ervaring met compression in ZFS? is het echt zo tof als wordt beweerd?
Meestal wel, even de feature flags vergelijken.3. Als ik naar een nieuw systeem/OS ga, kan ik mijn ZFS pool dan meenemen (OS staat hier natuurlijk niet op).
Als je dit in een RAIDZ zet, dan mis je 1TB van de 3TB schijven, dus dat is zonde. Het zou kunnen, als je snel je 2TB naar 3TB zodat je pool weer de volledige 3TB per schijf kan benutten.4. Met 3 harde schijven op het moment (1x 2tb, 2x 3tb) is de verstandigste keuze een RaidZ pool? Als ik het goed heb begrepen staat dit gelijk aan een RAID5 setup?
Je kan ook overwegen om eerst de 3TB's in een mirror te zetten en er later een mirror bij te zetten met 2TB. Dan verlies je geen ruimte van je 3TB schijven.
Je kan ook een RAIDZ2 met één degraded schijf maken. Dan heb je in essentie een RAIDZ, maar kan je die RAIDZ in dit exotische geval wel omzetten naar een RAIDZ2.
Sinds de 2 dagen regel reageer ik hier niet meer
Afhankelijk van het soort bestanden dat je er op zet. Op het werk halen we 8/9% compressie, maar thuis heb ik ook datasets met 60% of meer compressie. JPGs gaan niet kleiner wordenwessel145 schreef op dinsdag 26 juni 2018 @ 19:32:
2. Hoe is de ervaring met compression in ZFS? is het echt zo tof als wordt beweerd?
Dat wel, maar het toffe eraan is dat je er niets van merkt (tenzij in bepaalde extreme gevallen).ZaPPZion schreef op dinsdag 26 juni 2018 @ 23:12:
[...]
Afhankelijk van het soort bestanden dat je er op zet. Op het werk halen we 8/9% compressie, maar thuis heb ik ook datasets met 60% of meer compressie. JPGs gaan niet kleiner worden
[ Voor 12% gewijzigd door Giesber op 27-06-2018 10:37 ]
Je kan sync eens uitzetten en dan de benchmark opnieuw draaien, is dit vele malen beter dan zou je dat kunnen overwegen ( een SSD bedoel ik ). Al zijn synced writes wel te verkiezen.Xudonax schreef op vrijdag 29 juni 2018 @ 08:55:
Na jaren van stof verzamelen heb ik eindelijk mijn ZFS array weer up&running, maar het valt me op dat de random read/write enigszins tegenvalt. Als ik via een VM die op de pool zelf draait een benchmark doe met CrystalDiskMark is de 4KiB Q32T1 70-80MB/s en de 4KiB Q1T1 ~14MB/s. Ga ik deze sneller krijgen met een SSD voor ZIL/L2ARC doeleinden?
http://milek.blogspot.com...s-vs-asynchronous-io.html
sync=disabled
Een SSD als cache met mechanische schijven is naar mijn idee altijd een goed idee voor je reads.
[ Voor 6% gewijzigd door Sandor_Clegane op 29-06-2018 11:02 ]
Less alienation, more cooperation.
Helaas, dat levert bijna geen verschil opSandor_Clegane schreef op vrijdag 29 juni 2018 @ 10:51:
[...]
Je kan sync eens uitzetten en dan de benchmark opnieuw draaien, is dit vele malen beter dan zou je dat kunnen overwegen ( een SSD bedoel ik ). Al zijn synced writes wel te verkiezen.
http://milek.blogspot.com...s-vs-asynchronous-io.html
sync=disabled
Een SSD als cache met mechanische schijven is naar mijn idee altijd een goed idee voor je reads.
Het wordt pas raar als je bij 1MB writes die snelheden haalt.
Even niets...
De 70~80MB/s 4k writes met een queuedepth van 32 is ook niet mijn grootste punt, ik had vooral gehoopt om mijn 4k writes met een queuedepth van 1 sneller te krijgen dan ~14MB/s. Niet eens met een directe reden maar eerder omdat het het enige dat wat achterblijft op deze host.FireDrunk schreef op vrijdag 29 juni 2018 @ 19:59:
80MB/s 4KiB writes is 20.000 iops.... Dat is juist super goed?
Het wordt pas raar als je bij 1MB writes die snelheden haalt.
Ik ga mijn SanDisk 32GB SSD voorlopig terug erin hangen, en dan staat enkel nog de upgrade naar 6x 5TB in plaats van 6x 1TB op de kortetermijnplanning.
Even niets...
Voor de gein heb ik dat ook eens getest op mijn Zpool mirror met 2 SSDs. Zijn gewoon ghetto Samsung 250GB SATA SSDs.Xudonax schreef op vrijdag 29 juni 2018 @ 19:56:
[...]
Helaas, dat levert bijna geen verschil opMaar een SSD cache staat sowieso op mijn verlanglijstje dus ik moet eens even gaan kijken hoe ik die handig in ga bouwen. Dank je!
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
| ----------------------------------------------------------------------- CrystalDiskMark 6.0.1 x64 (C) 2007-2018 hiyohiyo Crystal Dew World : https://crystalmark.info/ ----------------------------------------------------------------------- * MB/s = 1,000,000 bytes/s [SATA/600 = 600,000,000 bytes/s] * KB = 1000 bytes, KiB = 1024 bytes Sequential Read (Q= 32,T= 1) : 824.311 MB/s Sequential Write (Q= 32,T= 1) : 199.308 MB/s Random Read 4KiB (Q= 8,T= 8) : 36.568 MB/s [ 8927.7 IOPS] Random Write 4KiB (Q= 8,T= 8) : 8.783 MB/s [ 2144.3 IOPS] Random Read 4KiB (Q= 32,T= 1) : 35.477 MB/s [ 8661.4 IOPS] Random Write 4KiB (Q= 32,T= 1) : 15.500 MB/s [ 3784.2 IOPS] Random Read 4KiB (Q= 1,T= 1) : 7.229 MB/s [ 1764.9 IOPS] Random Write 4KiB (Q= 1,T= 1) : 13.728 MB/s [ 3351.6 IOPS] Test : 1024 MiB [C: 41.8% (20.8/49.7 GiB)] (x5) [Interval=5 sec] Date : 2018/06/30 9:07:46 OS : Windows Server 2012 R2 Server Standard (full installation) [6.3 Build 9600] (x64) |
Dit is wel een QCow2 volume op een dataset, misschien is een ZVOL sneller.
Less alienation, more cooperation.
Hmm, dat is niet eens zo héél veel trager dan mijn resultaten. Ik hang ook rond de 3500 IOPS bij de random writes. Mijn onderliggende infra is echter een RAW file op een RAID-Z2 array van 6 1TB harde schijven. Knap dat het dan toch mee kan komen.Sandor_Clegane schreef op zaterdag 30 juni 2018 @ 09:11:
[...]
Voor de gein heb ik dat ook eens getest op mijn Zpool mirror met 2 SSDs. Zijn gewoon ghetto Samsung 250GB SATA SSDs.
code:
1 ...
Dit is wel een QCow2 volume op een dataset, misschien is een ZVOL sneller.

Als je het geld hebt is een Optane schijf als SLOG misschien een idee.Xudonax schreef op zaterdag 30 juni 2018 @ 14:57:
[...]
Hmm, dat is niet eens zo héél veel trager dan mijn resultaten. Ik hang ook rond de 3500 IOPS bij de random writes. Mijn onderliggende infra is echter een RAW file op een RAID-Z2 array van 6 1TB harde schijven. Knap dat het dan toch mee kan komen.
[afbeelding]
BTW ik heb hem nog een keer gedraaid:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
| ----------------------------------------------------------------------- CrystalDiskMark 6.0.1 x64 (C) 2007-2018 hiyohiyo Crystal Dew World : https://crystalmark.info/ ----------------------------------------------------------------------- * MB/s = 1,000,000 bytes/s [SATA/600 = 600,000,000 bytes/s] * KB = 1000 bytes, KiB = 1024 bytes Sequential Read (Q= 32,T= 1) : 875.771 MB/s Sequential Write (Q= 32,T= 1) : 724.500 MB/s Random Read 4KiB (Q= 8,T= 8) : 45.241 MB/s [ 11045.2 IOPS] Random Write 4KiB (Q= 8,T= 8) : 40.331 MB/s [ 9846.4 IOPS] Random Read 4KiB (Q= 32,T= 1) : 43.377 MB/s [ 10590.1 IOPS] Random Write 4KiB (Q= 32,T= 1) : 40.064 MB/s [ 9781.3 IOPS] Random Read 4KiB (Q= 1,T= 1) : 39.074 MB/s [ 9539.6 IOPS] Random Write 4KiB (Q= 1,T= 1) : 35.598 MB/s [ 8690.9 IOPS] Test : 1024 MiB [C: 42.1% (20.9/49.7 GiB)] (x5) [Interval=5 sec] Date : 2018/06/30 16:19:16 OS : Windows Server 2012 R2 Server Standard (full installation) [6.3 Build 9600] (x64) |
Beduidend beter, misschien dat de QCow nu niet ge-extend moest worden oid.
[ Voor 51% gewijzigd door Sandor_Clegane op 30-06-2018 16:21 ]
Less alienation, more cooperation.
Overigens had ik me ook schuldig gemaakt aan een testgrootte van 1GB, terwijl ZFS ruim meer dan 1GB aan geheugen kan en mag gebruiken. Waarschijnlijk komen er wat meer realistische resultaten uit als je de testgrootte significant vergroot.

Context: 10x3TB disk linux server met ZFS (ZoL), 24/7 aan.
Van de week een melding gezien dat de pool Degraded was. 1 van de disks was REMOVED, terwijl ik niets gedaan heb.
Server uit gezet, dag later kabels nagelopen en aangedrukt en opgestart. Resultaat: pool ONLINE en aan het Resilveren.
Duurt even, dus nu net heb ik weer gekeken. Ik krijg nu de volgende status.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
| root@server:~$ zpool status -Lv pool: tank state: ONLINE status: One or more devices has experienced an unrecoverable error. An attempt was made to correct the error. Applications are unaffected. action: Determine if the device needs to be replaced, and clear the errors using 'zpool clear' or replace the device with 'zpool replace'. see: http://zfsonlinux.org/msg/ZFS-8000-9P scan: resilvered 27.6G in 0h30m with 0 errors on Sat Jun 30 15:11:53 2018 config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 sdk ONLINE 0 0 1 <--- sdc ONLINE 0 0 0 sdj ONLINE 0 0 0 sdd ONLINE 0 0 0 sdb ONLINE 0 0 0 sda ONLINE 0 0 0 sdh ONLINE 0 0 0 sdf ONLINE 0 0 0 sdg ONLINE 0 0 0 sde ONLINE 0 0 0 errors: No known data errors |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
| root@server:~$ smartctl -a /dev/sdk smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.13.0-49-generic] (local build) Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org === START OF INFORMATION SECTION === Model Family: Western Digital Red (AF) Device Model: WDC WD30EFRX-68AX9N0 LU WWN Device Id: 5 0014ee 00359c650 Firmware Version: 80.00A80 User Capacity: 3,000,592,982,016 bytes [3.00 TB] Sector Sizes: 512 bytes logical, 4096 bytes physical Device is: In smartctl database [for details use: -P show] ATA Version is: ACS-2 (minor revision not indicated) SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s) Local Time is: Tue Jul 3 23:13:15 2018 CEST SMART support is: Available - device has SMART capability. SMART support is: Enabled === START OF READ SMART DATA SECTION === SMART overall-health self-assessment test result: PASSED General SMART Values: Offline data collection status: (0x00) Offline data collection activity was never started. Auto Offline Data Collection: Disabled. Self-test execution status: ( 0) The previous self-test routine completed without error or no self-test has ever been run. Total time to complete Offline data collection: (41280) seconds. Offline data collection capabilities: (0x7b) SMART execute Offline immediate. Auto Offline data collection on/off support. Suspend Offline collection upon new command. Offline surface scan supported. Self-test supported. Conveyance Self-test supported. Selective Self-test supported. SMART capabilities: (0x0003) Saves SMART data before entering power-saving mode. Supports SMART auto save timer. Error logging capability: (0x01) Error logging supported. General Purpose Logging supported. Short self-test routine recommended polling time: ( 2) minutes. Extended self-test routine recommended polling time: ( 414) minutes. Conveyance self-test routine recommended polling time: ( 5) minutes. SCT capabilities: (0x70bd) SCT Status supported. SCT Error Recovery Control supported. SCT Feature Control supported. SCT Data Table supported. SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0 3 Spin_Up_Time 0x0027 196 179 021 Pre-fail Always - 5183 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 347 5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0 9 Power_On_Hours 0x0032 041 040 000 Old_age Always - 43580 10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0 11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 300 192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 183 193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 163 194 Temperature_Celsius 0x0022 113 098 000 Old_age Always - 37 196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0 SMART Error Log Version: 1 No Errors Logged SMART Self-test log structure revision number 1 Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error # 1 Extended offline Completed without error 00% 21356 - # 2 Extended offline Completed without error 00% 19181 - # 3 Short offline Completed without error 00% 19167 - # 4 Extended offline Completed without error 00% 18482 - # 5 Extended offline Completed without error 00% 18433 - # 6 Short offline Completed without error 00% 18394 - # 7 Extended offline Completed without error 00% 16169 - # 8 Short offline Completed without error 00% 16139 - # 9 Short offline Completed without error 00% 6515 - #10 Short offline Completed without error 00% 6515 - #11 Short offline Completed without error 00% 4205 - #12 Extended offline Completed without error 00% 181 - #13 Extended offline Aborted by host 90% 173 - #14 Extended offline Interrupted (host reset) 50% 44 - #15 Short offline Completed without error 00% 41 - #16 Short offline Completed without error 00% 21 - #17 Short offline Completed without error 00% 11 - #18 Short offline Completed without error 00% 0 - SMART Selective self-test log data structure revision number 1 SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS 1 0 0 Not_testing 2 0 0 Not_testing 3 0 0 Not_testing 4 0 0 Not_testing 5 0 0 Not_testing Selective self-test flags (0x0): After scanning selected spans, do NOT read-scan remainder of disk. If Selective self-test is pending on power-up, resume after 0 minute delay. |
Checksum error in de zpool?
Disk ziet er nog goed uit voor zijn leeftijd (als ik niets over het hoofd zie).
Moet ik een actie ondernemen of kan ik de fout clearen en vergeten?
Dank
Als de fouten blijven, schijf vervangen.
Als de fouten bij willekeurige schijven voorkomen -> geheugen checken.
[ Voor 32% gewijzigd door CurlyMo op 03-07-2018 23:20 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Ik zou die waarde effe met die van de andere disken vergelijken (neem aan dat het dezelfde zijn ?!) en als die teveel afwijkt de HDD vervangen.Durandal schreef op dinsdag 3 juli 2018 @ 23:17:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
3 Spin_Up_Time 0x0027 196 179 021 Pre-fail Always - 5183
Disk ziet er nog goed uit voor zijn leeftijd (als ik niets over het hoofd zie).
Moet ik een actie ondernemen of kan ik de fout clearen en vergeten?
Mijn idee is dat de HDD niet op tijd klaar stond om met de rest mee te doen
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
de Spin_Up_Times zitten allemaal rond de 6000 behalve mijn boot-SSD, die zit op 3500
Clean and scrub gedaan, geen fouten meer gevonden. Ik hou het op het warme weer, een los kabeltje of een kosmisch deeltje.
De server is een AMD A8-5500 met 16 GB ram, ZFSguru 11.0.008, een pool 6 disk RaidZ2. De snelheden zijn met zowel een Ubuntu als een Windows 10 client.
Gaat het via andere protocollen (FTP, NFS, SCP) wel sneller? Gaat lokaal lezen ook zo traag? 6MB/s is overigens ook erg traag, test je toevallig over wifi?DaCoTa schreef op maandag 9 juli 2018 @ 20:17:
Wat kan er aan de hand zijn als de leessnelheid van een groot bestand vanaf een Samba share heel laag is (300 kB/s) terwijl de schrijfsnelheid wel ok is (6 MB/s)?
De server is een AMD A8-5500 met 16 GB ram, ZFSguru 11.0.008, een pool 6 disk RaidZ2. De snelheden zijn met zowel een Ubuntu als een Windows 10 client.
Nee, als ik een scp test met een machine die op dezefde switch zit, gaat het richting 100 MB/s. Een scp vanaf de Ubuntu client is idd via Wifi, dan is de topoligie ZFS - Sitecom LN-121 - Sitecom LN-120 - Asus RT N66U - Ubuntu Laptop. De andere client is ZFS - Sitecom LN-121 - Sitecom LN-120 - Windows 10, dus wel bedraad.TommyboyNL schreef op maandag 9 juli 2018 @ 20:24:
[...]
Gaat het via andere protocollen (FTP, NFS, SCP) wel sneller? Gaat lokaal lezen ook zo traag? 6MB/s is overigens ook erg traag, test je toevallig over wifi?
Het lijkt erop dat die LN-120 gaar is.
Wel mooi dat je een verwachte aan hebt kunnen wijzen.
Als je er echt werk van wilt maken dan laat je iperf los op je setup vanaf de verschillende pc's over de verschillende routes. Voordeel van iperf is dat vanuit t geheugen werkt en een zeer lage protocol overhead heeft.DaCoTa schreef op maandag 9 juli 2018 @ 20:32:
[...]
Nee, als ik een scp test met een machine die op dezefde switch zit, gaat het richting 100 MB/s. Een scp vanaf de Ubuntu client is idd via Wifi, dan is de topoligie ZFS - Sitecom LN-121 - Sitecom LN-120 - Asus RT N66U - Ubuntu Laptop. De andere client is ZFS - Sitecom LN-121 - Sitecom LN-120 - Windows 10, dus wel bedraad.
Het lijkt erop dat die LN-120 gaar is.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
:-) Die LN-120 is uit de ramsj-doos in de kelder getrokken en toegevoegd aan het netwerk na een verhuizing van de server. Ik wilde toch al andere switches bestellen ivm IGMP-snooping, zodat ik ip-tv niet op aparte kabels meer hoef te laten lopen, dus er zijn nu twee Netgear GS108Ev3 onderweg.TommyboyNL schreef op maandag 9 juli 2018 @ 20:37:
@DaCoTa Wel een beest van een NAS neerzetten, en dan vervolgens je netwerk laten draaien op Sitecom spul... Interessante keuze
Wel mooi dat je een verwachte aan hebt kunnen wijzen.
Wel leuk om een 5 jaar oude ZFS build (DaCoTa in "Het grote DIY RAID NAS topic deel 3") nog steeds als beest wordt aangeduid :-) Inmiddels zijn wel alle disks een keer vervangen.
Goed idee, als de nieuwe switches in het netwerk zitten zal ik eens een iperf draaien over de verschillende routes. Is wel duidelijk dat die LN-120 brak is, na een power cycle kwam er nog maar 64 kB/s over die lijn.Pantagruel schreef op maandag 9 juli 2018 @ 20:48:
[...]
Als je er echt werk van wilt maken dan laat je iperf los op je setup vanaf de verschillende pc's over de verschillende routes. Voordeel van iperf is dat vanuit t geheugen werkt en een zeer lage protocol overhead heeft.
[ Voor 9% gewijzigd door DaCoTa op 10-07-2018 09:24 ]
"64k ought to be enough for anybody"DaCoTa schreef op dinsdag 10 juli 2018 @ 09:07:
Is wel duidelijk dat die LN-120 brak is, na een power cycle kwam er nog maar 64 kB/s over die lijn.
Ik mis een disk deze is verwijderd door de administator gaf hij aan.
Na een reboot geeft ie dat helemaal niet meer aan maar hij ziet de disk niet meer.
(of het label zoals hij het zegt).
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
| pool: Tank state: DEGRADED status: One or more devices could not be used because the label is missing or invalid. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace the device using 'zpool replace'. see: http://zfsonlinux.org/msg/ZFS-8000-4J scan: scrub repaired 0B in 3h10m with 0 errors on Sun Jul 8 03:34:48 2018 config: NAME STATE READ WRITE CKSUM Tank DEGRADED 0 0 0 mirror-0 DEGRADED 0 0 0 8091018388151779605 UNAVAIL 0 0 0 was /dev/disk/by-id/ata-ST2000 DM001-1ER164_W4Z176HZ-part1 ata-ST2000VN004-2E4164_Z5248BFT ONLINE 0 0 0 mirror-1 ONLINE 0 0 0 ata-ST2000DM001-1ER164_W4Z19AR3 ONLINE 0 0 0 ata-ST2000VN004-2E4164_Z524CWK8 ONLINE 0 0 0 cache nvme-SAMSUNG_MZVPW256HEGL-000H1_S34ENY0J516995-part5 ONLINE 0 0 0 errors: No known data errors |
Waarom heeft die disk nu ineens 8091018388151779605 als naam? Omdat ie het label mist? Of de hele disk ?
Moet ik die dan gebruiken voor een replace?
1
| zpool replace Tank 8091018388151779605 /nieuwedisk |
Ineens? Dan heb je je error reporting niet op orde. Je had dit vrij snel na het moment van degraderen in je mail of sms moeten hebbenComTech schreef op woensdag 18 juli 2018 @ 22:41:
Vandaag kwam ik ineens tot de ontdekking dat m'n pool degraded staat.
Begin eens met een:Waarom heeft die disk nu ineens 8091018388151779605 als naam? Omdat ie het label mist? Of de hele disk ?
1
| zpool online Tank 8091018388151779605 |
Om te zien of je de schijf weer online kunt brengen.
Sinds de 2 dagen regel reageer ik hier niet meer
Heb inderdaad m'n error reporting niet op orde ik draai proxmox en krijg de mailserver niet aan de gang.CurlyMo schreef op woensdag 18 juli 2018 @ 22:58:
[...]
Ineens? Dan heb je je error reporting niet op orde. Je had dit vrij snel na het moment van degraderen in je mail of sms moeten hebben
[...]
Was van plan om hier in de vakantie eens goed mee aan de gang te gaan..
Dat had ik de 1e keer ook geprobeerd en toen kreeg ik dezelfde melding als nu:Begin eens met een:
code:
1 zpool online Tank 8091018388151779605
Om te zien of je de schijf weer online kunt brengen.
1
| cannot online 8091018388151779605: no such device in pool |
Maar dan met een ander id zoals hij eerst was (/dev/disk/by-id/ata-ST2000DM001-1ER164_W4Z176HZ-part1).
Even niets...
De disk was dus echt overleden, hij spint op paar harde tikken en gaat weer uit,ComTech schreef op woensdag 18 juli 2018 @ 22:41:
Vandaag kwam ik ineens tot de ontdekking dat m'n pool degraded staat.
Ik mis een disk deze is verwijderd door de administator gaf hij aan.
Nieuwe disk erin en hij is aan het resilveren dat duurt nog wel even. (14 uur).
Dacht dat een RAID1-0 wel vrij snel resilverd ? (ongeveer 2 TB aan data).
Moet ook binnenkort maar eens m'n error reporting op orde brengen want het kan best dat ie al een tijdje de geest heeft gegeven.
Even niets...
jinglewood in "Het grote Proxmox VE topic"
tldr:
Op dit moment heb ik een zfs pool draaiend in FreeNAS 11 (=freebsd). Als ik zo op het internet rondkijk zijn er mensen die zeggen dat het een kwestie van export en import is, maar er zijn ook mensen die direct aangeven dat dit onmogelijk is vanwege verschil in feature flags en wanneer er sprake is van geli disk encryptie.
Mijn disks zijn nu niet meer geli-encrypted dus mijn vragen zijn als volgt:
1. Is het inderdaad een kwestie van export en import wanneer je overstapt van FreeNAS naar Proxmox?
2. Als er sprake is van een verschil in feature flags, is er dan iets te doen waardoor het alsnog te importeren is?
Alvast bedankt!
Sinds de 2 dagen regel reageer ik hier niet meer
Zou toch wel een keer een snellere samba versie willen.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Zelfde antwoord. Probeer het eerst.jacovn schreef op vrijdag 10 augustus 2018 @ 09:49:
Is migreren van zfs guru naar freenas ook een kwestie van export en import, of beter maar nieuwe server inrichten pool met lege hdds maken en data copieren ?
Zou toch wel een keer een snellere samba versie willen.
Sinds de 2 dagen regel reageer ik hier niet meer
Deze (oude) thread geeft me weinig hoop
https://forums.freenas.or...ation-from-zfsguru.21551/
Kan wel een pool leeg maken de pool deleten en dan in een andere server met freenas een nieuwe pool maken van die leeg gemaakte hdd’s
Kost even wat tijd, maar goed starten en tig uur later weer kijken.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Opnieuw, je weet het pas als je het geprobeerd hebt.jacovn schreef op vrijdag 10 augustus 2018 @ 10:03:
[...]
Deze (oude) thread geeft me weinig hoop
https://forums.freenas.or...ation-from-zfsguru.21551/
Sinds de 2 dagen regel reageer ik hier niet meer
ZFSguru is zo oud, dat de feature flags die je nu in use hebt, waarschijnlijk allemaal prima werken op alle andere operating systems.
Hier staat een lijst met welke feature in welk OS werkt.
http://open-zfs.org/wiki/Features
Door:
zpool get all | grep feature
Uit te voeren kan je zien welke features *active* zijn (enabled is niet erg voor migratie).
In mijn geval:
root@nas:~# zpool get all | grep feature archive feature@async_destroy enabled local archive feature@empty_bpobj active local archive feature@lz4_compress active local archive feature@multi_vdev_crash_dump disabled local archive feature@spacemap_histogram active local archive feature@enabled_txg active local archive feature@hole_birth active local archive feature@extensible_dataset enabled local archive feature@embedded_data active local archive feature@bookmarks enabled local archive feature@filesystem_limits disabled local archive feature@large_blocks disabled local archive feature@large_dnode disabled local archive feature@sha512 disabled local archive feature@skein disabled local archive feature@edonr disabled local archive feature@userobj_accounting disabled local elli feature@async_destroy enabled local elli feature@empty_bpobj active local elli feature@lz4_compress active local elli feature@multi_vdev_crash_dump enabled local elli feature@spacemap_histogram active local elli feature@enabled_txg active local elli feature@hole_birth active local elli feature@extensible_dataset active local elli feature@embedded_data active local elli feature@bookmarks enabled local elli feature@filesystem_limits enabled local elli feature@large_blocks enabled local elli feature@large_dnode enabled local elli feature@sha512 enabled local elli feature@skein enabled local elli feature@edonr enabled local elli feature@userobj_accounting active local
Mijn archive pool is al heel oud, en mijn elli pool vrij nieuw, hier zie je dus dat bepaalde features wel of niet automatisch aangezet zijn.
Even niets...
Met FireDrunk.FireDrunk schreef op vrijdag 10 augustus 2018 @ 10:48:
@jacovn
ZFSguru is zo oud, dat de feature flags die je nu in use hebt, waarschijnlijk allemaal prima werken op alle andere operating systems.
Hier staat een lijst met welke feature in welk OS werkt.
http://open-zfs.org/wiki/Features
Door:
zpool get all | grep feature
Uit te voeren kan je zien welke features *active* zijn (enabled is niet erg voor migratie).
In mijn geval:
root@nas:~# zpool get all | grep feature archive feature@async_destroy enabled local archive feature@empty_bpobj active local archive feature@lz4_compress active local archive feature@multi_vdev_crash_dump disabled local archive feature@spacemap_histogram active local archive feature@enabled_txg active local archive feature@hole_birth active local archive feature@extensible_dataset enabled local archive feature@embedded_data active local archive feature@bookmarks enabled local archive feature@filesystem_limits disabled local archive feature@large_blocks disabled local archive feature@large_dnode disabled local archive feature@sha512 disabled local archive feature@skein disabled local archive feature@edonr disabled local archive feature@userobj_accounting disabled local elli feature@async_destroy enabled local elli feature@empty_bpobj active local elli feature@lz4_compress active local elli feature@multi_vdev_crash_dump enabled local elli feature@spacemap_histogram active local elli feature@enabled_txg active local elli feature@hole_birth active local elli feature@extensible_dataset active local elli feature@embedded_data active local elli feature@bookmarks enabled local elli feature@filesystem_limits enabled local elli feature@large_blocks enabled local elli feature@large_dnode enabled local elli feature@sha512 enabled local elli feature@skein enabled local elli feature@edonr enabled local elli feature@userobj_accounting active local
Mijn archive pool is al heel oud, en mijn elli pool vrij nieuw, hier zie je dus dat bepaalde features wel of niet automatisch aangezet zijn.
Controleer je feature flags, export je pool, verander OS/transplantteer de schijven/wat dan ook en importeer de boel. In mijn handen toch al 3x succesvol gedaan (OpenIndiana ->ZFSguru->RedHat->Ubuntu), maar zoals altijd geen garanties en t risico dat je kat/hond afgeschoten wordt
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
In mijn thuisserver heb ik een ZFS mirror bestaande uit twee schijven waar mijn backups op staan. I.v.m. de onweer van afgelopen dagen heb ik uit 'veiligheid' een schijf offline gezet en vervolgens fysiek uit de server gehaald. Nu heb ik deze weer teruggeplaatst en online gezet. So far so good. Maar hoe gaat dat precies als door omstandigheden de server wel was komen te overlijden? Had ik die ene schijf dan in een ander systeem kunnen plaatsen en importeren? Ik gok dat dat het geval is en deze dan degraded zal zijn i.v.m. de ontbrekende tweede schijf? Maar die schijf dan of verwijderd kan worden (dus van mirror naar een enkele schijf), of gereplaced met een vervangende schijf en zo dus de mirror herstelt.
En een semi gerelateerde vervolgvraag uit interesse. Als je een schijf uit een mirror offline haalt, vervolgens in een ander systeem importeert, eventueel data schrijft en de schijf dan terug plaatst in het originele systeem, wat gebeurt er dan? Heb je dan een conflict, waarbij de schijf geweigerd wordt? Of vind dan een resilver plaats op basis van de schijf die altijd aanwezig is geweest/online stond op het moment van terugplaatsen?
Sinds de 2 dagen regel reageer ik hier niet meer
Gezien ik meerdere opties noemde toch even om bevestiging vragenCurlyMo schreef op zaterdag 11 augustus 2018 @ 18:00:
Antwoord op beide vragen is ja.
1. De schijf kan in een ander systeem worden gezet en vervolgens kan de missende schijf of verwijderd of gereplaced worden
2. Als je een schijf in ander systeem gebruikt en dan terug plaatst in het originele systeem dan wordt deze geresilved op basis van de disk die gewoon altijd online is geweest (i.p.v. conflict omdat beide hun eigen set mutaties hebben gehad)
Correct?
2. Als je beide schijven online gehad hebt zullen de laatst geschreven transacties verschillend zijn (inclusief timestamp) dat zal ZFS niet leuk vinden, en zie je daarna 2 pools, je moet dan zelf een (welke jij dus zelf kiest) schijf moeten attachen. Daarna zal ZFS een resilver starten om de data gelijk te trekken.
Even niets...
Ik wilde toch een andere configuratie dus dan maar opnieuw en m'n backup aangesproken.
Alle data is inmiddels weer terug en het draait prima alleen 1 ding kom ik niet uit.
Snapshots.
Met proxmox kon ik de .zfs snapshot dir zien en doorbladeren (met total commander).
Dit krijg ik met freenas niet voor elkaas.
de .zfs directory is wel zichtbaar via de cli in freenas.
Verborgen bestanden weergaven staat natuurlijk aan .
In m'n dataset opties staat de snapshot directory visable
Ik kom er niet meer uit.
wie helpt mij opweg?
Wil je hem zien in Samba? Dan zit het daar waarschijnlijk in de service options.
Even niets...
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.