Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Ik verlies ook zoiets, hoort er gewoon bij denk ik.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Enige tijd geleden is er in dit topic ook al ergens iets over geschreven.
Zoek maar ff op.
Dan wordt het een stukje duidelijker.
De getallen die je ziet kloppen wel!

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
B2 schreef op zondag 04 mei 2014 @ 13:47:
Hoe zit het eigenlijk met hibernate en suspend ondersteuning in FreeBSD 10 (en zfsguru natuurlijk)?
Om de ondersteuning en power management te verbeteren is onlangs een vrij grote discussie ontstaan op de FreeBSD mailinglist. Er wordt onder andere gesproken over het verbeteren van de suspend/resume-functionaliteit en power management. Best goede ontwikkelingen, omdat dit gebieden zijn die FreeBSD als server OS dreigde te verwaarlozen. Idem de grafische infrastructuur; dat lijkt nu ook aardig richting Linux-kwaliteit te gaan met redelijk moderne KMS-drivers en nieuwe console driver (Newcons/vt).
Loekie schreef op dinsdag 06 mei 2014 @ 17:58:
Klinkt als de 5% gereserveerd voor root...
Dat geldt enkel voor UFS-filesystems en dan gaat het om 8%, tenzij met 'tunefs' anders ingesteld.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
[quote]Verwijderd schreef op dinsdag 06 mei 2014 @ 19:27:
[...]

Om de ondersteuning en power management te verbeteren is onlangs een vrij grote discussie ontstaan op de FreeBSD mailinglist. Er wordt onder andere gesproken over het verbeteren van de suspend/resume-functionaliteit en power management. Best goede ontwikkelingen, omdat dit gebieden zijn die FreeBSD als server OS dreigde te verwaarlozen. Idem de grafische infrastructuur; dat lijkt nu ook aardig richting Linux-kwaliteit te gaan met redelijk moderne KMS-drivers en nieuwe
B2 schreef op zondag 04 mei 2014 @ 13:47:
Hoe zit het eigenlijk met hibernate en suspend ondersteuning in FreeBSD 10 (en zfsguru natuurlijk)?
Ik laat mijn Nas (ubuntu met 3.14) nu elke nacht in hibernate gaan. 's ochtends wordt deze door de router middels wol opnieuw opgestart.
Ik zoek ook nog zoiets zodat mn nas in de avond om 23 u in standbye gaat en om 8 u in de ochtend weer aangaat.
Ik heb in mijn zoektocht naar een goeie os voor mn nas ook omv geprobeerd en daar was een script waar je dat allemaal in kon stellen.
Als dit ook nog in zfsguru zal komen heb ik echt de perfecte nas.
Ik ben ook niet echt een script maker maar dit zou het perfect maken.
Overigens na 2 weken geleden de laatste versie erop gezet te hebben draait alkes zonder ook maar 1 hickup.
Bedankt daarvoor cipHER.

[ Voor 3% gewijzigd door ikkeenjij36 op 06-05-2014 20:11 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Een werkend script, waarbij de nas in stanby gaat na 30 min geen gebruik of een uur, en automatisch terug aan zetten wanneer je naar de map met data wil gaan zou ook zeer handig zijn.

Iemand een idee of er zoiets bestaan ?

Acties:
  • 0 Henk 'm!
De 30 minuten geen gebruik is nogal lastig te meten... Er zijn zoveel services waar gebruik van gemaakt kan worden...

Samba,FTP, NFS, HTTP(s), iSCSI... Noem maar op...

Even niets...


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
FireDrunk schreef op dinsdag 06 mei 2014 @ 23:02:
De 30 minuten geen gebruik is nogal lastig te meten... Er zijn zoveel services waar gebruik van gemaakt kan worden...

Samba,FTP, NFS, HTTP(s), iSCSI... Noem maar op...
Daarom is het ook zo lastig.
Ik zie daarom meer in zoiets als ik voorstelde,weet alleen niet of zoiets mogelijk is om te maken?

Acties:
  • 0 Henk 'm!
Tja, je kan altijd een cronjob maken die om 23:00 gewoon het poweroff commando aanroept...
Daarnaast zet je in je BIOS een wakup timer.

Lijkt mij vrij simpel?

Even niets...


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
jacovn schreef op dinsdag 06 mei 2014 @ 19:03:
Ik verlies ook zoiets, hoort er gewoon bij denk ik.
]Byte\[ schreef op dinsdag 06 mei 2014 @ 19:25:
Enige tijd geleden is er in dit topic ook al ergens iets over geschreven.
Zoek maar ff op.
Dan wordt het een stukje duidelijker.
De getallen die je ziet kloppen wel!
Ik heb 15 pagina's terug doorgespit, maar niet gevonden. Ik wil graag begrijpen waarom ik 1,7TB minder krijg dan wat ik op basis van een simpel rekensommetje theoretisch zou mogen verwachten. 1,7TB is nogal wat. Waar gaat dat aan op?

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
-Moondust- schreef op woensdag 07 mei 2014 @ 12:01:
[...]

Ik heb 15 pagina's terug doorgespit, maar niet gevonden.
Dan heb je 'm waarschijnlijk gemist... ;)
Ik heb 'm even voor je opgezocht: op pagina 48 van 60... zie je deze message staan van CiPHER
De verwarring treed op door TB en TiB.
Bruto heeft je pool 36,2 TB beschikbaar, maar omdat je RAID-Z2 gebruikt is dit 36,2/10*8=28,96 TB
28,96 TB = ~ 23,35... TiB

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
In mijn server wordt een 4 TB hdd door zfs guru als 3.6 TiB neergezet, die heb je 8 x netto dus 28.8 TiB zou je verwachten

Als pool size meld hij bij mij 36.2 T (34.3 T gebruikt) (dat is dan de totale pool size inclusief redundante hdd's)
Als File system size meldt hij: 26.1 T (1.08 T vrij)

Dat laatste zie ik ook in windows terug: 26.0TB system met 1.08 TB vrij

Ik verlies dan 10 TB zo te zien aan overhead.

2 x 3.6 TB is logisch voor raidZ2, dus dan heb je 7.2 TB verlies.
De rest zit dan in ZFS overhead.

[ Voor 23% gewijzigd door jacovn op 07-05-2014 13:14 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
jacovn schreef op woensdag 07 mei 2014 @ 12:58:
In mijn server wordt een 4 TB hdd door zfs guru als 3.6 TiB neergezet, [...]
De producenten verkopen het als 4 TB... Lees eens goed wat er (meestal) op het etiket van je HD staat...
1 GB = 1.000.000.000 bytes!
De 4 TB die ze verkopen zijn werkelijkheid 3,6379788070917 TiB
Wat dat betreft rapporteert ZFS die nog goed.
Het probleem zit 'm vaak ook hoe de software de getallen interpreteert. Daar gaan veel rekensommen mee de mist is.

De 3.6479788070917 TiB = 4000000000 KB (wat verkocht wordt als 4 TB)

Ik gebruik deze calculator om het om te rekenen.

* ]Byte[ wordt ook een beetje gek van de stoelendans rondom TiB en TB...

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Ik heb geen problemen met dit verlies. Gewoon een Volume erbij of een server erbij als ik meer op wil slaan. Ik hoef nooit meer terug naar losse hdds'of raid-5 met kans op onopgemerkte bitrot.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
@jacovn
Ik kan er ook wel mee leven, maar ik wil wel graag met zekerheid weten waar die 1,7 TiB naar toe is. Het probleem zit um mijns inziens niet in TB versus TiB. Ik weet dat 4TB schijven feitelijk ongeveer 3,6 TiB aan datacapaciteit hebben. Zoals jij al voorrekent zou dat in mijn geval dus 28,8 TiB moeten worden terwijl het feitelijk maar 27,1 TiB is. Ik vond onderstaande uitleg op een forum hetgeen erop wijst dat het dus met allocation overhead te maken heeft. Ik snap alleen niet of dit dan alleen betrekking heeft op de gerapporteerde grootte of dat het ook de werkelijke grootte beinvloed.
High overhead with 10 disks is because of allocation overhead.
128k / 4k = 32 sectors,
32 sectors / 8 data disks = 4 sectors per disk,
4 sectors per disk * (8 data disks + 2 parity disks) = 40 sectors.
40 is not a multiple of 3 so 2 sector padding is added. (5% overhead)
Bron: http://lists.freebsd.org/...d-fs/2013-May/017337.html

[ Voor 57% gewijzigd door -Moondust- op 07-05-2014 14:56 ]


Acties:
  • 0 Henk 'm!
Waar zie jij die 27,1 staan? Bij Zpool list?
Daar staat bij mij gewoon keurig 14.5T (En ik heb 4*4TB in RAIDZ1), dus dat klopt prima.

[ Voor 50% gewijzigd door FireDrunk op 07-05-2014 14:57 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
FireDrunk schreef op woensdag 07 mei 2014 @ 14:57:
Waar zie jij die 27,1 staan? Bij Zpool list?
In Windows 7 op mijn werkpc.

Acties:
  • 0 Henk 'm!
Ah, dat is FILEsystem reported size, niet POOL reported size...

Nogal een verschil, kijk eens bij zpool list.

Windows geeft hier zelfs maar 9.45TB aan als grootte van mijn main filesystem. Heeft te maken met dat een filesystem een bepaalde Allocatie heeft onder ZFS die niet 100% is.

[ Voor 44% gewijzigd door FireDrunk op 07-05-2014 14:58 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
ZFSGuru zegt:
Capaciteit: 36.2T (excl. parity 28,96T)
Gebruikt: 25.9T (excl. parity 20,72T)
Vrij: 10.3T (excl. parity 8,24T)

Windows zegt:
Capaciteit: 27,1TB
Gebruikt: 19,7TB
Vrij: 7,44TB

Ok, dus de grootte die ZFSguru rapporteert is juist en die Windows rapporteert is vanwege allocatie overhead onjuist? Zeg ik het goed zo?

[ Voor 61% gewijzigd door -Moondust- op 07-05-2014 15:06 ]


Acties:
  • 0 Henk 'm!
Nee, een filesystem neemt niet by default 100% van je pool in beslag. De maximale grootte van het filesystem is volgens mij wat ZFS *denkt* dat je filesystem nog kan groeien.

Hoe meer filesystems hoe lager dat getal wordt.

Even niets...


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
FireDrunk schreef op woensdag 07 mei 2014 @ 15:26:
Hoe meer filesystems hoe lager dat getal wordt.
Wat bedoel je hiermee? Ik bedoel, ik gebruik toch maar één filesystem?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Een ZFS pool heeft minimaal één filesystem, maar vrijwel altijd meerdere. ZFSguru maakt standaard een 'share' filesystem aan, en het is gebruikelijk dat je zelf ook wat filesystems aanmaakt om je data beter te scheiden. Filesystems in ZFS kun je zien als speciale directories, zodat je bijvoorbeeld compressie voor de ene dataset in kan schakelen en bij de andere juist weer uit. Dat lukt niet als de data zich in één filesystem bevindt.

Voor een overzicht van al je filesystems: zfs list

Bedenk verder dat er overhead is die ZFS incalculeert. Als je 100.000 bestanden hebt van 1 kilobyte, dan verbruik je meer ruimte dan 100.000 kilobyte, omdat voor elk bestand en het filesystem als geheel extra informatie opslaat. Dit noemen we de metadata, en is bijvoorbeeld de datum en rechtenstructuur, maar bij ZFS bijvoorbeeld ook de checksum en andere metadata.

Het is ook niet zo interessant om te lokaliseren waar de laatste druppel storage naartoe gaat. Je wilt sowieso een dikke 20% vrij hebben op je pool, dus over de 0,X % overhead hoef je je dan ook niet zo druk te maken.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Verwijderd schreef op woensdag 07 mei 2014 @ 16:57:
Het is ook niet zo interessant om te lokaliseren waar de laatste druppel storage naartoe gaat.
Voor de één misschien niet interessant, maar voor de ander wel een nice to know!
Het gaat er (mij persoonlijk) ook niet om om te gaan miere....n over waar de laatste bit is gebleven (what do I care with xx TB en sluit ik mij ook volledig aan op je 20%-regel), maar wel om beter inzicht te krijgen wat, hoe, waar en waarom iets gebeurd.

Als je dan ooit eens een probleem heb, en je snapt ook de achtergrond, dan is het ook vaak makkelijker voor troubleshooting.

Maarja... Als ik je blogs lees hoef ik dat jou toch ook niet uit te leggen... :+

[ Voor 5% gewijzigd door ]Byte[ op 07-05-2014 20:59 ]


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
Als ik zfs list doe krijg ik:

code:
1
2
3
4
5
6
7
8
9
10
11
zfsguru.bsd$ zfs list
NAME                            USED  AVAIL  REFER  MOUNTPOINT
Data                           19.9T  7.23T  19.9T  /Data
Data/share                      329K  7.23T   329K  /Data/share
Data/zfsguru                   1.08G  7.23T   347K  /Data/zfsguru
Data/zfsguru/10.1-001           802M  7.23T   109M  legacy
Data/zfsguru/10.1-001/usr       690M  7.23T   690M  legacy
Data/zfsguru/10.1-001/var      3.17M  7.23T  2.80M  legacy
Data/zfsguru/10.1-001/var/log   375K   128M   375K  legacy
Data/zfsguru/SWAP               165K  7.23T   165K  -
Data/zfsguru/download           303M  7.23T   303M  /Data/zfsguru/download


Op 128 MB na lijkt alles toegewezen aan het data filesystem, dus wat ik hier verlies lijkt me verwaarloosbaar. Blijft dan dus alleen de overhead van ZFS over. Deze is bij mij dan in dit geval ongeveer 5,8%, hetgeen ik best veel vind. Maar ik klaag niet, ZFS gaat mijn data goed beschermen en daar doe ik het voor.

Waar is de 20%-regel overigens goed voor? Performance op peil houden?

Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 14-09 19:36
-Moondust- schreef op woensdag 07 mei 2014 @ 21:14:


Waar is de 20%-regel overigens goed voor? Performance op peil houden?
ZFS wil graag alles achter elkaar weg schrijven en als je te weinig ruimte over hebt moet hij langer zoeken voordat de TXG kan worden weggeschreven.

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Q schreef op zondag 27 april 2014 @ 13:12:
Gezeur van mij tussendoor: vanaf begin af aan heb ik een haat / liefde verhouding met ZFS. Mijn indruk was altijd dat het ZFS-kamp je probeert bang te maken voor risico's die in werkelijkheid niet zo groot zijn als wordt gesuggereerd.

Met name de kans op een leesfout van 1 op 3 bij een 8 disk RAID 5 met 2 TB disks rebuild (ZDNET artikel) heeft enorm bijgedragen aan dit hele verhaal.

Hier een oud artikel (9 jaar oud) die actief URE's test.

http://arxiv.org/pdf/cs/0701166.pdf

Resultaat: veel beter dan de 10 x 10^14 die de fabrikanten voor de disks opgeven.

Puur afgaand op mijn eigen ervaring met disks kan ik die statistieken niet rijmen met wat ik heb waargenomen over de jaren. Mijn indruk is dat de URE veel meer op 10 x 10^15 ligt (mijn 20 x 1 TB spinpoints hebben die classificatie) en dat disks veel betrouwbaarder zijn dan wordt weergegeven.

Misschien moet ik maar eens een zooi disks gaan testen en kijken wat voor resultaten ik kan behalen. Dus data er op zetten, wat md5sums er overheen en lezen maar. Gewoon voor een week of langer. Afhankelijk van de disks waar mee ik test (reeds fouten geconstateerd) verwacht ik zelf eigenlijk nul URE's.

Een bezwaar wat ik heb betreffende te test van Microsoft, is dat niet de hele oppervlakte van de betreffende disks wordt benut, maar alleen een vers stukje. Bij een ouderwetse RAID rebuild moet ook data worden ingelezen die maanden niet is aangeraakt en mogelijk een rotte sector heeft.

Een x keer een RAID array stuk maken, rebuilden en de md5sum checken lijkt mij een mooie test om te zien hoe vaak je echt op een URE moet rekenen. Disk errors zie ik vanzelf wel in syslog.
Dit is iets wat ik al meerdere malen heb geroepen omdat de werkelijkheid/ervaring niet matched met de statistische cijfers die gegenereerd worden. Sinds dat artikeltje over raid-5-is-not-safe. Als het artikel namelijk klopt, zou elke raid array eindigen in unrecoverable degraded toestand sinds het begin der dagen Rebuild times zijn nu niet langer dan vroeger, vroeger waren disks trager en kleiner, maar relatief gezien even risicovol, je zou zelfs kunnen stellen dat SSDs super veilig zouden zijn vanwege de insane rebuild rate ... als ze niet de neiging hadden om in bosjes te falen.

Is URE niet een fysische verschijnsel? Zou bitrot dan niet simpelweg grotere rotte vlekken introduceren ipv. je kans verhogen. Legt zich maar bij de algemene gedachtegoed /temoe.

[ Voor 3% gewijzigd door analog_ op 07-05-2014 22:09 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 13:52
analog_ schreef op woensdag 07 mei 2014 @ 21:45:
[...]

Dit is iets wat ik al meerdere malen heb geroepen omdat de werkelijkheid/ervaring niet matched met de statistische cijfers die gegenereerd worden. Sinds dat artikeltje over raid-5-is-not-safe. Als het artikel namelijk klopt, zou elke raid array eindigen in unrecoverable degraded toestand sinds het begin der dagen Rebuild times zijn nu niet langer dan vroeger, vroeger waren disks trager en kleiner, maar relatief gezien even risicovol, je zou zelfs kunnen stellen dat SSDs super veilig zouden zijn vanwege de insane rebuild rate ... als ze niet de neiging hadden om in bosjes te falen.

Is URE niet een fysische verschijnsel? Zou bitrot dan niet simpelweg grotere rotte vlekken introduceren ipv. je kans verhogen. Legt zich maar bij de algemene gedachtegoed /temoe.
Als disks echt een 10^14 URE zouden hebben zouden scrubs behoorlijk regelmatig shit moeten vinden, maar volgens mij gebeurt dit zelfden.

In het kroegen topic heb ik een script gepost: kun je helpen mee testen. Op het moment van schrijven heb ik 263.21 TB aan data gegenereerd over 10 disks en nog steeds 0 errors. Geen MD5SUM errors, geen kernel errors over rotte disk sectoren.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Heeft iemand al eens NFS-exports gemaakt (en werkend) met 10.1-001?
Ik heb een share gemaakt, maar als ik een koppeling wil maken vanuit mijn ESX blijf ik de melding krijgen:
Op ESX:
code:
1
mount: mount to NFS server '192.168.2.100' failed: System Error: Connection refused.

en op ZFSguru:
code:
1
2
May  8 08:50:23 zfsguru mountd[971]: -mask and /masklen are mutually exclusive
May  8 08:50:23 zfsguru mountd[971]: bad exports list line /ssd_pool1/share -network


Uit pure frustratie heb ik de share zelfs public gemaakt (0.0.0.0/0) en nog steeds gaat het fout.

Wat doe ik verkeerd?

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Q schreef op donderdag 08 mei 2014 @ 00:31:
[...]


Als disks echt een 10^14 URE zouden hebben zouden scrubs behoorlijk regelmatig shit moeten vinden, maar volgens mij gebeurt dit zelfden.

In het kroegen topic heb ik een script gepost: kun je helpen mee testen. Op het moment van schrijven heb ik 263.21 TB aan data gegenereerd over 10 disks en nog steeds 0 errors. Geen MD5SUM errors, geen kernel errors over rotte disk sectoren.
Niet om grof/aggressief over te komen, maar bedenk je wel dat jouw ene test niet veel meer zal geven dan een empirisch resultaat; ja, je gebruikt meerdere disks, maar je gebruikt niet tientallen (al dan niet meer) separate (en toch identiek uitgevoerde) tests...

Voor het zelfde geval heb je een set disks die near-perfect uit productie zijn gekomen, en daarmee dus kop-en-schouder boven hun markt-partners uit steken, dat wil dan niet zeggen dat andere disks niet daar van last (kunnen) hebben.

Daarnaast, bedenk je dat dat getal niet veel meer is als het verwachte aantal branduren van een gloeilamp (waarbij de Centenial lightbulb dan een goed exemplaar is van een situatie waar het gemeten resultaat totaal niet aan de verwachting voldoet); uit hun tests (en PR machine) is gebleken dat het merendeel van hun disks minimaal zo lang mee gaan

Desalniettemin is het wel een interessante test die je uitvoert, al ben ik meer geïnteresseerd in wat er gaat gebeuren zodra die fouten -wel- optreden.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 13:52
DXaroth schreef op donderdag 08 mei 2014 @ 09:47:
Niet om grof/aggressief over te komen, maar bedenk je wel dat jouw ene test niet veel meer zal geven dan een empirisch resultaat; ja, je gebruikt meerdere disks, maar je gebruikt niet tientallen (al dan niet meer) separate (en toch identiek uitgevoerde) tests...
Dat is waar. Mijn test rammelt aan alle kanten vanuit wetenschappelijk oogpunt gezien.

Als er een wiskundige in de zaal is die gewent is om te berekenen hoegroot N moet zijn en hoeveel data ik moet rondpompen om wel iets te mogen concluderen, Ik hou me aanbevolen.
Voor het zelfde geval heb je een set disks die near-perfect uit productie zijn gekomen, en daarmee dus kop-en-schouder boven hun markt-partners uit steken, dat wil dan niet zeggen dat andere disks niet daar van last (kunnen) hebben.
Dat kan zo zijn, twee disks hebben 1 tot wel tientallen rotte sectoren. Die nummers zijn nog niet omhoog gegaan.

Ik test met disks van 5 jaar en ouder.
Daarnaast, bedenk je dat dat getal niet veel meer is als het verwachte aantal branduren van een gloeilamp (waarbij de Centenial lightbulb dan een goed exemplaar is van een situatie waar het gemeten resultaat totaal niet aan de verwachting voldoet); uit hun tests (en PR machine) is gebleken dat het merendeel van hun disks minimaal zo lang mee gaan
Ik pak 10 lampen van verschillende leveranciers van verschillend wattage maar allemaal met een branduren rating van 100. Ik laat ze branden en ze gaan 10.000 uur mee.

Ik denk dat dit wel iets zegt over die 100 uren rating. Dat je daar een korreltje zout bij mag nemen.
Dat getal zelf is waarschijnlijk geen natuurkundige constante, maar de vraag is waar de waarheid ligt.

Met UREs denk ik dat we eerder aan 10^15 of heel misschien wel aan 10^16 moeten denken.

Er zijn enterprise disks die 10^16 gerated worden... Kan verkoop onzin zijn. Maar toch.
Desalniettemin is het wel een interessante test die je uitvoert, al ben ik meer geïnteresseerd in wat er gaat gebeuren zodra die fouten -wel- optreden.
Op naar de petabyte!

[ Voor 20% gewijzigd door Q op 08-05-2014 15:05 ]


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
]Byte\[ schreef op donderdag 08 mei 2014 @ 08:58:
Heeft iemand al eens NFS-exports gemaakt (en werkend) met 10.1-001?
Ik heb een share gemaakt, maar als ik een koppeling wil maken vanuit mijn ESX blijf ik de melding krijgen:
Op ESX:
code:
1
mount: mount to NFS server '192.168.2.100' failed: System Error: Connection refused.

en op ZFSguru:
code:
1
2
May  8 08:50:23 zfsguru mountd[971]: -mask and /masklen are mutually exclusive
May  8 08:50:23 zfsguru mountd[971]: bad exports list line /ssd_pool1/share -network


Uit pure frustratie heb ik de share zelfs public gemaakt (0.0.0.0/0) en nog steeds gaat het fout.

Wat doe ik verkeerd?
Als je dezelfde problemen hebt als ik destijds: check even /etc/zfs/exports; als het goed is kan je in /var/log/messages zien dat de mount vanaf de client mislukt is vanwege een fout in /etc/zfs/exports.

Het commando dat zfsguru genereert om de nfsjes te sharen rammelt, qua IP-range. Ik bewerk het commando altijd voordat het uitgevoerd wordt; ik laat één ip-range in tact.

Ik heb er geen bug van gelogd, omdat het simpel te verhelpen was. Althans, bij mij....

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
hansdegit schreef op donderdag 08 mei 2014 @ 16:58:
[...]
Het commando dat zfsguru genereert om de nfsjes te sharen rammelt, qua IP-range. Ik bewerk het commando altijd voordat het uitgevoerd wordt; ik laat één ip-range in tact.
Heb ik exact ook gedaan.
Heb inmiddels een andere share gemaakt, maar geeft hetzelfde probleem. :?

/etc/zfs/exports
code:
1
2
3
4
5
[root@zfsguru /home/ssh]# cat /etc/zfs/exports 
# !!! DO NOT EDIT THIS FILE MANUALLY !!!

/hdd_pool1/nfs1 -alldirs -mapall=1000:1000 
[root@zfsguru /home/ssh]#

Het is overigens ook de enige file in /etc/zfs/

Wat 'bewerk' jij dan aan het commando precies?

[ Voor 3% gewijzigd door ]Byte[ op 08-05-2014 17:32 ]


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Ik bewerk het commando dusdanig dat ik alleen 192.168* overhoud. Post anders eens het commando wat zfsguru voor je probeert uit te voeren bij het sharen van je fs.

Zie je nog steeds de melding in /var/log/messages wanneer je vanaf je client probeert te mounten?

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • ElMacaroni
  • Registratie: November 2012
  • Laatst online: 13:58

ElMacaroni

Laat de zon maar komen!

]Byte\[ schreef op donderdag 08 mei 2014 @ 08:58:
Heeft iemand al eens NFS-exports gemaakt (en werkend) met 10.1-001?
Ik heb een share gemaakt, maar als ik een koppeling wil maken vanuit mijn ESX blijf ik de melding krijgen:
Op ESX:
code:
1
mount: mount to NFS server '192.168.2.100' failed: System Error: Connection refused.

en op ZFSguru:
code:
1
2
May  8 08:50:23 zfsguru mountd[971]: -mask and /masklen are mutually exclusive
May  8 08:50:23 zfsguru mountd[971]: bad exports list line /ssd_pool1/share -network


Uit pure frustratie heb ik de share zelfs public gemaakt (0.0.0.0/0) en nog steeds gaat het fout.

Wat doe ik verkeerd?
Is dat een installed versie of een live-bootversie? Ik heb die foutmeldingen wel gezien op de live-boot-versie, maar niet op de installed versie.

SE2200+14xSF170S & SE1500M+4xTSM-375


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
ElMacaroni schreef op donderdag 08 mei 2014 @ 19:28:
[...]

Is dat een installed versie of een live-bootversie? Ik heb die foutmeldingen wel gezien op de live-boot-versie, maar niet op de installed versie.
Installed versie...
Maar het lijkt iets met ESX te maken te hebben.
Vanaf mijn MacBook Pro werkt het wel!
Nog niet helemaal je van het qua doorvoersnelheid... Ik haal nu zo'n 55 MB/s.
Liever had ik het vanaf mijn ESX willen testen omdat die met 3 Gb trunk gekoppeld is, en mijn ZFSguru met 4 Gb.

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
Hoe vaak draaien jullie een scrub op een ZFS-pool met films, series en muziek? Eens per week, of is eens per maand ook prima om bitrot voldoende de kop in te drukken?

Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 02-10 19:22
-Moondust- schreef op donderdag 08 mei 2014 @ 20:44:
Hoe vaak draaien jullie een scrub op een ZFS-pool met films, series en muziek? Eens per week, of is eens per maand ook prima om bitrot voldoende de kop in te drukken?
Als ik in de smartdata van mijn schijven zie dat er bad sectoren zijn, dan pas draai ik 'm. Tot op heden nog maar een paar MB's recovered (en hele harde schijf :P ). Niets kwijtgeraakt overigens.

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 23-09 09:25
Mijn scrubs draaien keurig iedere week. Maar er staan, naast films, series en muziek, ook nog VMs, GIT repositories, "belangrijke" documenten etc op. Maar dan nog, als je de scrub wekelijks draait op een tijdstip dat je de machine toch niet gebruikt dan heb je er ook geen last van ;)

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
$ sudo zpool status
  pool: git
 state: ONLINE
  scan: scrub repaired 0 in 0h1m with 0 errors on Sat Apr 19 12:55:39 2014
config:

    NAME                                                 STATE     READ WRITE CKSUM
    git                                                  ONLINE       0     0     0
      mirror-0                                           ONLINE       0     0     0
        usb-SanDisk_Cruzer_Fit_4C532000031129106193-0:0  ONLINE       0     0     0
        usb-SanDisk_Cruzer_Fit_4C532000050913100011-0:0  ONLINE       0     0     0
      mirror-1                                           ONLINE       0     0     0
        usb-SanDisk_Cruzer_Fit_4C532000041129106180-0:0  ONLINE       0     0     0
        usb-SanDisk_Cruzer_Fit_4C532000040210122173-0:0  ONLINE       0     0     0

errors: No known data errors

  pool: tank
 state: ONLINE
  scan: scrub repaired 0 in 9h47m with 0 errors on Fri May  2 22:02:23 2014
config:

    NAME                                                STATE     READ WRITE CKSUM
    tank                                                ONLINE       0     0     0
      raidz2-0                                          ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_J810001VJ1Y3XA         ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J3ST5B         ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J3TXGB         ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB40001MGG3MJC         ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J4HGNB         ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J4J15B         ONLINE       0     0     0
    logs
      ata-INTEL_SSDSA2CW120G3_CVPR126608BS120LGN-part1  ONLINE       0     0     0

errors: No known data errors

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

-Moondust- schreef op donderdag 08 mei 2014 @ 20:44:
Hoe vaak draaien jullie een scrub op een ZFS-pool met films, series en muziek? Eens per week, of is eens per maand ook prima om bitrot voldoende de kop in te drukken?
Een keer in de maand doe ik het. Lijkt me al meer dan voldoende eigenlijk.

Acties:
  • 0 Henk 'm!

  • sphere
  • Registratie: Juli 2003
  • Laatst online: 10:00

sphere

Debian abuser

Is het eigenlijk mogelijk om grote files die je veel gebruikt toch te laten cachen in ZFS? Ik denk met name aan een HTPC waar je een batterij films hebt, maar er door sommige kijkers toch steeds dezelfde film wordt gekozen? Dan zouden de schijven kunnen downspinnen.

http://stackoverflow.com/questions/1732348/regex-match-open-tags-except-xhtml-self-contained-tags/1732454#1732454


Acties:
  • 0 Henk 'm!
L2ARC heeft 50% Most Frequently Used, en 50% Most Recently Used (by default).

Als jij het voor elkaar krijgt om die film dusdanig vaak te kijken dat hij in MFU komt, dan blijven je schijven in standby. De kans is alleen denk ik niet zo groot 8-)

Even niets...


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Verwijderd schreef op woensdag 07 mei 2014 @ 16:57:
Het is ook niet zo interessant om te lokaliseren waar de laatste druppel storage naartoe gaat. Je wilt sowieso een dikke 20% vrij hebben op je pool, dus over de 0,X % overhead hoef je je dan ook niet zo druk te maken.
Is dit de reden dat het systeem traag begint te worden bij de laatse 2 TB vrij op mijn systeem (24 en 32 tb bruto vlumes) ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 28-09 12:58

Kortfragje

......

Jep, 80 % - 85 % wordt over het algemeen aangehouden als vrije ruimte die je over moet houden. De reden hiervoor is copy-on-write. Terwijl nieuwe data geschreven wordt is de oude data nog op de schijven aanwezig, er dient dus extra vrije ruimte te zijn...
Keep pool space under 80% utilization to maintain pool performance. Currently, pool performance can degrade when a pool is very full and file systems are updated frequently, such as on a busy mail server. Full pools might cause a performance penalty, but no other issues. If the primary workload is immutable files (write once, never remove), then you can keep a pool in the 95-96% utilization range. Keep in mind that even with mostly static content in the 95-96% range, write, read, and resilvering performance might suffer.
http://serverfault.com/qu...n-a-pool-or-a-file-system

https://www.princeton.edu...ris/troubleshoot/zfs.html

[ Voor 32% gewijzigd door Kortfragje op 09-05-2014 17:04 ]

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 08:31
(jarig!)
Ik vind die percentages tegenwoordig zo out-dated. Heb je een pool van 15 TB, wil het ding (of dat nu een defragmentatieprogramma op NTFS is of ZFS copy-on-write of whatever anders...) 20% vrije ruimte...3 TB ;w

Heb je daarentegen een schijf die überhaupt maar 3 TB groot is dan werkt het hele proces feilloos met slechts 600 GB aan vrije ruimte 8)7 Heb je een schijf van 500 GB, dan werkt het feilloos met slechts 100 GB vrije ruimte.

Waarom heb je op een pool van 15 TB dan niet ook genoeg aan 100 GB? 8)7 Dat zijn nog altijd 800.000 blokken van 128K, aan 100 MB/sec ben je daar nog altijd 17 minuten op aan het schrijven 8)7

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 02-10 21:53

Ultraman

Moderator Harde Waren

Boefje

Het is een (oude) aanbeveling. Je kunt daar rustig overheen gaan, zeker als je pool dermate groot is.
Het gaat er om dat er vrije blokken beschikbaar zijn zodat er genoeg ruimte heeft om de data weg te schrijven zonder de oude te overschrijven, omdat copy-on-write.
Bovendien is het niet alsof je dan grote problemen krijgt, maar de performance gaat er merkbaar op achteruit. Dit heeft o.a. te maken met de structuur die ZFS hanteert en de fragmentatie welke daar uit voortkomt. Het zal per situatie dan ook wat verschillen.

3TB vrij op een 15TB pool lijkt mij ook voldoende vrije ruimte overigens. Probeer het eens om het zo vol te gooien en kijk wat het doet. Het zou kunnen dat het met maar 1.5TB vrij ook nog redelijk presteert. Meten is weten hè.

Aan de andere kant is 80% vol wel een moment waarop je wilt nadenken over uitbreiding of opruiming natuurlijk (uitzonderingen zoals bijv. een archief daargelaten).

Bekijk ook zeker even de eerste link van Kortfragje, daar staat een methode vermeldt waarmee je het ten koste van een hoge RAM gebruik nog verder kunt rekken.

[ Voor 33% gewijzigd door Ultraman op 09-05-2014 19:34 ]

Als je stil blijft staan, komt de hoek wel naar jou toe.


Acties:
  • 0 Henk 'm!

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
Even een paar snelle vraagjes:
- als je op een bestaande pool die data bevat een wijziging maakt aan bijv. de gebruikte checksum, wordt dit dan enkel voor nieuwe data toegepast? (ik ga er vanuit van wel?)
- Indien er geen terugwerkende kracht is, betekent dit dat een pool waarop een deel van de data later gewijzigd is een mix van beide checksums zal hebben?
- Als je de setting wijzigt en vervolgens een scrub doet, mag je er vanuit gaan dat alle checksums op een veilige manier naar de nieuwe keuze overzet worden?

Ik wil namelijk kijken of het veel verschil zou maken om terug te schakelen van SHA256 naar Flechter, maar niet als er risico's aan vast hangen ;)

Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 02-10 21:53

Ultraman

Moderator Harde Waren

Boefje

enthernal schreef op vrijdag 09 mei 2014 @ 19:39:
Even een paar snelle vraagjes:
- als je op een bestaande pool die data bevat een wijziging maakt aan bijv. de gebruikte checksum, wordt dit dan enkel voor nieuwe data toegepast? (ik ga er vanuit van wel?)
Ja, enkel op geschreven data na het wijzigen van de instelling.
- Indien er geen terugwerkende kracht is, betekent dit dat een pool waarop een deel van de data later gewijzigd is een mix van beide checksums zal hebben?
Inderdaad.
- Als je de setting wijzigt en vervolgens een scrub doet, mag je er vanuit gaan dat alle checksums op een veilige manier naar de nieuwe keuze overzet worden?
Nee, een scrub vervangt niet alles checksums naar de nieuwe bij mijn weten. Een scrub leest de data en de checksum en controleert of deze overeen komt, m.a.w.: integriteit OK? Zo ja, volgende blok | Zo nee, fixen indien mogelijk...

Die scrub zal zodoende ook alleen bij het schrijven van data, bv. herstel van eventuele corruptie, zo'n nieuwe checksum schrijven. Data met een correcte "oude" checksum is gewoon OK en door naar het volgende blok.

Als je alle data met van een ander soort checksum wilt voorzien zul je alle data opnieuw moeten schrijven.
Ik wil namelijk kijken of het veel verschil zou maken om terug te schakelen van SHA256 naar Flechter, maar niet als er risico's aan vast hangen ;)
Geen risico's bij mijn weten.
Ik zou dit echter op een nieuw leeg filesystem testen. Bij voorkeur zelfs op een losse disk buiten mijn eigen pool zelfs, door daarop een nieuwe testpool aan te maken. Zodat de benchmark ook niet beïnvloed wordt door de andere data op de "productie" pool.
Dan kun je op die testpool op die lege disk een filesystem aanmaken, checksum instellen, er wat data naar toe schrijven en benchmark. Vervolgens verwijder je het filesystem en de pool weer, wipe je eventueel de disk, en doe je het nogmaals met een andere checksum.

Als je stil blijft staan, komt de hoek wel naar jou toe.


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Zou het verschil kunnen maken in de hoeveelheid opslag?
Mogelijk wel.
Maar met dergelijke hoeveelheden opslagruimte verwacht ik dat het gepruts in de marge zal blijven.
(als het al überhaupt zichtbaar zal zijn...)
Even heel simplistisch: wat is het verschil in lengte van een SHA256 en een Fletcher checksum?
Dan zou je er een globale rekensom op los kunnen laten wat het verschil zou kunnen zijn.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Kan ik dan als ik de inhoud van een pool compleet copieer naar een andere pool, en vervolgens de pool clear of wat dan ook, en daarna alles terug copieer de fragmentatie weghalen, en de laatste 2 TB terugbrengen tot 500 GB die niet gebruikt wordt zonder snelheids verlies.

Het zijn bij mij films, dus redelijk statisch, totdat ik er 1 vervang voor een betere kwaleit (remux naar een originele rip of zo) of een film delete die ik niet meer wil bewaren na hem geIen te hebben.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
ter verduidelijking, ik bedoel verschil qua snelheid, opslag zit ik gelukkig goed ;)

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Ohhhh. Oke...
Qua snelheid zal je het, verwacht ik, alleen terug zien in een lagere CPU-load.
Verder... noppes.

Acties:
  • 0 Henk 'm!

  • elan
  • Registratie: Januari 2008
  • Laatst online: 21-09 20:40
Even een vraag aan jullie.

Een kennis van me is een videograaf.
Deze had veel data van projecten en dergelijke. Door een blikseminslag is zijn pc stuk gegaan. (Niet alleen zijn pc). En hij had natuurlijk geen backup.

Nu even het volgende als ik voor hem een machine wil bouwen met freenas erop als nas oplossing bij hem.
En ik verkoop hem dat systeem. Mag dat dan? Bedoel mag ik commercieel een product verkopen waar freenas op staat?

Alvast bedankt.

Acties:
  • 0 Henk 'm!

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
Dat mag gewoon, zolang je niets aanrekent voor het installeren van Freenas.

Acties:
  • 0 Henk 'm!

  • elan
  • Registratie: Januari 2008
  • Laatst online: 21-09 20:40
enthernal schreef op zaterdag 10 mei 2014 @ 16:31:
Dat mag gewoon, zolang je niets aanrekent voor het installeren van Freenas.
Oke dan bedankt voor je informatie. Reken gewoon een prijs voor het complete systeem wat al geconfigureerd is voor hem. Dus dat is mooi dat het mag.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
elan schreef op zaterdag 10 mei 2014 @ 16:06:
Door een blikseminslag is zijn pc stuk gegaan. (Niet alleen zijn pc). En hij had natuurlijk geen backup.

Nu even het volgende als ik voor hem een machine wil bouwen met freenas erop als nas oplossing bij hem.
En ik verkoop hem dat systeem. Mag dat dan? Bedoel mag ik commercieel een product verkopen waar freenas op staat?
Alleen FreeNAS (waarom geen ZFSguru? :+ ) is ook geen oplossing tegen blikseminslag.
Daar heb je wel wat meer voor nodig, en dat begint in de meterkast met een overspanningsbeveiliging.
enthernal schreef op zaterdag 10 mei 2014 @ 16:31:
Dat mag gewoon, zolang je niets aanrekent voor het installeren van Freenas.
Voor het installeren (uren) en de hardware mag je wel degelijk kosten doorberekenen.
Alleen voor het product FreeNAS zelf niet!

Acties:
  • 0 Henk 'm!

  • Goderic
  • Registratie: Februari 2009
  • Laatst online: 27-09 00:41
]Byte\[ schreef op zaterdag 10 mei 2014 @ 17:11:
[...]


Alleen FreeNAS (waarom geen ZFSguru? :+ ) is ook geen oplossing tegen blikseminslag.
Daar heb je wel wat meer voor nodig, en dat begint in de meterkast met een overspanningsbeveiliging.


[...]

Voor het installeren (uren) en de hardware mag je wel degelijk kosten doorberekenen.
Alleen voor het product FreeNAS zelf niet!
Waarom zou je geen geld mogen vragen voor FreeNAS?

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Goderic schreef op zondag 11 mei 2014 @ 10:33:
[...]

Waarom zou je geen geld mogen vragen voor FreeNAS?
Om exact dezelfde reden waarom je FreeNAS ook niet mag omkatten en er je eigen naam aan geven alsof het je eigen product is....
Voorwaarden, Licentie, GPL.... Ring a bell?

[ Voor 23% gewijzigd door ]Byte[ op 11-05-2014 11:19 ]


Acties:
  • 0 Henk 'm!

Verwijderd

]Byte\[ schreef op zondag 11 mei 2014 @ 11:18:
[...]

Om exact dezelfde reden waarom je FreeNAS ook niet mag omkatten en er je eigen naam aan geven alsof het je eigen product is....
Voorwaarden, Licentie, GPL.... Ring a bell?
FreeNAS heeft toch een BSD licentie?

Acties:
  • 0 Henk 'm!
Precies, met de BSD licentie mag dat wel... Hoe lang je dat vol kan houden is maar de vraag...

Even niets...


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
FireDrunk schreef op zondag 11 mei 2014 @ 11:39:
Precies, met de BSD licentie mag dat wel... Hoe lang je dat vol kan houden is maar de vraag...
Okay.... heb ik ook weer wat geleerd.
Je moet wel bedenken dat hoe je klant gaat reageren als ie er achter komt dat hij geld heeft moeten betalen voor een product wat gratis gedownload kan worden.
Dan denk ik dat de relatie met de klant van korte duur is.
Speel gewoon open kaart, en zeg dat ie voor de software niet hoeft te betalen, en geef gewoon aan dat ie alleen de manuren doorberekend worden.

Acties:
  • 0 Henk 'm!

  • Goderic
  • Registratie: Februari 2009
  • Laatst online: 27-09 00:41
]Byte\[ schreef op zondag 11 mei 2014 @ 11:18:
[...]

Om exact dezelfde reden waarom je FreeNAS ook niet mag omkatten en er je eigen naam aan geven alsof het je eigen product is....
Voorwaarden, Licentie, GPL.... Ring a bell?
Alle open source/vrije software mag je verkopen en je eigen naam aan geven.
Het enige dat je moet doen is de klant een kopie van de licentie geven, en in het geval van de GPL en andere de broncode. In het geval van de GPL mag je zelfs nog extra geld vragen voor de broncode ;)

Acties:
  • 0 Henk 'm!
Goderic schreef op zondag 11 mei 2014 @ 13:06:
[...]

Alle open source/vrije software mag je verkopen en je eigen naam aan geven.
Het enige dat je moet doen is de klant een kopie van de licentie geven, en in het geval van de GPL en andere de broncode. In het geval van de GPL mag je zelfs nog extra geld vragen voor de broncode ;)
Broncode vrijgeven hangt ook van de licentie af. Bij bijv. de apache 2 licentie hoeft dat niet. Mag je opensource producten als closed source distribueren. Dat is de reden dat veel android code een Apache 2 licentie heeft.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Hallo allemaal,ik wil mijn zfsguru nas uit gaan breiden.
Ik wil er 2x4tb hdd's bij gaan zetten en er moet er ook nog 1 vervangen worden uit mijn data pool,dat wordt echter een 2tb schijf want dat is de andere ook.
Het klopt toch dat je die moet vervangen voor 1 met dezelfde capaciteit?
Die wordt vervangen omdat er 1 inzit die meer als 1000 bad sectors heeft.
Wat is nu de beste manier om dit voor elkaar te krijgen?
Ik wil er minstens 4 tb bij gaan zetten.
Mijn schijven/pools zien er nu dus als volgt uit:
Startpool: een ocz vertex3 ssd 60Gb als systeem schijf.
DATApool:6x2Tb wd earx schijven in raidz1(door guru zelf aangegeven als ideale opstelling) waarvan er 1 dus zoveel bad sectors heeft.
Als jullie adviezen hebben dan graag.
Nog even een totaal andere vraag,is het normaal dat een scrub zolang duurt?
Scrub scrub in progress since Fri May 9 22:58:07 2014 6.04T scanned out of 7.80T at 29.1M/s, 17h35m to go 108K repaired, 77.48% done.

[ Voor 13% gewijzigd door ikkeenjij36 op 12-05-2014 14:36 ]


Acties:
  • 0 Henk 'm!
Wat is nu de beste weg om te gaan?
Je vraag een beetje leesbaar maken :X

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
108K repaired

zegt mij dat je een HDD hebt die helemaal naar z`en grootje is, oftewel zoveel bad sectors?

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
CurlyMo schreef op maandag 12 mei 2014 @ 14:09:
[...]

Je vraag een beetje leesbaar maken :X
Aangepast :P
rikadoo schreef op maandag 12 mei 2014 @ 14:12:
108K repaired

zegt mij dat je een HDD hebt die helemaal naar z`en grootje is, oftewel zoveel bad sectors?
Ja dat dacht ikzelf ook dus die moet zowiezo vervangen worden.
Zie mijn boven gestelde vraag :9

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
ikkeenjij36 schreef op maandag 12 mei 2014 @ 13:04:
Hallo allemaal,ik wil mijn zfsguru nas uit gaan breiden.
Ik wil er 2x4tb hdd's bij gaan zetten en er moet er ook nog 1 vervangen worden uit mijn data pool,dat wordt echter een 2tb schijf want dat is de andere ook.
Het klopt toch dat je die moet vervangen voor 1 met dezelfde capaciteit?
Die wordt vervangen omdat er 1 inzit die meer als 1000 bad sectors heeft.
Wat is nu de beste manier om dit voor elkaar te krijgen?
Eerst de foute hardeschijf vervangen. In Disks pagina je nieuwe schijf formatteren exact zoals de overige 2TB schijven. Dan op de Pools pagina op je pool klikken en bij de 'foute' schijf voor replace with disk X kiezen. Je gaat dan de foute schijf door een nieuwe 2TB schijf vervangen; de oude schijf moet aangesloten blijven tijdens deze procedure. Na de procedure is de foute 2TB schijf vrij en kun je die uit het systeem halen.
DATApool:6x2Tb wd earx schijven in raidz1(door guru zelf aangegeven als ideale opstelling)
6 schijven is alleen in RAID-Z2 een optimale configuratie. Zie de startpost voor details, in het kort:

RAID-Z: 3, 5 of 9 disks
RAID-Z2: 4, 6 of 10 disks
RAID-Z3: 5, 7 of 11 disks
Nog even een totaal andere vraag,is het normaal dat een scrub zolang duurt?
Scrub scrub in progress since Fri May 9 22:58:07 2014 6.04T scanned out of 7.80T at 29.1M/s, 17h35m to go 108K repaired, 77.48% done.
Als een schijf voor leesfouten zorgt en de hele pool naarbeneden trekt qua performance, dan zou dat kunnen. Ook als je heftige fragmentatie hebt en een volle pool is dit mogelijk.

Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Hier iemand ervaring met deduplicatie?

de volgende waarschuwing maakt me een beetje terughoudend:
ZFS v28 includes deduplication, which can be enabled at the dataset level. The more data you write to a deduplicated volume the more memory it requires, and there is no upper bound on this. When the system starts storing the dedup tables on disk because they no longer fit in RAM, performance craters. There is no way to undedup data once it is deduplicated, simply switching dedup off has NO AFFECT on the existing data. Furthermore, importing an unclean pool can require between 3-5GB of RAM per TB of deduped data, and if the system doesn't have the needed RAM it will panic, with the only solution being adding more RAM or recreating the pool. Think carefully before enabling dedup! Then after thinking about it use compression instead.
Ik maak gebruik van FreeNAS, de dataset waar ik deduplicatie voor overweeg aan te zetten is 3.6 TiB.
Eventueel kan ik voor 1 grote VM (disk van 1TB) nog een aparte dataset maken zonder deduplicatie, dan zou ik dus 2,6 TiB aan dedup data hebben. De pool bestaat uit 4 mirrors van 1TB disks.

Naast deze pool staat een media pool van 5x4 TB in zraid1. Deze wil ik in de toekomst uit breiden met 2 nieuwe vdev van 5x 4TB. Gaat dat nog extra geheugen verbruiken?

Onderstaand het systeem:

#ProductPrijsSubtotaal
1Intel Pentium G2020 Boxed€ 45,-€ 45,-
1ASRock B75 Pro3-M€ 46,61€ 46,61
8Samsung Spinpoint F3 HD103SJ, 1TB€ 0,-€ 0,-
1Ri-vier 4U 24bay SAS/SATA storage chassis - RVS4-06A----
2Intel PRO/1000 GT€ 29,99€ 59,98
1Kingston HyperX KHX1600C10D3B1K2/16G€ 132,-€ 132,-
1Kingston ValueRAM KVR1066D3N7K2/8G€ 0,-€ 0,-
1Seasonic G-Serie 450Watt€ 67,03€ 67,03
1Myricom 10G-PCIE-8A-C----
Bekijk collectie
Importeer producten
Totaal€ 350,62

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 08:31
(jarig!)
Ik heb dedup aan staan op twee datasets van beiden 500 GB. Op de ene sla ik de File History van de ene Windows 8-laptop op, op de andere de File History van de andere Win8-laptop.

Ik heb nog niet kunnen vinden hoe ik de dedup-ratio van een dataset opvraag, alleen van het hele volume. Dat vertekend natuurlijk want een ratio van 1.04 op het hele volume kan goed inhouden dat je 10 TB aan films @ 1.00 hebt opgeslagen en op 200 GB aan backups 7.23 (of zo) haalt... In Windows op de SMB share zijn de "grootte" en "op schijf" in ieder geval aan elkaar gelijk.

Verder heb ik nog niet echt gekeken wat het geheugen doet :) Moet er wel bij zeggen dat FreeNAS 64 GB ram ter beschikking heeft...

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Extera schreef op maandag 12 mei 2014 @ 15:09:
Ik maak gebruik van FreeNAS, de dataset waar ik deduplicatie voor overweeg aan te zetten is 3.6 TiB.
Zijn dat allemaal VM images die grote delen met elkaar delen? Of wil je dedup gewoon voor de grote dataset inschakelen? Dat laatste is gekkenwerk.

Deduplicatie gebruik je op filesystems met grote overlap. Dus bijvoorbeeld Ubuntu VM images als je er daar 100 van hebt met allemaal een kale installatie + wat meuk; dan hoef je de kale installatie maar één keer op te slaan in plaats van 100 keer. In dit geval kun je deduplicatie rustig inschakelen. Maar dedup inschakelen voor een grote dataset is vrijwel altijd een heel slecht idee. De paar procent storage die je er mee uitspaart is een totale crash van de performance absoluut niet waard. Geef een paar euro uit aan een paar extra GB als je verlegen zit om storage.

Dedupliatie is niet bedoeld voor casual users om wat extra opslag te krijgen. Het is bedoeld om datasets die erg op elkaar lijken te verenigen en hiermee enorm veel disk space te besparen. Alleen in specifieke situaties heeft het nut dus. In vrijwel alle gevallen wil je deduplicatie uitgeschakeld hebben. Overweeg LZ4-compressie als je een paar procent extra storage wilt. Of koop gewoon een schijf extra; ga dus niet je mooie ZFS server om zeep helpen vanwege onstilbare honger naar opslag.

Ps: PCI netwerkkaarten zijn not done. :P

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Als ik een update wil doen verteld zfsguru me dat ik naar mijn internet connectie moet kijken.

Nu had ik een default gateway 192.168.2.1 en dat is 192.168.2.254 geworden.
Ik heb de rc.conf aangepast: defaultrouter="192.168.2.254"

Daarna moest de resolv.conf nog aangepast worden.
nameserver 192.168.2.254

Ik had een search staan, maar die had de dns van mijn oude ISP (ooit via dhcp gegenereerd volgens mij)
Wat stel ik daar in ?

De man page wel gevonden uiteraard: http://www.freebsd.org/cgi/man.cgi?resolv.conf
maar kan ik daar niet beter een goolgle dns of zo inzetten ?

[ Voor 14% gewijzigd door jacovn op 12-05-2014 16:29 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Je DNS server van je Internet Service Provider. Normaal gebruik je DHCP. Als je statische IP gebruikt moet je dat handmatig instellen. Werkt hetzelfde als onder Linux.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 08:31
(jarig!)
De meeste thuisroutertjes zijn zelf ook (caching) DNS-server. Ik zou gewoon de gateway- en DNS-adressen overnemen van je desktop/laptop als je ZFSguru handmatig een adres geeft.

Zou ik wel doen, op diezelfde thuisroutertjes kunnen meestal geen reservering instellen in DHCP en je hebt natuurlijk het liefste dat je NAS altijd hetzelfde adres heeft.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Daarom gebruik ik ZFSguru ook als DHCP server. Al mijn machines via DHCP maar wel altijd hetzelfde IP adres wat ik zelf toeken aan mijn machines. DHCP-range doe ik dan vanaf .100 - dan weet je gelijk of de machine via DHCP wordt herkend aan het MAC-label of niet. Werkt heerlijk, totdat je internetprovider het leuk vindt je modem te resetten waardoor deze ook weer als DHCP-server gaat functioneren, met alle problemen tot gevolg. :+

Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 02-10 20:24
Verwijderd schreef op maandag 12 mei 2014 @ 15:00:
[...]

Eerst de foute hardeschijf vervangen. In Disks pagina je nieuwe schijf formatteren exact zoals de overige 2TB schijven. Dan op de Pools pagina op je pool klikken en bij de 'foute' schijf voor replace with disk X kiezen. Je gaat dan de foute schijf door een nieuwe 2TB schijf vervangen; de oude schijf moet aangesloten blijven tijdens deze procedure. Na de procedure is de foute 2TB schijf vrij en kun je die uit het systeem halen.
Dat is duidelijk, maar stel ik heb geen sata aansluiting meer beschikbaar, allemaal in gebruik voor een Raidz1 of Raidz2 pool, dus kan ik de nieuwe Disk niet online brengen, hoe los je dit dan op als zoals je zegt dat de oude Disk aangesloten moet blijven.
Is dit enkel een advies ,noodzakelijk of is het simpelweg beter om deze aangesloten te laten?

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Verwijderd schreef op maandag 12 mei 2014 @ 15:26:
[...]

Maar dedup inschakelen voor een grote dataset is vrijwel altijd een heel slecht idee.
Wat is jou definitie van 'groot'?
Ik heb er eentje van 2 TB waar m'n TimeMachine Backups naartoe gaan...
[...] ga dus niet je mooie ZFS server om zeep helpen vanwege onstilbare honger naar opslag.
Dan zet ik er wel eentje extra bij! :+

Maar nog even een andere vraag tav dedup...
Bij zowel Datadomain als HP adviseren ze aparte datasets te maken per 'type' bestanden.
Ze doelen daarmee o.a. op, voor VM's om Linux en Windows op aparte datasets te zetten, backups aparte dataset etc.
Hoe zit dit met ZFSguru? Is hiervoor een zelfde richtlijn/advies? (alhoewel mij nooit echt duidelijk is geworden naar de 'waarom')

Ik neem aan dat voor ZFSguru hetzelfde geldt voor (extreem) disk-I/O intensieve applicaties/VM's die niet op een dedup-dataset te zetten?

Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Verwijderd schreef op maandag 12 mei 2014 @ 15:26:
[...]

Zijn dat allemaal VM images die grote delen met elkaar delen? Of wil je dedup gewoon voor de grote dataset inschakelen? Dat laatste is gekkenwerk.

Deduplicatie gebruik je op filesystems met grote overlap. Dus bijvoorbeeld Ubuntu VM images als je er daar 100 van hebt met allemaal een kale installatie + wat meuk; dan hoef je de kale installatie maar één keer op te slaan in plaats van 100 keer. In dit geval kun je deduplicatie rustig inschakelen. Maar dedup inschakelen voor een grote dataset is vrijwel altijd een heel slecht idee. De paar procent storage die je er mee uitspaart is een totale crash van de performance absoluut niet waard. Geef een paar euro uit aan een paar extra GB als je verlegen zit om storage.

Dedupliatie is niet bedoeld voor casual users om wat extra opslag te krijgen. Het is bedoeld om datasets die erg op elkaar lijken te verenigen en hiermee enorm veel disk space te besparen. Alleen in specifieke situaties heeft het nut dus. In vrijwel alle gevallen wil je deduplicatie uitgeschakeld hebben. Overweeg LZ4-compressie als je een paar procent extra storage wilt. Of koop gewoon een schijf extra; ga dus niet je mooie ZFS server om zeep helpen vanwege onstilbare honger naar opslag.

Ps: PCI netwerkkaarten zijn not done. :P
Overal waar ik over dedup lees, wordt het min of meer afgeraden.
Het was de bedoeling om dedup aan te zetten voor +- 15 Linux VM's en iets van 4 Windows VM's.
in principe allemaal kale installaties met per VM wat verschillende services. Op zich perfect voor deduplicatie, zeker als ik de VMs opnieuw zou installeren vanaf een nieuw (Ubuntu 14.04 LTS) basis image.

Aan de andere kant, de meeste VM's hebben niet veel meer dan 15GB aan disk ruimte nodig, dus de ruimte heb ik niet eens echt nodig. Ik kan altijd nog 1 van de mirrors uitbreiden met grotere schijven, of een mirror toevoegen aan de pool.

Andere vraag:
Gaat FreeNAS / ZFS vanzelf gebruik maken van het beschikbare geheugen?

p.s.
die sloten zitten er helaas nu eenmaal :) de kaartjes had ik nog liggen.
Habana schreef op maandag 12 mei 2014 @ 18:00:
[...]


Dat is duidelijk, maar stel ik heb geen sata aansluiting meer beschikbaar, allemaal in gebruik voor een Raidz1 of Raidz2 pool, dus kan ik de nieuwe Disk niet online brengen, hoe los je dit dan op als zoals je zegt dat de oude Disk aangesloten moet blijven.
Is dit enkel een advies ,noodzakelijk of is het simpelweg beter om deze aangesloten te laten?
Je kan de oude disk offline halen / detachen, en dan de nieuwe disk toevoegen waarna hij gaat resilveren.

[ Voor 12% gewijzigd door Extera op 13-05-2014 08:25 ]

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!
]Byte\[ schreef op maandag 12 mei 2014 @ 19:31:
*knip*
Maar nog even een andere vraag tav dedup...
Bij zowel Datadomain als HP adviseren ze aparte datasets te maken per 'type' bestanden.
Ze doelen daarmee o.a. op, voor VM's om Linux en Windows op aparte datasets te zetten, backups aparte dataset etc.
Hoe zit dit met ZFSguru? Is hiervoor een zelfde richtlijn/advies? (alhoewel mij nooit echt duidelijk is geworden naar de 'waarom')
*knip*
Eigenlijk heel simpel:

Voor elk dataset / filesystem wordt er een deduptable gemaakt. Als die deduptable alleen maar voor Linux VM's geld, is hij relatief kort. Hoe meer van dezelfde data je op 1 volume houdt, hoe kleiner de dedup tables.

Stel je hebt 100 Windows VM's en 100 Linux VM's. Als die allemaal op 1 dedup share staan moet de dedup table in RAM alle checksums van beide van die basis VM disks bevatten.

Als je 2 datasets zou hebben zou je 2 tables krijgen die elk hun eigen data bevatten.

Schrijf je dan op 1 van de twee datasets is de lookup in de dedup table veel sneller omdat hij veel minder checksums hoeft te vergelijken. Hoe diverser de data, hoe groter de tables (daarom dus ook nooit grote mediashares, want je hebt gigantische deduptables waar je geen bal aan hebt.)

Even niets...


Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Ik ga er denk ik toch eens mee testen.
2x 500GB datasets aanmaken, (Linux en Windows).

Op die manier moeten de tabellen dan beperkt blijven.
Mocht het niet lekker werken / performen, dan doe ik een storage vmotion naar een andere dataset, dedup uit, en weer terug met de hele handel :)

Ik zal hier wel wat benchmarks neerzetten voor de liefhebbers :)

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

  • gerwim
  • Registratie: Augustus 2010
  • Laatst online: 28-09 15:48
>> Ik zal hier wel wat benchmarks neerzetten voor de liefhebbers

Graag! :)

[ Voor 84% gewijzigd door gerwim op 13-05-2014 09:19 ]


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
- je hebt je vraag al weer ingetrokken zie ik... -

[ Voor 93% gewijzigd door ]Byte[ op 13-05-2014 11:45 ]


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Hallo heb de ene rotte schijf eruit gehaald en er nog 2z4tb bijgekocht.
Wat is nu de beste samenstelling voor mijn pools?
Met 6x2tb en 2x4tb hdd's.
O ja en nog 2x1tb schijven die ik nog had liggen.
Graag advies hiervoor van de specialisten.

[ Voor 11% gewijzigd door ikkeenjij36 op 13-05-2014 12:55 ]


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Nou lekkere KPN router die geen dns voor me doet..

[root@zfsguru /etc]# nslookup www.yahoo.com
;; connection timed out; no servers could be reached

[root@zfsguru /etc]# cat /etc/resolv.conf
# Generated by resolvconf
search 195.121.1.34, 195.121.1.66
nameserver 192.168.2.254


Opgelost door de KPN DNS te gebruiken.

[root@zfsguru /etc]# cat /etc/resolv.conf
# Generated by resolvconf
search 195.121.1.34, 195.121.1.66
nameserver 195.121.1.34

[root@zfsguru /etc]# nslookup www.yahoo.com
Server: 195.121.1.34
Address: 195.121.1.34#53

Non-authoritative answer:
www.yahoo.com canonical name = fd-fp3.wg1.b.yahoo.com.
fd-fp3.wg1.b.yahoo.com canonical name = ds-fp3.wg1.b.yahoo.com.
ds-fp3.wg1.b.yahoo.com canonical name = ds-eu-fp3-lfb.wa1.b.yahoo.com.
ds-eu-fp3-lfb.wa1.b.yahoo.com canonical name = ds-eu-fp3.wa1.b.yahoo.com.
Name: ds-eu-fp3.wa1.b.yahoo.com
Address: 46.228.47.115
Name: ds-eu-fp3.wa1.b.yahoo.com
Address: 46.228.47.114


Affijn updates kunnen nu, nu de vraag wat wijsheid is.

Ik draai: 9.1-005 met 0.2.0-beta8

Optie A: don't fix it if it aint broken..
Optie B: 9.2-001
Optie c: 10.0-002

Ik snap uit het zfsguru forum dat ik geen beta 9 interface op de huidige bsd install moet gaan draaien.
Bug fixes zijn altijd handig, maar of ik ze per se nodig heb ?

Ik heb nergens een geode motivatie gevonden waarom je naar iets upgraden moet, tenzij je ZFS v5000 wil gebruiken, maar dan moet ik ook nog een pool upgrade gaan doen.
Heb ik niet goed gezocht in deze thread wellicht ?

[ Voor 35% gewijzigd door jacovn op 13-05-2014 13:42 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 14-09 19:36
jacovn schreef op dinsdag 13 mei 2014 @ 13:33:

Ik heb nergens een geode motivatie gevonden waarom je naar iets upgraden moet, tenzij je ZFS v5000 wil gebruiken, maar dan moet ik ook nog een pool upgrade gaan doen.
Ik zeg LZ4 :D

Acties:
  • 0 Henk 'm!
* FireDrunk draait ook nog gewoon met poolversie v28.

Hoewel ik toch binnenkort maar ga upgraden en LZ4 ga aanzetten inderdaad.

Even niets...


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
MMM even toch nog een vraagje,ik ben maar vanaf 0 begonnen.
Nog steeds ssd als start en daarna heb ik er nu 7 als raidz3 gemaakt als data pool en ook nog een pool groot(als t maar een naampje heeft) van 2x4tb.
Als ik nu opnieuw op start zegt ie unknwon version(5000) should be 28
Hoe kan ik dat ook alweer oplossen?
Heb versie 10.1-01 eropgezet.
Als ik met de live cd pool upgrade wil doen geeft ie aan wrong version v33.
Ik heb de pools aangemaakt met v28.
Ik wacht op antwoord van jullie experts.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
De bootcode updaten op de Disks pagina.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Verwijderd schreef op dinsdag 13 mei 2014 @ 19:02:
De bootcode updaten op de Disks pagina.
Ja idd |:( |:( |:( |:( |:( 8)7 8)7 8)7 8)7 .
Heb dit natuurlijk al eerder aan de hand gehad.
Wat stom van mij,maar misschien makkelijk voor nieuwe gebruikers die dit ook meemaken,ik heb nu alles schijven per stuk een update system bootcode gedaan,eens kijken of tie nu op wil starten zonder live cd. _/-\o_ _/-\o_ _/-\o_

EDIT:HELAAS ik krijg nu een rondraaiend streepje met een streepje eronder,wat heb ik nu weer fout gedaan
? :? :?

Mm de pols staan nog steeds op spa 28,ik neem aan dat dat de versie is?
Moet ik nu gewoon de pool updaten naar v33 of niet?

[ Voor 19% gewijzigd door ikkeenjij36 op 13-05-2014 19:26 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Er staat al een berichtje op de Download-pagina van ZFSguru. Dat nieuwere versies (ZFS v5000) ook nieuwe bootcode nodig hebben en hoe je dat kunt doen. Dus ik hoop dat inderdaad een hoop andere mensen dit ook zien. Maar je komt er vanzelf uit als je de foutcode in google tikt, denk ik.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Toch wel handig als er een stap voor stap upgrade guide zou zijn.

De initiele install ging bij mij in 1 keer goed, zonder enige bsd kennis een werkend systeem.
Echter bij een os upgrade al je pool hdds bootcode moet updaten vindt ik minder logisch, of hoeft dat alleen maar als je van de pool boot etc.

[ Voor 0% gewijzigd door jacovn op 13-05-2014 22:14 . Reden: Spelfout ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
CiPHER je hebt even een kleine pm

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
En weer niks.
Alles up to date laatste versie erop en weer de 2 streepjes
en plat en stil en een andere die heel langzaam rondraait.
Wie weet wat te doen?
Als ik daarn weer op start met de live cd is mijn pool om op te starten weer verdwenen?
Ik denk dat het daar mis gaat.
Ik ga de startpool destroyen en overnieuw maken.
Kijken of dat helpt.

[ Voor 38% gewijzigd door ikkeenjij36 op 13-05-2014 21:25 ]


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
MM nu eens gedaan met de laatste live cd
pools gedelte en overniwue begonnen met clean install
nu krijg ik de melding
code:
1
zfs:unsupported feature:comdelphix:hole_birth


En hij start niet op.
Wat nu?

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
niemand?

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zondag 09 februari 2014 @ 21:44:
Hoi ikkeenjij36,

Ik vind het knap dat je probeert allerlei zaken werkend te krijgen; maar ik vermoed toch dat zaken als [...] werkend krijgen, boven jouw technisch niveau ligt. Gevolg is dat je voor vrijwel elke stap hulp nodig hebt en de kans dat het uiteindelijk gaat werken heel klein is. Al zou je het werkend krijgen, de manier hoe je omgaat met je server - veel nieuwe dingen proberen - kan ervoor zorgen dat het opeens niet meer gaat werken en dan kun je weer van voor af aan beginnen.

[...] Je steekt veel moeite in iets wat weinig oplevert. [...]
Als je gewoon een standaard ZFSGuru installatie had gedaan dan was alles prima gegaan en had je deze fout niet gezien.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
CurlyMo schreef op woensdag 14 mei 2014 @ 01:04:
[...]


Als je gewoon een standaard ZFSGuru installatie had gedaan dan was alles prima gegaan en had je deze fout niet gezien.
Ehm beste curlymo snap mij niet verkeerd ik vind alle hulp die ik tot nu toe gehad heb altijd informatief geweest enz.
Maar nu ik gewoon met een standaard instalatie van zfsguru ben begonnen op alle schijven leeg en geformateerd wil het gewoon niet werken,ik krijg dus niet eens een gewone instal voor elkaar op dit moment,ligt het aan mij?
misschien maar ales een standaard install niet wil lukken?
Zonder xtra dingen of wat maar ook ja dan houdt het voor mij wel op een beetje. :z

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Nog ff een update.
Los starten met alleen ssd gaat perfect ik kan er een pool op aanmaken niks aan de hand.
Zodra ik hdd's bij ga zetten loopt het mis met nu nog maar 1x die melding van unsupported feature enz.
Is het nu disk voor disk kijken welke niet wil werken?

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
ikkeenjij36 schreef op woensdag 14 mei 2014 @ 01:52:
Nog ff een update.
Los starten met alleen ssd gaat perfect ik kan er een pool op aanmaken niks aan de hand.
Zodra ik hdd's bij ga zetten loopt het mis met nu nog maar 1x die melding van unsupported feature enz.
Is het nu disk voor disk kijken welke niet wil werken?
Heeft het al ooit wel gewerkt op deze hardware?
Ik begin te denken aan een incompatibiliteit met de HW...
De problemen die jij nu hebt had ik ook op mijn GigaByte MB.

Acties:
  • 0 Henk 'm!
Je server probeert waarschijnlijk van de verkeerde disk te booten. Even goed op de volgorde letten in je BIOS...

Even niets...


Acties:
  • 0 Henk 'm!
ikkeenjij36 schreef op dinsdag 13 mei 2014 @ 22:12:
MM nu eens gedaan met de laatste live cd
pools gedelte en overniwue begonnen met clean install
nu krijg ik de melding
code:
1
zfs:unsupported feature:comdelphix:hole_birth


En hij start niet op.
Wat nu?
Deze melding heeft te maken met een zfs v5000 feature op je pool die niet wordt ondersteund door je huidige zfs versie. Dat is raar want een standaard ZFSGuru installatie installeert helemaal geen v5000, maar v28. Die melding zou je dus nooit kunnen zien als je niet handmatig de zfs versie verhoogt of achteraf een upgrade heb uitgevoerd.

No offense, maar ik begrijp jou naar mijn idee niet verkeerd. Wat me alleen verbaast (misschien is het wel deugdzaam hoor ;) ) is het geduld van de mensen hier. Hier op het tweakers forum zijn er toch wel een aantal (do and) dont's:
- Geen meerdere reacties achter elkaar, maar je vorige reactie aanvullen.
Dat waren er eventjes terug 4
- Je reactie goed opmaken: spelling, alinea's, interpunctie.
ikkeenjij36 in "Het grote ZFS topic"
- Eerst dingen zelf proberen en uitzoeken voor je hulp vraagt en aangeven wat je dan al hebt geprobeerd.
Via google: http://zfsguru.com/forum/zfsgurusupport/823

Vanuit het niets komt opeens CurlyMo met wat opmerkingen aanzetten, maar laten we zeggen dat ik een oude bekende ben die dit topic en ZFSguru an sich een beetje op de zijlijn volgt. CiPHER is nogal druk en alles wat we kunnen doen om hem te ontluchten is meegenomen :P Daarnaast zou ik zijn eerder gegeven advies over je kennis ter harte nemen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Hallo bedankt allemaal voor de goed bedoelde adviezen.
Mijn excuses voor mijn reacties maar werdt er totaal gefrustreerd van dat het niet wou werken met een clean install.
Ik ben tot vanochten 5 uur bezig geweest voor ik hem weer had draaien.
Ik heb nu eerst versie 9.1-001 eropgezet via livecd.
Ik heb het op een pool gezet met mijn hdd's zonder ssd.
Daarna alles geupdate via de webgui en alles draait.
Mijn ssd gebruik ik nu als slog device en alles draait gelukkig nu.
Nu bezig met de basic dingen voor mij en daarna doe ik niks meer erbij zetten en hou het gewoon basic.
Voor verdere dingen wacht ik gewoon op de verdere ontwikkeling van zfsguru.
Bedankt voor jullie hulp tot nu toe.
Pagina: 1 ... 120 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.