8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Zoek maar ff op.
Dan wordt het een stukje duidelijker.
De getallen die je ziet kloppen wel!
Om de ondersteuning en power management te verbeteren is onlangs een vrij grote discussie ontstaan op de FreeBSD mailinglist. Er wordt onder andere gesproken over het verbeteren van de suspend/resume-functionaliteit en power management. Best goede ontwikkelingen, omdat dit gebieden zijn die FreeBSD als server OS dreigde te verwaarlozen. Idem de grafische infrastructuur; dat lijkt nu ook aardig richting Linux-kwaliteit te gaan met redelijk moderne KMS-drivers en nieuwe console driver (Newcons/vt).B2 schreef op zondag 04 mei 2014 @ 13:47:
Hoe zit het eigenlijk met hibernate en suspend ondersteuning in FreeBSD 10 (en zfsguru natuurlijk)?
Dat geldt enkel voor UFS-filesystems en dan gaat het om 8%, tenzij met 'tunefs' anders ingesteld.Loekie schreef op dinsdag 06 mei 2014 @ 17:58:
Klinkt als de 5% gereserveerd voor root...
[...]
Om de ondersteuning en power management te verbeteren is onlangs een vrij grote discussie ontstaan op de FreeBSD mailinglist. Er wordt onder andere gesproken over het verbeteren van de suspend/resume-functionaliteit en power management. Best goede ontwikkelingen, omdat dit gebieden zijn die FreeBSD als server OS dreigde te verwaarlozen. Idem de grafische infrastructuur; dat lijkt nu ook aardig richting Linux-kwaliteit te gaan met redelijk moderne KMS-drivers en nieuwe
Ik zoek ook nog zoiets zodat mn nas in de avond om 23 u in standbye gaat en om 8 u in de ochtend weer aangaat.B2 schreef op zondag 04 mei 2014 @ 13:47:
Hoe zit het eigenlijk met hibernate en suspend ondersteuning in FreeBSD 10 (en zfsguru natuurlijk)?
Ik laat mijn Nas (ubuntu met 3.14) nu elke nacht in hibernate gaan. 's ochtends wordt deze door de router middels wol opnieuw opgestart.
Ik heb in mijn zoektocht naar een goeie os voor mn nas ook omv geprobeerd en daar was een script waar je dat allemaal in kon stellen.
Als dit ook nog in zfsguru zal komen heb ik echt de perfecte nas.
Ik ben ook niet echt een script maker maar dit zou het perfect maken.
Overigens na 2 weken geleden de laatste versie erop gezet te hebben draait alkes zonder ook maar 1 hickup.
Bedankt daarvoor cipHER.
[ Voor 3% gewijzigd door ikkeenjij36 op 06-05-2014 20:11 ]
Verwijderd
Iemand een idee of er zoiets bestaan ?
Samba,FTP, NFS, HTTP(s), iSCSI... Noem maar op...
Even niets...
Daarom is het ook zo lastig.FireDrunk schreef op dinsdag 06 mei 2014 @ 23:02:
De 30 minuten geen gebruik is nogal lastig te meten... Er zijn zoveel services waar gebruik van gemaakt kan worden...
Samba,FTP, NFS, HTTP(s), iSCSI... Noem maar op...
Ik zie daarom meer in zoiets als ik voorstelde,weet alleen niet of zoiets mogelijk is om te maken?
Daarnaast zet je in je BIOS een wakup timer.
Lijkt mij vrij simpel?
Even niets...
jacovn schreef op dinsdag 06 mei 2014 @ 19:03:
Ik verlies ook zoiets, hoort er gewoon bij denk ik.
Ik heb 15 pagina's terug doorgespit, maar niet gevonden. Ik wil graag begrijpen waarom ik 1,7TB minder krijg dan wat ik op basis van een simpel rekensommetje theoretisch zou mogen verwachten. 1,7TB is nogal wat. Waar gaat dat aan op?]Byte\[ schreef op dinsdag 06 mei 2014 @ 19:25:
Enige tijd geleden is er in dit topic ook al ergens iets over geschreven.
Zoek maar ff op.
Dan wordt het een stukje duidelijker.
De getallen die je ziet kloppen wel!
Dan heb je 'm waarschijnlijk gemist...-Moondust- schreef op woensdag 07 mei 2014 @ 12:01:
[...]
Ik heb 15 pagina's terug doorgespit, maar niet gevonden.
Ik heb 'm even voor je opgezocht: op pagina 48 van 60... zie je deze message staan van CiPHER
De verwarring treed op door TB en TiB.
Bruto heeft je pool 36,2 TB beschikbaar, maar omdat je RAID-Z2 gebruikt is dit 36,2/10*8=28,96 TB
28,96 TB = ~ 23,35... TiB
Als pool size meld hij bij mij 36.2 T (34.3 T gebruikt) (dat is dan de totale pool size inclusief redundante hdd's)
Als File system size meldt hij: 26.1 T (1.08 T vrij)
Dat laatste zie ik ook in windows terug: 26.0TB system met 1.08 TB vrij
Ik verlies dan 10 TB zo te zien aan overhead.
2 x 3.6 TB is logisch voor raidZ2, dus dan heb je 7.2 TB verlies.
De rest zit dan in ZFS overhead.
[ Voor 23% gewijzigd door jacovn op 07-05-2014 13:14 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
De producenten verkopen het als 4 TB... Lees eens goed wat er (meestal) op het etiket van je HD staat...jacovn schreef op woensdag 07 mei 2014 @ 12:58:
In mijn server wordt een 4 TB hdd door zfs guru als 3.6 TiB neergezet, [...]
1 GB = 1.000.000.000 bytes!
De 4 TB die ze verkopen zijn werkelijkheid 3,6379788070917 TiB
Wat dat betreft rapporteert ZFS die nog goed.
Het probleem zit 'm vaak ook hoe de software de getallen interpreteert. Daar gaan veel rekensommen mee de mist is.
De 3.6479788070917 TiB = 4000000000 KB (wat verkocht wordt als 4 TB)
Ik gebruik deze calculator om het om te rekenen.
* ]Byte[ wordt ook een beetje gek van de stoelendans rondom TiB en TB...
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Ik kan er ook wel mee leven, maar ik wil wel graag met zekerheid weten waar die 1,7 TiB naar toe is. Het probleem zit um mijns inziens niet in TB versus TiB. Ik weet dat 4TB schijven feitelijk ongeveer 3,6 TiB aan datacapaciteit hebben. Zoals jij al voorrekent zou dat in mijn geval dus 28,8 TiB moeten worden terwijl het feitelijk maar 27,1 TiB is. Ik vond onderstaande uitleg op een forum hetgeen erop wijst dat het dus met allocation overhead te maken heeft. Ik snap alleen niet of dit dan alleen betrekking heeft op de gerapporteerde grootte of dat het ook de werkelijke grootte beinvloed.
Bron: http://lists.freebsd.org/...d-fs/2013-May/017337.htmlHigh overhead with 10 disks is because of allocation overhead.
128k / 4k = 32 sectors,
32 sectors / 8 data disks = 4 sectors per disk,
4 sectors per disk * (8 data disks + 2 parity disks) = 40 sectors.
40 is not a multiple of 3 so 2 sector padding is added. (5% overhead)
[ Voor 57% gewijzigd door -Moondust- op 07-05-2014 14:56 ]
Daar staat bij mij gewoon keurig 14.5T (En ik heb 4*4TB in RAIDZ1), dus dat klopt prima.
[ Voor 50% gewijzigd door FireDrunk op 07-05-2014 14:57 ]
Even niets...
In Windows 7 op mijn werkpc.FireDrunk schreef op woensdag 07 mei 2014 @ 14:57:
Waar zie jij die 27,1 staan? Bij Zpool list?
Nogal een verschil, kijk eens bij zpool list.
Windows geeft hier zelfs maar 9.45TB aan als grootte van mijn main filesystem. Heeft te maken met dat een filesystem een bepaalde Allocatie heeft onder ZFS die niet 100% is.
[ Voor 44% gewijzigd door FireDrunk op 07-05-2014 14:58 ]
Even niets...
Capaciteit: 36.2T (excl. parity 28,96T)
Gebruikt: 25.9T (excl. parity 20,72T)
Vrij: 10.3T (excl. parity 8,24T)
Windows zegt:
Capaciteit: 27,1TB
Gebruikt: 19,7TB
Vrij: 7,44TB
Ok, dus de grootte die ZFSguru rapporteert is juist en die Windows rapporteert is vanwege allocatie overhead onjuist? Zeg ik het goed zo?
[ Voor 61% gewijzigd door -Moondust- op 07-05-2014 15:06 ]
Hoe meer filesystems hoe lager dat getal wordt.
Even niets...
Wat bedoel je hiermee? Ik bedoel, ik gebruik toch maar één filesystem?FireDrunk schreef op woensdag 07 mei 2014 @ 15:26:
Hoe meer filesystems hoe lager dat getal wordt.
Voor een overzicht van al je filesystems: zfs list
Bedenk verder dat er overhead is die ZFS incalculeert. Als je 100.000 bestanden hebt van 1 kilobyte, dan verbruik je meer ruimte dan 100.000 kilobyte, omdat voor elk bestand en het filesystem als geheel extra informatie opslaat. Dit noemen we de metadata, en is bijvoorbeeld de datum en rechtenstructuur, maar bij ZFS bijvoorbeeld ook de checksum en andere metadata.
Het is ook niet zo interessant om te lokaliseren waar de laatste druppel storage naartoe gaat. Je wilt sowieso een dikke 20% vrij hebben op je pool, dus over de 0,X % overhead hoef je je dan ook niet zo druk te maken.
Voor de één misschien niet interessant, maar voor de ander wel een nice to know!Verwijderd schreef op woensdag 07 mei 2014 @ 16:57:
Het is ook niet zo interessant om te lokaliseren waar de laatste druppel storage naartoe gaat.
Het gaat er (mij persoonlijk) ook niet om om te gaan miere....n over waar de laatste bit is gebleven (what do I care with xx TB en sluit ik mij ook volledig aan op je 20%-regel), maar wel om beter inzicht te krijgen wat, hoe, waar en waarom iets gebeurd.
Als je dan ooit eens een probleem heb, en je snapt ook de achtergrond, dan is het ook vaak makkelijker voor troubleshooting.
Maarja... Als ik je blogs lees hoef ik dat jou toch ook niet uit te leggen...
[ Voor 5% gewijzigd door ]Byte[ op 07-05-2014 20:59 ]
1
2
3
4
5
6
7
8
9
10
11
| zfsguru.bsd$ zfs list NAME USED AVAIL REFER MOUNTPOINT Data 19.9T 7.23T 19.9T /Data Data/share 329K 7.23T 329K /Data/share Data/zfsguru 1.08G 7.23T 347K /Data/zfsguru Data/zfsguru/10.1-001 802M 7.23T 109M legacy Data/zfsguru/10.1-001/usr 690M 7.23T 690M legacy Data/zfsguru/10.1-001/var 3.17M 7.23T 2.80M legacy Data/zfsguru/10.1-001/var/log 375K 128M 375K legacy Data/zfsguru/SWAP 165K 7.23T 165K - Data/zfsguru/download 303M 7.23T 303M /Data/zfsguru/download |
Op 128 MB na lijkt alles toegewezen aan het data filesystem, dus wat ik hier verlies lijkt me verwaarloosbaar. Blijft dan dus alleen de overhead van ZFS over. Deze is bij mij dan in dit geval ongeveer 5,8%, hetgeen ik best veel vind. Maar ik klaag niet, ZFS gaat mijn data goed beschermen en daar doe ik het voor.
Waar is de 20%-regel overigens goed voor? Performance op peil houden?
ZFS wil graag alles achter elkaar weg schrijven en als je te weinig ruimte over hebt moet hij langer zoeken voordat de TXG kan worden weggeschreven.-Moondust- schreef op woensdag 07 mei 2014 @ 21:14:
Waar is de 20%-regel overigens goed voor? Performance op peil houden?
Dit is iets wat ik al meerdere malen heb geroepen omdat de werkelijkheid/ervaring niet matched met de statistische cijfers die gegenereerd worden. Sinds dat artikeltje over raid-5-is-not-safe. Als het artikel namelijk klopt, zou elke raid array eindigen in unrecoverable degraded toestand sinds het begin der dagen Rebuild times zijn nu niet langer dan vroeger, vroeger waren disks trager en kleiner, maar relatief gezien even risicovol, je zou zelfs kunnen stellen dat SSDs super veilig zouden zijn vanwege de insane rebuild rate ... als ze niet de neiging hadden om in bosjes te falen.Q schreef op zondag 27 april 2014 @ 13:12:
Gezeur van mij tussendoor: vanaf begin af aan heb ik een haat / liefde verhouding met ZFS. Mijn indruk was altijd dat het ZFS-kamp je probeert bang te maken voor risico's die in werkelijkheid niet zo groot zijn als wordt gesuggereerd.
Met name de kans op een leesfout van 1 op 3 bij een 8 disk RAID 5 met 2 TB disks rebuild (ZDNET artikel) heeft enorm bijgedragen aan dit hele verhaal.
Hier een oud artikel (9 jaar oud) die actief URE's test.
http://arxiv.org/pdf/cs/0701166.pdf
Resultaat: veel beter dan de 10 x 10^14 die de fabrikanten voor de disks opgeven.
Puur afgaand op mijn eigen ervaring met disks kan ik die statistieken niet rijmen met wat ik heb waargenomen over de jaren. Mijn indruk is dat de URE veel meer op 10 x 10^15 ligt (mijn 20 x 1 TB spinpoints hebben die classificatie) en dat disks veel betrouwbaarder zijn dan wordt weergegeven.
Misschien moet ik maar eens een zooi disks gaan testen en kijken wat voor resultaten ik kan behalen. Dus data er op zetten, wat md5sums er overheen en lezen maar. Gewoon voor een week of langer. Afhankelijk van de disks waar mee ik test (reeds fouten geconstateerd) verwacht ik zelf eigenlijk nul URE's.
Een bezwaar wat ik heb betreffende te test van Microsoft, is dat niet de hele oppervlakte van de betreffende disks wordt benut, maar alleen een vers stukje. Bij een ouderwetse RAID rebuild moet ook data worden ingelezen die maanden niet is aangeraakt en mogelijk een rotte sector heeft.
Een x keer een RAID array stuk maken, rebuilden en de md5sum checken lijkt mij een mooie test om te zien hoe vaak je echt op een URE moet rekenen. Disk errors zie ik vanzelf wel in syslog.
Is URE niet een fysische verschijnsel? Zou bitrot dan niet simpelweg grotere rotte vlekken introduceren ipv. je kans verhogen. Legt zich maar bij de algemene gedachtegoed /temoe.
[ Voor 3% gewijzigd door analog_ op 07-05-2014 22:09 ]
Als disks echt een 10^14 URE zouden hebben zouden scrubs behoorlijk regelmatig shit moeten vinden, maar volgens mij gebeurt dit zelfden.analog_ schreef op woensdag 07 mei 2014 @ 21:45:
[...]
Dit is iets wat ik al meerdere malen heb geroepen omdat de werkelijkheid/ervaring niet matched met de statistische cijfers die gegenereerd worden. Sinds dat artikeltje over raid-5-is-not-safe. Als het artikel namelijk klopt, zou elke raid array eindigen in unrecoverable degraded toestand sinds het begin der dagen Rebuild times zijn nu niet langer dan vroeger, vroeger waren disks trager en kleiner, maar relatief gezien even risicovol, je zou zelfs kunnen stellen dat SSDs super veilig zouden zijn vanwege de insane rebuild rate ... als ze niet de neiging hadden om in bosjes te falen.
Is URE niet een fysische verschijnsel? Zou bitrot dan niet simpelweg grotere rotte vlekken introduceren ipv. je kans verhogen. Legt zich maar bij de algemene gedachtegoed /temoe.
In het kroegen topic heb ik een script gepost: kun je helpen mee testen. Op het moment van schrijven heb ik 263.21 TB aan data gegenereerd over 10 disks en nog steeds 0 errors. Geen MD5SUM errors, geen kernel errors over rotte disk sectoren.
Ik heb een share gemaakt, maar als ik een koppeling wil maken vanuit mijn ESX blijf ik de melding krijgen:
Op ESX:
1
| mount: mount to NFS server '192.168.2.100' failed: System Error: Connection refused. |
en op ZFSguru:
1
2
| May 8 08:50:23 zfsguru mountd[971]: -mask and /masklen are mutually exclusive May 8 08:50:23 zfsguru mountd[971]: bad exports list line /ssd_pool1/share -network |
Uit pure frustratie heb ik de share zelfs public gemaakt (0.0.0.0/0) en nog steeds gaat het fout.
Wat doe ik verkeerd?
Niet om grof/aggressief over te komen, maar bedenk je wel dat jouw ene test niet veel meer zal geven dan een empirisch resultaat; ja, je gebruikt meerdere disks, maar je gebruikt niet tientallen (al dan niet meer) separate (en toch identiek uitgevoerde) tests...Q schreef op donderdag 08 mei 2014 @ 00:31:
[...]
Als disks echt een 10^14 URE zouden hebben zouden scrubs behoorlijk regelmatig shit moeten vinden, maar volgens mij gebeurt dit zelfden.
In het kroegen topic heb ik een script gepost: kun je helpen mee testen. Op het moment van schrijven heb ik 263.21 TB aan data gegenereerd over 10 disks en nog steeds 0 errors. Geen MD5SUM errors, geen kernel errors over rotte disk sectoren.
Voor het zelfde geval heb je een set disks die near-perfect uit productie zijn gekomen, en daarmee dus kop-en-schouder boven hun markt-partners uit steken, dat wil dan niet zeggen dat andere disks niet daar van last (kunnen) hebben.
Daarnaast, bedenk je dat dat getal niet veel meer is als het verwachte aantal branduren van een gloeilamp (waarbij de Centenial lightbulb dan een goed exemplaar is van een situatie waar het gemeten resultaat totaal niet aan de verwachting voldoet); uit hun tests (en PR machine) is gebleken dat het merendeel van hun disks minimaal zo lang mee gaan
Desalniettemin is het wel een interessante test die je uitvoert, al ben ik meer geïnteresseerd in wat er gaat gebeuren zodra die fouten -wel- optreden.
Dat is waar. Mijn test rammelt aan alle kanten vanuit wetenschappelijk oogpunt gezien.DXaroth schreef op donderdag 08 mei 2014 @ 09:47:
Niet om grof/aggressief over te komen, maar bedenk je wel dat jouw ene test niet veel meer zal geven dan een empirisch resultaat; ja, je gebruikt meerdere disks, maar je gebruikt niet tientallen (al dan niet meer) separate (en toch identiek uitgevoerde) tests...
Als er een wiskundige in de zaal is die gewent is om te berekenen hoegroot N moet zijn en hoeveel data ik moet rondpompen om wel iets te mogen concluderen, Ik hou me aanbevolen.
Dat kan zo zijn, twee disks hebben 1 tot wel tientallen rotte sectoren. Die nummers zijn nog niet omhoog gegaan.Voor het zelfde geval heb je een set disks die near-perfect uit productie zijn gekomen, en daarmee dus kop-en-schouder boven hun markt-partners uit steken, dat wil dan niet zeggen dat andere disks niet daar van last (kunnen) hebben.
Ik test met disks van 5 jaar en ouder.
Ik pak 10 lampen van verschillende leveranciers van verschillend wattage maar allemaal met een branduren rating van 100. Ik laat ze branden en ze gaan 10.000 uur mee.Daarnaast, bedenk je dat dat getal niet veel meer is als het verwachte aantal branduren van een gloeilamp (waarbij de Centenial lightbulb dan een goed exemplaar is van een situatie waar het gemeten resultaat totaal niet aan de verwachting voldoet); uit hun tests (en PR machine) is gebleken dat het merendeel van hun disks minimaal zo lang mee gaan
Ik denk dat dit wel iets zegt over die 100 uren rating. Dat je daar een korreltje zout bij mag nemen.
Dat getal zelf is waarschijnlijk geen natuurkundige constante, maar de vraag is waar de waarheid ligt.
Met UREs denk ik dat we eerder aan 10^15 of heel misschien wel aan 10^16 moeten denken.
Er zijn enterprise disks die 10^16 gerated worden... Kan verkoop onzin zijn. Maar toch.
Op naar de petabyte!Desalniettemin is het wel een interessante test die je uitvoert, al ben ik meer geïnteresseerd in wat er gaat gebeuren zodra die fouten -wel- optreden.
[ Voor 20% gewijzigd door Q op 08-05-2014 15:05 ]
Als je dezelfde problemen hebt als ik destijds: check even /etc/zfs/exports; als het goed is kan je in /var/log/messages zien dat de mount vanaf de client mislukt is vanwege een fout in /etc/zfs/exports.]Byte\[ schreef op donderdag 08 mei 2014 @ 08:58:
Heeft iemand al eens NFS-exports gemaakt (en werkend) met 10.1-001?
Ik heb een share gemaakt, maar als ik een koppeling wil maken vanuit mijn ESX blijf ik de melding krijgen:
Op ESX:
code:
1 mount: mount to NFS server '192.168.2.100' failed: System Error: Connection refused.
en op ZFSguru:
code:
1 2 May 8 08:50:23 zfsguru mountd[971]: -mask and /masklen are mutually exclusive May 8 08:50:23 zfsguru mountd[971]: bad exports list line /ssd_pool1/share -network
Uit pure frustratie heb ik de share zelfs public gemaakt (0.0.0.0/0) en nog steeds gaat het fout.
Wat doe ik verkeerd?
Het commando dat zfsguru genereert om de nfsjes te sharen rammelt, qua IP-range. Ik bewerk het commando altijd voordat het uitgevoerd wordt; ik laat één ip-range in tact.
Ik heb er geen bug van gelogd, omdat het simpel te verhelpen was. Althans, bij mij....
Heb ik exact ook gedaan.hansdegit schreef op donderdag 08 mei 2014 @ 16:58:
[...]
Het commando dat zfsguru genereert om de nfsjes te sharen rammelt, qua IP-range. Ik bewerk het commando altijd voordat het uitgevoerd wordt; ik laat één ip-range in tact.
Heb inmiddels een andere share gemaakt, maar geeft hetzelfde probleem.
/etc/zfs/exports
1
2
3
4
5
| [root@zfsguru /home/ssh]# cat /etc/zfs/exports # !!! DO NOT EDIT THIS FILE MANUALLY !!! /hdd_pool1/nfs1 -alldirs -mapall=1000:1000 [root@zfsguru /home/ssh]# |
Het is overigens ook de enige file in /etc/zfs/
Wat 'bewerk' jij dan aan het commando precies?
[ Voor 3% gewijzigd door ]Byte[ op 08-05-2014 17:32 ]
Zie je nog steeds de melding in /var/log/messages wanneer je vanaf je client probeert te mounten?
Is dat een installed versie of een live-bootversie? Ik heb die foutmeldingen wel gezien op de live-boot-versie, maar niet op de installed versie.]Byte\[ schreef op donderdag 08 mei 2014 @ 08:58:
Heeft iemand al eens NFS-exports gemaakt (en werkend) met 10.1-001?
Ik heb een share gemaakt, maar als ik een koppeling wil maken vanuit mijn ESX blijf ik de melding krijgen:
Op ESX:
code:
1 mount: mount to NFS server '192.168.2.100' failed: System Error: Connection refused.
en op ZFSguru:
code:
1 2 May 8 08:50:23 zfsguru mountd[971]: -mask and /masklen are mutually exclusive May 8 08:50:23 zfsguru mountd[971]: bad exports list line /ssd_pool1/share -network
Uit pure frustratie heb ik de share zelfs public gemaakt (0.0.0.0/0) en nog steeds gaat het fout.
Wat doe ik verkeerd?
SE2200+14xSF170S & SE1500M+4xTSM-375
Installed versie...ElMacaroni schreef op donderdag 08 mei 2014 @ 19:28:
[...]
Is dat een installed versie of een live-bootversie? Ik heb die foutmeldingen wel gezien op de live-boot-versie, maar niet op de installed versie.
Maar het lijkt iets met ESX te maken te hebben.
Vanaf mijn MacBook Pro werkt het wel!
Nog niet helemaal je van het qua doorvoersnelheid... Ik haal nu zo'n 55 MB/s.
Liever had ik het vanaf mijn ESX willen testen omdat die met 3 Gb trunk gekoppeld is, en mijn ZFSguru met 4 Gb.
Als ik in de smartdata van mijn schijven zie dat er bad sectoren zijn, dan pas draai ik 'm. Tot op heden nog maar een paar MB's recovered (en hele harde schijf-Moondust- schreef op donderdag 08 mei 2014 @ 20:44:
Hoe vaak draaien jullie een scrub op een ZFS-pool met films, series en muziek? Eens per week, of is eens per maand ook prima om bitrot voldoende de kop in te drukken?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
| $ sudo zpool status pool: git state: ONLINE scan: scrub repaired 0 in 0h1m with 0 errors on Sat Apr 19 12:55:39 2014 config: NAME STATE READ WRITE CKSUM git ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 usb-SanDisk_Cruzer_Fit_4C532000031129106193-0:0 ONLINE 0 0 0 usb-SanDisk_Cruzer_Fit_4C532000050913100011-0:0 ONLINE 0 0 0 mirror-1 ONLINE 0 0 0 usb-SanDisk_Cruzer_Fit_4C532000041129106180-0:0 ONLINE 0 0 0 usb-SanDisk_Cruzer_Fit_4C532000040210122173-0:0 ONLINE 0 0 0 errors: No known data errors pool: tank state: ONLINE scan: scrub repaired 0 in 9h47m with 0 errors on Fri May 2 22:02:23 2014 config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 ata-HGST_HTS541010A9E680_J810001VJ1Y3XA ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J3ST5B ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J3TXGB ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB40001MGG3MJC ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J4HGNB ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J4J15B ONLINE 0 0 0 logs ata-INTEL_SSDSA2CW120G3_CVPR126608BS120LGN-part1 ONLINE 0 0 0 errors: No known data errors |
Een keer in de maand doe ik het. Lijkt me al meer dan voldoende eigenlijk.-Moondust- schreef op donderdag 08 mei 2014 @ 20:44:
Hoe vaak draaien jullie een scrub op een ZFS-pool met films, series en muziek? Eens per week, of is eens per maand ook prima om bitrot voldoende de kop in te drukken?
Als jij het voor elkaar krijgt om die film dusdanig vaak te kijken dat hij in MFU komt, dan blijven je schijven in standby. De kans is alleen denk ik niet zo groot
Even niets...
Is dit de reden dat het systeem traag begint te worden bij de laatse 2 TB vrij op mijn systeem (24 en 32 tb bruto vlumes) ?Verwijderd schreef op woensdag 07 mei 2014 @ 16:57:
Het is ook niet zo interessant om te lokaliseren waar de laatste druppel storage naartoe gaat. Je wilt sowieso een dikke 20% vrij hebben op je pool, dus over de 0,X % overhead hoef je je dan ook niet zo druk te maken.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
http://serverfault.com/qu...n-a-pool-or-a-file-systemKeep pool space under 80% utilization to maintain pool performance. Currently, pool performance can degrade when a pool is very full and file systems are updated frequently, such as on a busy mail server. Full pools might cause a performance penalty, but no other issues. If the primary workload is immutable files (write once, never remove), then you can keep a pool in the 95-96% utilization range. Keep in mind that even with mostly static content in the 95-96% range, write, read, and resilvering performance might suffer.
https://www.princeton.edu...ris/troubleshoot/zfs.html
[ Voor 32% gewijzigd door Kortfragje op 09-05-2014 17:04 ]

Heb je daarentegen een schijf die überhaupt maar 3 TB groot is dan werkt het hele proces feilloos met slechts 600 GB aan vrije ruimte

Waarom heb je op een pool van 15 TB dan niet ook genoeg aan 100 GB?


"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Het gaat er om dat er vrije blokken beschikbaar zijn zodat er genoeg ruimte heeft om de data weg te schrijven zonder de oude te overschrijven, omdat copy-on-write.
Bovendien is het niet alsof je dan grote problemen krijgt, maar de performance gaat er merkbaar op achteruit. Dit heeft o.a. te maken met de structuur die ZFS hanteert en de fragmentatie welke daar uit voortkomt. Het zal per situatie dan ook wat verschillen.
3TB vrij op een 15TB pool lijkt mij ook voldoende vrije ruimte overigens. Probeer het eens om het zo vol te gooien en kijk wat het doet. Het zou kunnen dat het met maar 1.5TB vrij ook nog redelijk presteert. Meten is weten hè.
Aan de andere kant is 80% vol wel een moment waarop je wilt nadenken over uitbreiding of opruiming natuurlijk (uitzonderingen zoals bijv. een archief daargelaten).
Bekijk ook zeker even de eerste link van Kortfragje, daar staat een methode vermeldt waarmee je het ten koste van een hoge RAM gebruik nog verder kunt rekken.
[ Voor 33% gewijzigd door Ultraman op 09-05-2014 19:34 ]
Als je stil blijft staan, komt de hoek wel naar jou toe.
- als je op een bestaande pool die data bevat een wijziging maakt aan bijv. de gebruikte checksum, wordt dit dan enkel voor nieuwe data toegepast? (ik ga er vanuit van wel?)
- Indien er geen terugwerkende kracht is, betekent dit dat een pool waarop een deel van de data later gewijzigd is een mix van beide checksums zal hebben?
- Als je de setting wijzigt en vervolgens een scrub doet, mag je er vanuit gaan dat alle checksums op een veilige manier naar de nieuwe keuze overzet worden?
Ik wil namelijk kijken of het veel verschil zou maken om terug te schakelen van SHA256 naar Flechter, maar niet als er risico's aan vast hangen
Ja, enkel op geschreven data na het wijzigen van de instelling.enthernal schreef op vrijdag 09 mei 2014 @ 19:39:
Even een paar snelle vraagjes:
- als je op een bestaande pool die data bevat een wijziging maakt aan bijv. de gebruikte checksum, wordt dit dan enkel voor nieuwe data toegepast? (ik ga er vanuit van wel?)
Inderdaad.- Indien er geen terugwerkende kracht is, betekent dit dat een pool waarop een deel van de data later gewijzigd is een mix van beide checksums zal hebben?
Nee, een scrub vervangt niet alles checksums naar de nieuwe bij mijn weten. Een scrub leest de data en de checksum en controleert of deze overeen komt, m.a.w.: integriteit OK? Zo ja, volgende blok | Zo nee, fixen indien mogelijk...- Als je de setting wijzigt en vervolgens een scrub doet, mag je er vanuit gaan dat alle checksums op een veilige manier naar de nieuwe keuze overzet worden?
Die scrub zal zodoende ook alleen bij het schrijven van data, bv. herstel van eventuele corruptie, zo'n nieuwe checksum schrijven. Data met een correcte "oude" checksum is gewoon OK en door naar het volgende blok.
Als je alle data met van een ander soort checksum wilt voorzien zul je alle data opnieuw moeten schrijven.
Geen risico's bij mijn weten.Ik wil namelijk kijken of het veel verschil zou maken om terug te schakelen van SHA256 naar Flechter, maar niet als er risico's aan vast hangen
Ik zou dit echter op een nieuw leeg filesystem testen. Bij voorkeur zelfs op een losse disk buiten mijn eigen pool zelfs, door daarop een nieuwe testpool aan te maken. Zodat de benchmark ook niet beïnvloed wordt door de andere data op de "productie" pool.
Dan kun je op die testpool op die lege disk een filesystem aanmaken, checksum instellen, er wat data naar toe schrijven en benchmark. Vervolgens verwijder je het filesystem en de pool weer, wipe je eventueel de disk, en doe je het nogmaals met een andere checksum.
Als je stil blijft staan, komt de hoek wel naar jou toe.
Mogelijk wel.
Maar met dergelijke hoeveelheden opslagruimte verwacht ik dat het gepruts in de marge zal blijven.
(als het al überhaupt zichtbaar zal zijn...)
Even heel simplistisch: wat is het verschil in lengte van een SHA256 en een Fletcher checksum?
Dan zou je er een globale rekensom op los kunnen laten wat het verschil zou kunnen zijn.
Het zijn bij mij films, dus redelijk statisch, totdat ik er 1 vervang voor een betere kwaleit (remux naar een originele rip of zo) of een film delete die ik niet meer wil bewaren na hem geIen te hebben.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Qua snelheid zal je het, verwacht ik, alleen terug zien in een lagere CPU-load.
Verder... noppes.
Een kennis van me is een videograaf.
Deze had veel data van projecten en dergelijke. Door een blikseminslag is zijn pc stuk gegaan. (Niet alleen zijn pc). En hij had natuurlijk geen backup.
Nu even het volgende als ik voor hem een machine wil bouwen met freenas erop als nas oplossing bij hem.
En ik verkoop hem dat systeem. Mag dat dan? Bedoel mag ik commercieel een product verkopen waar freenas op staat?
Alvast bedankt.
Oke dan bedankt voor je informatie. Reken gewoon een prijs voor het complete systeem wat al geconfigureerd is voor hem. Dus dat is mooi dat het mag.enthernal schreef op zaterdag 10 mei 2014 @ 16:31:
Dat mag gewoon, zolang je niets aanrekent voor het installeren van Freenas.
Alleen FreeNAS (waarom geen ZFSguru?elan schreef op zaterdag 10 mei 2014 @ 16:06:
Door een blikseminslag is zijn pc stuk gegaan. (Niet alleen zijn pc). En hij had natuurlijk geen backup.
Nu even het volgende als ik voor hem een machine wil bouwen met freenas erop als nas oplossing bij hem.
En ik verkoop hem dat systeem. Mag dat dan? Bedoel mag ik commercieel een product verkopen waar freenas op staat?
Daar heb je wel wat meer voor nodig, en dat begint in de meterkast met een overspanningsbeveiliging.
Voor het installeren (uren) en de hardware mag je wel degelijk kosten doorberekenen.enthernal schreef op zaterdag 10 mei 2014 @ 16:31:
Dat mag gewoon, zolang je niets aanrekent voor het installeren van Freenas.
Alleen voor het product FreeNAS zelf niet!
Waarom zou je geen geld mogen vragen voor FreeNAS?]Byte\[ schreef op zaterdag 10 mei 2014 @ 17:11:
[...]
Alleen FreeNAS (waarom geen ZFSguru?) is ook geen oplossing tegen blikseminslag.
Daar heb je wel wat meer voor nodig, en dat begint in de meterkast met een overspanningsbeveiliging.
[...]
Voor het installeren (uren) en de hardware mag je wel degelijk kosten doorberekenen.
Alleen voor het product FreeNAS zelf niet!
Om exact dezelfde reden waarom je FreeNAS ook niet mag omkatten en er je eigen naam aan geven alsof het je eigen product is....Goderic schreef op zondag 11 mei 2014 @ 10:33:
[...]
Waarom zou je geen geld mogen vragen voor FreeNAS?
Voorwaarden, Licentie, GPL.... Ring a bell?
[ Voor 23% gewijzigd door ]Byte[ op 11-05-2014 11:19 ]
Verwijderd
FreeNAS heeft toch een BSD licentie?]Byte\[ schreef op zondag 11 mei 2014 @ 11:18:
[...]
Om exact dezelfde reden waarom je FreeNAS ook niet mag omkatten en er je eigen naam aan geven alsof het je eigen product is....
Voorwaarden, Licentie, GPL.... Ring a bell?
Even niets...
Okay.... heb ik ook weer wat geleerd.FireDrunk schreef op zondag 11 mei 2014 @ 11:39:
Precies, met de BSD licentie mag dat wel... Hoe lang je dat vol kan houden is maar de vraag...
Je moet wel bedenken dat hoe je klant gaat reageren als ie er achter komt dat hij geld heeft moeten betalen voor een product wat gratis gedownload kan worden.
Dan denk ik dat de relatie met de klant van korte duur is.
Speel gewoon open kaart, en zeg dat ie voor de software niet hoeft te betalen, en geef gewoon aan dat ie alleen de manuren doorberekend worden.
Alle open source/vrije software mag je verkopen en je eigen naam aan geven.]Byte\[ schreef op zondag 11 mei 2014 @ 11:18:
[...]
Om exact dezelfde reden waarom je FreeNAS ook niet mag omkatten en er je eigen naam aan geven alsof het je eigen product is....
Voorwaarden, Licentie, GPL.... Ring a bell?
Het enige dat je moet doen is de klant een kopie van de licentie geven, en in het geval van de GPL en andere de broncode. In het geval van de GPL mag je zelfs nog extra geld vragen voor de broncode
Broncode vrijgeven hangt ook van de licentie af. Bij bijv. de apache 2 licentie hoeft dat niet. Mag je opensource producten als closed source distribueren. Dat is de reden dat veel android code een Apache 2 licentie heeft.Goderic schreef op zondag 11 mei 2014 @ 13:06:
[...]
Alle open source/vrije software mag je verkopen en je eigen naam aan geven.
Het enige dat je moet doen is de klant een kopie van de licentie geven, en in het geval van de GPL en andere de broncode. In het geval van de GPL mag je zelfs nog extra geld vragen voor de broncode
Sinds de 2 dagen regel reageer ik hier niet meer
Ik wil er 2x4tb hdd's bij gaan zetten en er moet er ook nog 1 vervangen worden uit mijn data pool,dat wordt echter een 2tb schijf want dat is de andere ook.
Het klopt toch dat je die moet vervangen voor 1 met dezelfde capaciteit?
Die wordt vervangen omdat er 1 inzit die meer als 1000 bad sectors heeft.
Wat is nu de beste manier om dit voor elkaar te krijgen?
Ik wil er minstens 4 tb bij gaan zetten.
Mijn schijven/pools zien er nu dus als volgt uit:
Startpool: een ocz vertex3 ssd 60Gb als systeem schijf.
DATApool:6x2Tb wd earx schijven in raidz1(door guru zelf aangegeven als ideale opstelling) waarvan er 1 dus zoveel bad sectors heeft.
Als jullie adviezen hebben dan graag.
Nog even een totaal andere vraag,is het normaal dat een scrub zolang duurt?
Scrub scrub in progress since Fri May 9 22:58:07 2014 6.04T scanned out of 7.80T at 29.1M/s, 17h35m to go 108K repaired, 77.48% done.
[ Voor 13% gewijzigd door ikkeenjij36 op 12-05-2014 14:36 ]
Je vraag een beetje leesbaar makenWat is nu de beste weg om te gaan?

Sinds de 2 dagen regel reageer ik hier niet meer
zegt mij dat je een HDD hebt die helemaal naar z`en grootje is, oftewel zoveel bad sectors?
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850
Aangepast
Ja dat dacht ikzelf ook dus die moet zowiezo vervangen worden.rikadoo schreef op maandag 12 mei 2014 @ 14:12:
108K repaired
zegt mij dat je een HDD hebt die helemaal naar z`en grootje is, oftewel zoveel bad sectors?
Zie mijn boven gestelde vraag
Eerst de foute hardeschijf vervangen. In Disks pagina je nieuwe schijf formatteren exact zoals de overige 2TB schijven. Dan op de Pools pagina op je pool klikken en bij de 'foute' schijf voor replace with disk X kiezen. Je gaat dan de foute schijf door een nieuwe 2TB schijf vervangen; de oude schijf moet aangesloten blijven tijdens deze procedure. Na de procedure is de foute 2TB schijf vrij en kun je die uit het systeem halen.ikkeenjij36 schreef op maandag 12 mei 2014 @ 13:04:
Hallo allemaal,ik wil mijn zfsguru nas uit gaan breiden.
Ik wil er 2x4tb hdd's bij gaan zetten en er moet er ook nog 1 vervangen worden uit mijn data pool,dat wordt echter een 2tb schijf want dat is de andere ook.
Het klopt toch dat je die moet vervangen voor 1 met dezelfde capaciteit?
Die wordt vervangen omdat er 1 inzit die meer als 1000 bad sectors heeft.
Wat is nu de beste manier om dit voor elkaar te krijgen?
6 schijven is alleen in RAID-Z2 een optimale configuratie. Zie de startpost voor details, in het kort:DATApool:6x2Tb wd earx schijven in raidz1(door guru zelf aangegeven als ideale opstelling)
RAID-Z: 3, 5 of 9 disks
RAID-Z2: 4, 6 of 10 disks
RAID-Z3: 5, 7 of 11 disks
Als een schijf voor leesfouten zorgt en de hele pool naarbeneden trekt qua performance, dan zou dat kunnen. Ook als je heftige fragmentatie hebt en een volle pool is dit mogelijk.Nog even een totaal andere vraag,is het normaal dat een scrub zolang duurt?
Scrub scrub in progress since Fri May 9 22:58:07 2014 6.04T scanned out of 7.80T at 29.1M/s, 17h35m to go 108K repaired, 77.48% done.
de volgende waarschuwing maakt me een beetje terughoudend:
Ik maak gebruik van FreeNAS, de dataset waar ik deduplicatie voor overweeg aan te zetten is 3.6 TiB.ZFS v28 includes deduplication, which can be enabled at the dataset level. The more data you write to a deduplicated volume the more memory it requires, and there is no upper bound on this. When the system starts storing the dedup tables on disk because they no longer fit in RAM, performance craters. There is no way to undedup data once it is deduplicated, simply switching dedup off has NO AFFECT on the existing data. Furthermore, importing an unclean pool can require between 3-5GB of RAM per TB of deduped data, and if the system doesn't have the needed RAM it will panic, with the only solution being adding more RAM or recreating the pool. Think carefully before enabling dedup! Then after thinking about it use compression instead.
Eventueel kan ik voor 1 grote VM (disk van 1TB) nog een aparte dataset maken zonder deduplicatie, dan zou ik dus 2,6 TiB aan dedup data hebben. De pool bestaat uit 4 mirrors van 1TB disks.
Naast deze pool staat een media pool van 5x4 TB in zraid1. Deze wil ik in de toekomst uit breiden met 2 nieuwe vdev van 5x 4TB. Gaat dat nog extra geheugen verbruiken?
Onderstaand het systeem:
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G2020 Boxed | € 45,- | € 45,- |
1 | ASRock B75 Pro3-M | € 46,61 | € 46,61 |
8 | Samsung Spinpoint F3 HD103SJ, 1TB | € 0,- | € 0,- |
1 | Ri-vier 4U 24bay SAS/SATA storage chassis - RVS4-06A | -- | -- |
2 | Intel PRO/1000 GT | € 29,99 | € 59,98 |
1 | Kingston HyperX KHX1600C10D3B1K2/16G | € 132,- | € 132,- |
1 | Kingston ValueRAM KVR1066D3N7K2/8G | € 0,- | € 0,- |
1 | Seasonic G-Serie 450Watt | € 67,03 | € 67,03 |
1 | Myricom 10G-PCIE-8A-C | -- | -- |
Bekijk collectie Importeer producten | Totaal | € 350,62 |
Ik heb nog niet kunnen vinden hoe ik de dedup-ratio van een dataset opvraag, alleen van het hele volume. Dat vertekend natuurlijk want een ratio van 1.04 op het hele volume kan goed inhouden dat je 10 TB aan films @ 1.00 hebt opgeslagen en op 200 GB aan backups 7.23 (of zo) haalt... In Windows op de SMB share zijn de "grootte" en "op schijf" in ieder geval aan elkaar gelijk.
Verder heb ik nog niet echt gekeken wat het geheugen doet
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Zijn dat allemaal VM images die grote delen met elkaar delen? Of wil je dedup gewoon voor de grote dataset inschakelen? Dat laatste is gekkenwerk.Extera schreef op maandag 12 mei 2014 @ 15:09:
Ik maak gebruik van FreeNAS, de dataset waar ik deduplicatie voor overweeg aan te zetten is 3.6 TiB.
Deduplicatie gebruik je op filesystems met grote overlap. Dus bijvoorbeeld Ubuntu VM images als je er daar 100 van hebt met allemaal een kale installatie + wat meuk; dan hoef je de kale installatie maar één keer op te slaan in plaats van 100 keer. In dit geval kun je deduplicatie rustig inschakelen. Maar dedup inschakelen voor een grote dataset is vrijwel altijd een heel slecht idee. De paar procent storage die je er mee uitspaart is een totale crash van de performance absoluut niet waard. Geef een paar euro uit aan een paar extra GB als je verlegen zit om storage.
Dedupliatie is niet bedoeld voor casual users om wat extra opslag te krijgen. Het is bedoeld om datasets die erg op elkaar lijken te verenigen en hiermee enorm veel disk space te besparen. Alleen in specifieke situaties heeft het nut dus. In vrijwel alle gevallen wil je deduplicatie uitgeschakeld hebben. Overweeg LZ4-compressie als je een paar procent extra storage wilt. Of koop gewoon een schijf extra; ga dus niet je mooie ZFS server om zeep helpen vanwege onstilbare honger naar opslag.
Ps: PCI netwerkkaarten zijn not done.
Nu had ik een default gateway 192.168.2.1 en dat is 192.168.2.254 geworden.
Ik heb de rc.conf aangepast: defaultrouter="192.168.2.254"
Daarna moest de resolv.conf nog aangepast worden.
nameserver 192.168.2.254
Ik had een search staan, maar die had de dns van mijn oude ISP (ooit via dhcp gegenereerd volgens mij)
Wat stel ik daar in ?
De man page wel gevonden uiteraard: http://www.freebsd.org/cgi/man.cgi?resolv.conf
maar kan ik daar niet beter een goolgle dns of zo inzetten ?
[ Voor 14% gewijzigd door jacovn op 12-05-2014 16:29 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Zou ik wel doen, op diezelfde thuisroutertjes kunnen meestal geen reservering instellen in DHCP en je hebt natuurlijk het liefste dat je NAS altijd hetzelfde adres heeft.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Dat is duidelijk, maar stel ik heb geen sata aansluiting meer beschikbaar, allemaal in gebruik voor een Raidz1 of Raidz2 pool, dus kan ik de nieuwe Disk niet online brengen, hoe los je dit dan op als zoals je zegt dat de oude Disk aangesloten moet blijven.Verwijderd schreef op maandag 12 mei 2014 @ 15:00:
[...]
Eerst de foute hardeschijf vervangen. In Disks pagina je nieuwe schijf formatteren exact zoals de overige 2TB schijven. Dan op de Pools pagina op je pool klikken en bij de 'foute' schijf voor replace with disk X kiezen. Je gaat dan de foute schijf door een nieuwe 2TB schijf vervangen; de oude schijf moet aangesloten blijven tijdens deze procedure. Na de procedure is de foute 2TB schijf vrij en kun je die uit het systeem halen.
Is dit enkel een advies ,noodzakelijk of is het simpelweg beter om deze aangesloten te laten?
Wat is jou definitie van 'groot'?Verwijderd schreef op maandag 12 mei 2014 @ 15:26:
[...]
Maar dedup inschakelen voor een grote dataset is vrijwel altijd een heel slecht idee.
Ik heb er eentje van 2 TB waar m'n TimeMachine Backups naartoe gaan...
Dan zet ik er wel eentje extra bij![...] ga dus niet je mooie ZFS server om zeep helpen vanwege onstilbare honger naar opslag.
Maar nog even een andere vraag tav dedup...
Bij zowel Datadomain als HP adviseren ze aparte datasets te maken per 'type' bestanden.
Ze doelen daarmee o.a. op, voor VM's om Linux en Windows op aparte datasets te zetten, backups aparte dataset etc.
Hoe zit dit met ZFSguru? Is hiervoor een zelfde richtlijn/advies? (alhoewel mij nooit echt duidelijk is geworden naar de 'waarom')
Ik neem aan dat voor ZFSguru hetzelfde geldt voor (extreem) disk-I/O intensieve applicaties/VM's die niet op een dedup-dataset te zetten?
Overal waar ik over dedup lees, wordt het min of meer afgeraden.Verwijderd schreef op maandag 12 mei 2014 @ 15:26:
[...]
Zijn dat allemaal VM images die grote delen met elkaar delen? Of wil je dedup gewoon voor de grote dataset inschakelen? Dat laatste is gekkenwerk.
Deduplicatie gebruik je op filesystems met grote overlap. Dus bijvoorbeeld Ubuntu VM images als je er daar 100 van hebt met allemaal een kale installatie + wat meuk; dan hoef je de kale installatie maar één keer op te slaan in plaats van 100 keer. In dit geval kun je deduplicatie rustig inschakelen. Maar dedup inschakelen voor een grote dataset is vrijwel altijd een heel slecht idee. De paar procent storage die je er mee uitspaart is een totale crash van de performance absoluut niet waard. Geef een paar euro uit aan een paar extra GB als je verlegen zit om storage.
Dedupliatie is niet bedoeld voor casual users om wat extra opslag te krijgen. Het is bedoeld om datasets die erg op elkaar lijken te verenigen en hiermee enorm veel disk space te besparen. Alleen in specifieke situaties heeft het nut dus. In vrijwel alle gevallen wil je deduplicatie uitgeschakeld hebben. Overweeg LZ4-compressie als je een paar procent extra storage wilt. Of koop gewoon een schijf extra; ga dus niet je mooie ZFS server om zeep helpen vanwege onstilbare honger naar opslag.
Ps: PCI netwerkkaarten zijn not done.
Het was de bedoeling om dedup aan te zetten voor +- 15 Linux VM's en iets van 4 Windows VM's.
in principe allemaal kale installaties met per VM wat verschillende services. Op zich perfect voor deduplicatie, zeker als ik de VMs opnieuw zou installeren vanaf een nieuw (Ubuntu 14.04 LTS) basis image.
Aan de andere kant, de meeste VM's hebben niet veel meer dan 15GB aan disk ruimte nodig, dus de ruimte heb ik niet eens echt nodig. Ik kan altijd nog 1 van de mirrors uitbreiden met grotere schijven, of een mirror toevoegen aan de pool.
Andere vraag:
Gaat FreeNAS / ZFS vanzelf gebruik maken van het beschikbare geheugen?
p.s.
die sloten zitten er helaas nu eenmaal
Je kan de oude disk offline halen / detachen, en dan de nieuwe disk toevoegen waarna hij gaat resilveren.Habana schreef op maandag 12 mei 2014 @ 18:00:
[...]
Dat is duidelijk, maar stel ik heb geen sata aansluiting meer beschikbaar, allemaal in gebruik voor een Raidz1 of Raidz2 pool, dus kan ik de nieuwe Disk niet online brengen, hoe los je dit dan op als zoals je zegt dat de oude Disk aangesloten moet blijven.
Is dit enkel een advies ,noodzakelijk of is het simpelweg beter om deze aangesloten te laten?
[ Voor 12% gewijzigd door Extera op 13-05-2014 08:25 ]
Eigenlijk heel simpel:]Byte\[ schreef op maandag 12 mei 2014 @ 19:31:
*knip*
Maar nog even een andere vraag tav dedup...
Bij zowel Datadomain als HP adviseren ze aparte datasets te maken per 'type' bestanden.
Ze doelen daarmee o.a. op, voor VM's om Linux en Windows op aparte datasets te zetten, backups aparte dataset etc.
Hoe zit dit met ZFSguru? Is hiervoor een zelfde richtlijn/advies? (alhoewel mij nooit echt duidelijk is geworden naar de 'waarom')
*knip*
Voor elk dataset / filesystem wordt er een deduptable gemaakt. Als die deduptable alleen maar voor Linux VM's geld, is hij relatief kort. Hoe meer van dezelfde data je op 1 volume houdt, hoe kleiner de dedup tables.
Stel je hebt 100 Windows VM's en 100 Linux VM's. Als die allemaal op 1 dedup share staan moet de dedup table in RAM alle checksums van beide van die basis VM disks bevatten.
Als je 2 datasets zou hebben zou je 2 tables krijgen die elk hun eigen data bevatten.
Schrijf je dan op 1 van de twee datasets is de lookup in de dedup table veel sneller omdat hij veel minder checksums hoeft te vergelijken. Hoe diverser de data, hoe groter de tables (daarom dus ook nooit grote mediashares, want je hebt gigantische deduptables waar je geen bal aan hebt.)
Even niets...
2x 500GB datasets aanmaken, (Linux en Windows).
Op die manier moeten de tabellen dan beperkt blijven.
Mocht het niet lekker werken / performen, dan doe ik een storage vmotion naar een andere dataset, dedup uit, en weer terug met de hele handel
Ik zal hier wel wat benchmarks neerzetten voor de liefhebbers
Graag!
[ Voor 84% gewijzigd door gerwim op 13-05-2014 09:19 ]
[ Voor 93% gewijzigd door ]Byte[ op 13-05-2014 11:45 ]
Wat is nu de beste samenstelling voor mijn pools?
Met 6x2tb en 2x4tb hdd's.
O ja en nog 2x1tb schijven die ik nog had liggen.
Graag advies hiervoor van de specialisten.
[ Voor 11% gewijzigd door ikkeenjij36 op 13-05-2014 12:55 ]
[root@zfsguru /etc]# nslookup www.yahoo.com
;; connection timed out; no servers could be reached
[root@zfsguru /etc]# cat /etc/resolv.conf
# Generated by resolvconf
search 195.121.1.34, 195.121.1.66
nameserver 192.168.2.254
Opgelost door de KPN DNS te gebruiken.
[root@zfsguru /etc]# cat /etc/resolv.conf
# Generated by resolvconf
search 195.121.1.34, 195.121.1.66
nameserver 195.121.1.34
[root@zfsguru /etc]# nslookup www.yahoo.com
Server: 195.121.1.34
Address: 195.121.1.34#53
Non-authoritative answer:
www.yahoo.com canonical name = fd-fp3.wg1.b.yahoo.com.
fd-fp3.wg1.b.yahoo.com canonical name = ds-fp3.wg1.b.yahoo.com.
ds-fp3.wg1.b.yahoo.com canonical name = ds-eu-fp3-lfb.wa1.b.yahoo.com.
ds-eu-fp3-lfb.wa1.b.yahoo.com canonical name = ds-eu-fp3.wa1.b.yahoo.com.
Name: ds-eu-fp3.wa1.b.yahoo.com
Address: 46.228.47.115
Name: ds-eu-fp3.wa1.b.yahoo.com
Address: 46.228.47.114
Affijn updates kunnen nu, nu de vraag wat wijsheid is.
Ik draai: 9.1-005 met 0.2.0-beta8
Optie A: don't fix it if it aint broken..
Optie B: 9.2-001
Optie c: 10.0-002
Ik snap uit het zfsguru forum dat ik geen beta 9 interface op de huidige bsd install moet gaan draaien.
Bug fixes zijn altijd handig, maar of ik ze per se nodig heb ?
Ik heb nergens een geode motivatie gevonden waarom je naar iets upgraden moet, tenzij je ZFS v5000 wil gebruiken, maar dan moet ik ook nog een pool upgrade gaan doen.
Heb ik niet goed gezocht in deze thread wellicht ?
[ Voor 35% gewijzigd door jacovn op 13-05-2014 13:42 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Ik zeg LZ4jacovn schreef op dinsdag 13 mei 2014 @ 13:33:
Ik heb nergens een geode motivatie gevonden waarom je naar iets upgraden moet, tenzij je ZFS v5000 wil gebruiken, maar dan moet ik ook nog een pool upgrade gaan doen.
Hoewel ik toch binnenkort maar ga upgraden en LZ4 ga aanzetten inderdaad.
Even niets...
Nog steeds ssd als start en daarna heb ik er nu 7 als raidz3 gemaakt als data pool en ook nog een pool groot(als t maar een naampje heeft) van 2x4tb.
Als ik nu opnieuw op start zegt ie unknwon version(5000) should be 28
Hoe kan ik dat ook alweer oplossen?
Heb versie 10.1-01 eropgezet.
Als ik met de live cd pool upgrade wil doen geeft ie aan wrong version v33.
Ik heb de pools aangemaakt met v28.
Ik wacht op antwoord van jullie experts.
Ja iddVerwijderd schreef op dinsdag 13 mei 2014 @ 19:02:
De bootcode updaten op de Disks pagina.









Heb dit natuurlijk al eerder aan de hand gehad.
Wat stom van mij,maar misschien makkelijk voor nieuwe gebruikers die dit ook meemaken,ik heb nu alles schijven per stuk een update system bootcode gedaan,eens kijken of tie nu op wil starten zonder live cd.
EDIT:HELAAS ik krijg nu een rondraaiend streepje met een streepje eronder,wat heb ik nu weer fout gedaan
?
Mm de pols staan nog steeds op spa 28,ik neem aan dat dat de versie is?
Moet ik nu gewoon de pool updaten naar v33 of niet?
[ Voor 19% gewijzigd door ikkeenjij36 op 13-05-2014 19:26 ]
De initiele install ging bij mij in 1 keer goed, zonder enige bsd kennis een werkend systeem.
Echter bij een os upgrade al je pool hdds bootcode moet updaten vindt ik minder logisch, of hoeft dat alleen maar als je van de pool boot etc.
[ Voor 0% gewijzigd door jacovn op 13-05-2014 22:14 . Reden: Spelfout ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Alles up to date laatste versie erop en weer de 2 streepjes
en plat en stil en een andere die heel langzaam rondraait.
Wie weet wat te doen?
Als ik daarn weer op start met de live cd is mijn pool om op te starten weer verdwenen?
Ik denk dat het daar mis gaat.
Ik ga de startpool destroyen en overnieuw maken.
Kijken of dat helpt.
[ Voor 38% gewijzigd door ikkeenjij36 op 13-05-2014 21:25 ]
pools gedelte en overniwue begonnen met clean install
nu krijg ik de melding
1
| zfs:unsupported feature:comdelphix:hole_birth |
En hij start niet op.
Wat nu?
Als je gewoon een standaard ZFSGuru installatie had gedaan dan was alles prima gegaan en had je deze fout niet gezien.Verwijderd schreef op zondag 09 februari 2014 @ 21:44:
Hoi ikkeenjij36,
Ik vind het knap dat je probeert allerlei zaken werkend te krijgen; maar ik vermoed toch dat zaken als [...] werkend krijgen, boven jouw technisch niveau ligt. Gevolg is dat je voor vrijwel elke stap hulp nodig hebt en de kans dat het uiteindelijk gaat werken heel klein is. Al zou je het werkend krijgen, de manier hoe je omgaat met je server - veel nieuwe dingen proberen - kan ervoor zorgen dat het opeens niet meer gaat werken en dan kun je weer van voor af aan beginnen.
[...] Je steekt veel moeite in iets wat weinig oplevert. [...]
Sinds de 2 dagen regel reageer ik hier niet meer
Ehm beste curlymo snap mij niet verkeerd ik vind alle hulp die ik tot nu toe gehad heb altijd informatief geweest enz.CurlyMo schreef op woensdag 14 mei 2014 @ 01:04:
[...]
Als je gewoon een standaard ZFSGuru installatie had gedaan dan was alles prima gegaan en had je deze fout niet gezien.
Maar nu ik gewoon met een standaard instalatie van zfsguru ben begonnen op alle schijven leeg en geformateerd wil het gewoon niet werken,ik krijg dus niet eens een gewone instal voor elkaar op dit moment,ligt het aan mij?
misschien maar ales een standaard install niet wil lukken?
Zonder xtra dingen of wat maar ook ja dan houdt het voor mij wel op een beetje.

Los starten met alleen ssd gaat perfect ik kan er een pool op aanmaken niks aan de hand.
Zodra ik hdd's bij ga zetten loopt het mis met nu nog maar 1x die melding van unsupported feature enz.
Is het nu disk voor disk kijken welke niet wil werken?
Heeft het al ooit wel gewerkt op deze hardware?ikkeenjij36 schreef op woensdag 14 mei 2014 @ 01:52:
Nog ff een update.
Los starten met alleen ssd gaat perfect ik kan er een pool op aanmaken niks aan de hand.
Zodra ik hdd's bij ga zetten loopt het mis met nu nog maar 1x die melding van unsupported feature enz.
Is het nu disk voor disk kijken welke niet wil werken?
Ik begin te denken aan een incompatibiliteit met de HW...
De problemen die jij nu hebt had ik ook op mijn GigaByte MB.
Even niets...
Deze melding heeft te maken met een zfs v5000 feature op je pool die niet wordt ondersteund door je huidige zfs versie. Dat is raar want een standaard ZFSGuru installatie installeert helemaal geen v5000, maar v28. Die melding zou je dus nooit kunnen zien als je niet handmatig de zfs versie verhoogt of achteraf een upgrade heb uitgevoerd.ikkeenjij36 schreef op dinsdag 13 mei 2014 @ 22:12:
MM nu eens gedaan met de laatste live cd
pools gedelte en overniwue begonnen met clean install
nu krijg ik de meldingcode:
1 zfs:unsupported feature:comdelphix:hole_birth
En hij start niet op.
Wat nu?
No offense, maar ik begrijp jou naar mijn idee niet verkeerd. Wat me alleen verbaast (misschien is het wel deugdzaam hoor
- Geen meerdere reacties achter elkaar, maar je vorige reactie aanvullen.
Dat waren er eventjes terug 4
- Je reactie goed opmaken: spelling, alinea's, interpunctie.
ikkeenjij36 in "Het grote ZFS topic"
- Eerst dingen zelf proberen en uitzoeken voor je hulp vraagt en aangeven wat je dan al hebt geprobeerd.
Via google: http://zfsguru.com/forum/zfsgurusupport/823
Vanuit het niets komt opeens CurlyMo met wat opmerkingen aanzetten, maar laten we zeggen dat ik een oude bekende ben die dit topic en ZFSguru an sich een beetje op de zijlijn volgt. CiPHER is nogal druk en alles wat we kunnen doen om hem te ontluchten is meegenomen
Sinds de 2 dagen regel reageer ik hier niet meer
Mijn excuses voor mijn reacties maar werdt er totaal gefrustreerd van dat het niet wou werken met een clean install.
Ik ben tot vanochten 5 uur bezig geweest voor ik hem weer had draaien.
Ik heb nu eerst versie 9.1-001 eropgezet via livecd.
Ik heb het op een pool gezet met mijn hdd's zonder ssd.
Daarna alles geupdate via de webgui en alles draait.
Mijn ssd gebruik ik nu als slog device en alles draait gelukkig nu.
Nu bezig met de basic dingen voor mij en daarna doe ik niks meer erbij zetten en hou het gewoon basic.
Voor verdere dingen wacht ik gewoon op de verdere ontwikkeling van zfsguru.
Bedankt voor jullie hulp tot nu toe.
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.