• MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

nu wil ik vandaag eindelijk gaan starten met Ubunut server met ZFS,

nu heb ik 5TB vrije schijfruimte, maar dit is allemaal verspreid over meedere disks.

- moet een pool volledig leeg zijn om aangemaakt te kunnen worden?
- kan ik bij het creeëren van een pool, mijn oude MDADM schijven blijven aanspreken?
- hoe zou ik mijn 80gb ssd partitioneren voor Ubuntu server?

\\ Baloo \\ Mijn iRacing profiel


  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 23:52
krijn1985 schreef op zaterdag 10 november 2012 @ 21:24:

server <----> client
-
tmpfs   <--  tmpfs   = +/- 85 MB/s (nautilus als root geopend)
tmpfs   <--  tmpfs   = +/- 37 MB/s (nautilus als user)
tmpfs   --> tmpfs    = +/- 85 MB/s  (nautilus als root geopend)
zfspool <--  tmpfs   = +/- 30 MB/s (nautilus als user)
zfspool <--  tmpfs   = raar gedrag, springt in 1 keer naar 790 mb en gaat dan aflopen van ongeveer 60 MB/s terug naar 40 (nautilus als root)
tmpfs    --> hdd     = +/- 32 MB/s (nautilus als user)
tmpfs    --> hdd     = +/- 75 MB/s (nautilus als root)
zfspool  --> hdd     = +/- 81 MB/s (nautlius als root)
zfspool  --> hdd     = +/- 32 MB/s (nautlius als user)
zfspool <--  hdd     = +/- 30 MB/s (nautilus als user)
zfspool <--  hdd     = +/- 23 MB/s (nautilus als root)
Ok nu vanaf ubuntu live stick haal ik:

ongeveer 80 MB/s vanaf een 750GB samsung schijf (zal dus iets langzamer zijn) naar mijn zfspool. Kopien tussen tmpfs lieten wat rare waardes zien doordat ze gelijk naar 700mb sprongen en daarna vanaf 70 mb/s terugliepen naar iets van 40 als het bestand klaar was.

Bij het kopieren van HD naar zfspool had ik de volgende top output:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
st pid:  6507;  load averages:  4.54,  2.14,  0.93        up 0+21:58:18  14:48:35
34 processes:  2 running, 32 sleeping
CPU:  4.9% user,  0.0% nice, 65.6% system, 16.5% interrupt, 13.0% idle
Mem: 1545M Active, 12M Inact, 12G Wired, 288K Cache, 2092M Free
Swap: 2048M Total, 2048M Free

  PID USERNAME  THR PRI NICE   SIZE    RES STATE   C   TIME   WCPU COMMAND
 6420 root        1  84    0 47916K  8116K CPU0    0   2:31 38.96% smbd
 1754 root        1  20    0 12052K  1324K select  1   0:16  0.00% powerd
 1820 www         1  52    0 51824K  8760K accept  0   0:04  0.00% php-cgi
 1787 www         1  20    0 30852K  3784K kqread  1   0:04  0.00% lighttpd
 1776 root        1  20    0 40976K  3104K select  1   0:03  0.00% nmbd
 1712 root        4  20    0  9912K  1284K rpcsvc  0   0:01  0.00% nfsd
 1778 root        1  20    0 47628K  4872K select  0   0:00  0.00% smbd
 1806 root        1  20    0 14128K  1544K nanslp  0   0:00  0.00% cron
 1662 root        1  20    0 12052K  1456K select  1   0:00  0.00% syslogd
 1674 root        1  20    0 14132K  1788K select  0   0:00  0.00% rpcbind
 1718 root        1  52    0 22324K  4784K rpcsvc  1   0:00  0.00% rpc.lockd
 1715 root        1  20    0   280M  4832K select  0   0:00  0.00% rpc.statd
 6491 root        1  20    0 16560K  2124K CPU1    1   0:00  0.00% top
 1711 root        1  52    0 18104K  4728K select  0   0:00  0.00% nfsd
 6472 root        1  21    0 67888K  4368K sbwait  0   0:00  0.00% sshd
 1789 www         1  52    0 51824K  4716K wait    1   0:00  0.00% php-cgi
 1850 root        1  52    0 47724K  5332K piperd  1   0:00  0.00% php


VOlgens mij ligt het "langzame" kopieren dus aan mijn huidige ubuntu install. Misschien binnenkort dus dan toch maar even een fresh install doen (waarbij ik misschien ook wel gelijk naar Mint overga).

edit2:

Nu lijkt het vanuit mijn gewone install ook stuk sneller te gaan zo tussen de 60 tot 80 MB/s kan ik halen. Als root in nautilus kwam ik zelfs op 90MB/s. Denk dus toch dat mijn desktop hier de snelheid lijkt te limiteren.

Ik heb ook het idee dat het gebruik van ifconfig re0 polling mijn cpu idle % in top lijkt te verhogen. Met polling aan is cpu idle tussen de 20 tot 40% zonder zit het tussen de 5 en 35% ongeveer.
Is dit eventueel automatisch toe te passen?

edit2:
Ik snap het niet helemaal meer. Nu doet een kopie (53GB aan muziek) ongeveer 35MB/s (als gewone ubuntu user). Hierbij is cpu idle % op mijn nas iets van 40 tot 60%.
Ik denk dat ik nu maar gewoon zfsguru verder ga instellen (de benodigde filesystems aan maken en mijn bestand maar is ga kopieren). Daarnaast Sabnzbd etc instellen en dan binnenkort een clean install van mijn desktop doen.

[ Voor 12% gewijzigd door krijn1985 op 11-11-2012 16:28 ]


Verwijderd

Topicstarter
En doe eens niet via dat aparte nautilus maar doe het eens 'proper' via de command line met mount of via fstab cifs driver. Zoiets als: mount -t cifs //192.168.1.88/tmpfs /mnt/tmpfs
Nautilus gebruikt een eigen soort 'SMB browser' en is niet 'the real thing' als ik dat goed had begrepen. Probeer het dus eens via een normale échte mount.

  • Wolfensteijn
  • Registratie: Maart 2000
  • Laatst online: 22:24
Freebsd 9.0 werkt prima, maar zodra ik op welke manier dan ook upgrade naar 9.1 RC3 (of welke andere release na 9.0) dan krijg ik als error melding "unsupportable block size 0" op elke fysieke hardeschijf.

Freebsd/ZFSguru is als virtuele machine geïnstalleerd op een VMware ESXi 5.1 machine. De schijven zijn met hulp van oa deze website als RDM gekoppeld.

Met system image 9.0-004 featuring FreeBSD 9.0-RELEASE with ZFS v28 werkt het allemaal prima, maar welke nieuwe system image geeft die block size error. En ik snap niet waarom...

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 23:52
Verwijderd schreef op zondag 11 november 2012 @ 16:38:
En doe eens niet via dat aparte nautilus maar doe het eens 'proper' via de command line met mount of via fstab cifs driver. Zoiets als: mount -t cifs //192.168.1.88/tmpfs /mnt/tmpfs
Nautilus gebruikt een eigen soort 'SMB browser' en is niet 'the real thing' als ik dat goed had begrepen. Probeer het dus eens via een normale échte mount.
In dit geval is wordt er gekopieerd naar mijn media filesystem die gemount is via de command line. Het kopieren gaat echter wel via nautilus. Kan je bij het kopieren via de command line ook de snelheid zien?

update: Wat ik zo snel konden vinden is dat pv de snelheid output kan geven, dus hiermee getest. De snelheid schommelde uiteindelijk nogal erg tussen 15 MB/s tot 95 MB/s. Waarbij uiteindelijk dit het resultaat is:
code:
1
2
krijn@krijn-desktop:/media/opslag2tb/media/films en series/films/Drive (2011)$ pv Drive.2011.1080p.BluRay.1080p.x264.DTS-HDMaNiAcS.mkv > /media/zfsgurumedia/drive.mkv
6.67GB 0:01:54 [59.9MB/s] [==================================>] 100%

[ Voor 26% gewijzigd door krijn1985 op 11-11-2012 16:56 ]

Wolfensteijn schreef op zondag 11 november 2012 @ 16:41:
Freebsd 9.0 werkt prima, maar zodra ik op welke manier dan ook upgrade naar 9.1 RC3 (of welke andere release na 9.0) dan krijg ik als error melding "unsupportable block size 0" op elke fysieke hardeschijf.

Freebsd/ZFSguru is als virtuele machine geïnstalleerd op een VMware ESXi 5.1 machine. De schijven zijn met hulp van oa deze website als RDM gekoppeld.

Met system image 9.0-004 featuring FreeBSD 9.0-RELEASE with ZFS v28 werkt het allemaal prima, maar welke nieuwe system image geeft die block size error. En ik snap niet waarom...
Dat heeft geloof ik te maken met de nieuwere LSI drivers.
Heb je de firmware van je controller al geupdate? Die moet geloof ik matchen met de nieuwste driver.

(Zelfs VMWare's eigen 'virtuele' LSI Controller heeft er last van onder FreeBSD.)

Even niets...


  • Wolfensteijn
  • Registratie: Maart 2000
  • Laatst online: 22:24
FireDrunk schreef op zondag 11 november 2012 @ 16:53:
[...]


Dat heeft geloof ik te maken met de nieuwere LSI drivers.
Heb je de firmware van je controller al geupdate? Die moet geloof ik matchen met de nieuwste driver.

(Zelfs VMWare's eigen 'virtuele' LSI Controller heeft er last van onder FreeBSD.)
De fysieke controller is een onboard intel geval, dus dat klinkt als een bios update?
He? Je hebt 0 block device op een Intel controller? Dat heb ik nog niet gezien :+
Daar geld dit verhaal niet voor ;)

Even niets...


  • Wolfensteijn
  • Registratie: Maart 2000
  • Laatst online: 22:24
FireDrunk schreef op zondag 11 november 2012 @ 17:11:
He? Je hebt 0 block device op een Intel controller? Dat heb ik nog niet gezien :+
Daar geld dit verhaal niet voor ;)
Het systeem wat ik gebruik ondersteund alleen vt-x (dus geen vt-d), wat voor alleen mapping van harde schijven voldoende zou moeten zijn.

Zou het kunnen dat ESXi een virtuele LSI controller gebruikt voor het aanbieden van de schijven aan een VM? En dat ik dus moet uitzoeken of er daar een update van VMware voor is?

Verwijderd

Topicstarter
FireDrunk schreef op zondag 11 november 2012 @ 17:11:
He? Je hebt 0 block device op een Intel controller? Dat heb ik nog niet gezien :+
Daar geld dit verhaal niet voor ;)
Jawel dat is precies die fout. mps driver in FreeBSD 9.1 met oudere firmware gaat niet samen. Alleen oude mps driver met oude firmware of nieuwe mps driver met nieuwe firmware.

Onboard SAS controller betekent vaak dat je tijdens het flashen van het BIOS ook de option ROM van je SAS controller meeflasht. Je zult daarvoor extra moeten zoeken, maar het zou wel moeten kunnen. Zo niet heb je een groot probleem!

  • Wolfensteijn
  • Registratie: Maart 2000
  • Laatst online: 22:24
Verwijderd schreef op zondag 11 november 2012 @ 17:26:
[...]

Jawel dat is precies die fout. mps driver in FreeBSD 9.1 met oudere firmware gaat niet samen. Alleen oude mps driver met oude firmware of nieuwe mps driver met nieuwe firmware.

Onboard SAS controller betekent vaak dat je tijdens het flashen van het BIOS ook de option ROM van je SAS controller meeflasht. Je zult daarvoor extra moeten zoeken, maar het zou wel moeten kunnen. Zo niet heb je een groot probleem!
Het moederbord is een MSI P67S-C43, met Intel G620 CPU. Geen onboard SAS controller, maar gewoon built-in Intel SATA controller.
Precies, maar je geeft via RDM natuurlijk de disks door. Dus IN de vm heb je ook nog een controller...
En juist die is gevoelig voor FreeBSD 9.1's probleem met 0-block devices...

Even niets...


  • Wolfensteijn
  • Registratie: Maart 2000
  • Laatst online: 22:24
FireDrunk schreef op zondag 11 november 2012 @ 17:49:
Precies, maar je geeft via RDM natuurlijk de disks door. Dus IN de vm heb je ook nog een controller...
En juist die is gevoelig voor FreeBSD 9.1's probleem met 0-block devices...
Dus ik moet of de 'firmware' van de LSI controller in de VM updaten, of de driver in Freebsd downgraden?

Heb je tips en/of adviezen wat haalbaar is, en waar ik informatie kan vinden over hoe dat te doen?

Verwijderd

Topicstarter
Hm, dus het gaat om de geëmuleerde controller die ESXi aanbiedt? Dan kun je die niet zomaar flashen lijkt me. Balen!
De firmware van de LSI controller in ESX is inderdaad niet te flashen. Datzelfde probleem heb ik ook gehad.

Je kan nog proberen of het met ESXi 5.1 is opgelost, maar ik denk het niet...

VMware ligt een beetje heel erg achter als het gaat om Drivers / Firmware voor FreeBSD...


http://www.vmware.com/res...rtOrder=Asc&testConfig=16

Officieel is de LSI controller wel supported...

[ Voor 37% gewijzigd door FireDrunk op 11-11-2012 18:39 ]

Even niets...


Verwijderd

Topicstarter
Onder FreeBSD 9.0 ja, omdat die een oudere versie van de mps driver heeft; die eigenlijk niet stabiel/officiëel is. FreeBSD 9.1 heeft een betere 'mps' driver die officiëel door LSI mensen is geschreven en als 'voltooid' is gemarkeerd.

ESXi + FreeBSD is altijd al een ongelukkige combinatie geweest, of althans een combinatie met een groter aantal issues dan ESXi + Linux vermoed ik. Dat is enigszins logisch; als twee softwarepakketten vaak in combinatie gebruikt worden, is de ondersteuning hiervoor vaak ook beter. Zodra je van de gemarkeerde paden loopt de jungle in, loop je een grotere kans iets naars mee te maken.

Je kunt vooralsnog bij FreeBSD 9.0 blijven met een oudere mps driver, of misschien proberen de oude mps driver te compileren op FreeBSD 9.1. Best wel klote IMO. Maar geëmuleerde hardware is dan ook niet iets waar ik gauw enthousiast van word...

  • analog_
  • Registratie: Januari 2004
  • Niet online
FireDrunk schreef op zondag 11 november 2012 @ 18:25:
De firmware van de LSI controller in ESX is inderdaad niet te flashen. Datzelfde probleem heb ik ook gehad.

Je kan nog proberen of het met ESXi 5.1 is opgelost, maar ik denk het niet...

VMware ligt een beetje heel erg achter als het gaat om Drivers / Firmware voor FreeBSD...


http://www.vmware.com/res...rtOrder=Asc&testConfig=16

Officieel is de LSI controller wel supported...
Ik denk dat je hier niet om heen kan werken in de praktijk, technisch en in theorie is het denk ik wel mogelijk. Het beste wat je kan doen is wachten op een nieuwe (virtuele) hardware revisie van VMware. Enfin ik heb in het verleden gPXE in een e1000 van vmware gehad. bron.

  • Wolfensteijn
  • Registratie: Maart 2000
  • Laatst online: 22:24
FireDrunk schreef op zondag 11 november 2012 @ 18:25:
De firmware van de LSI controller in ESX is inderdaad niet te flashen. Datzelfde probleem heb ik ook gehad.

Je kan nog proberen of het met ESXi 5.1 is opgelost, maar ik denk het niet...

VMware ligt een beetje heel erg achter als het gaat om Drivers / Firmware voor FreeBSD...


http://www.vmware.com/res...rtOrder=Asc&testConfig=16

Officieel is de LSI controller wel supported...
Onder ESXi 5.1 werkt het in ieder geval niet. Tenminste, mijn RDM schijven niet, maar de virtuele schijf waar Freebsd/ZFSguru op staat werkt dan wel...

En schiet mij maar lek. Ik heb de schijven opnieuw gemapped via de console van ESXi. Daarna eerst een verse installatie van zfsguru gedaan met alleen de virtuele schijf aan de VM toegewezen. Deze netjes kunnen upgraden naar 9.1-004 met de beta8 webinterface.

Daarna de schijven toegewezen, boel opnieuw gestart. En opeens worden de schijven gewoon herkend, en werkt alles. Behalve SMART, wat ik eerst wel werkend had, maar nu niet meer. Dus blijkbaar geeft ESXi ze anders door. Waarschijnlijk omdat ik bij het mappen iets anders heb gedaan...

[ Voor 23% gewijzigd door Wolfensteijn op 11-11-2012 20:00 ]


Verwijderd

Zelf werkt bij mij SMART sinds een paar dagen ook niet meer. Zelfde installatie als hierboven.
Mijn schijven heb ik geformatteerd met de standaard setup die je krijgt als je de eerste keer ZFSGURU opent, Maar nu zag ik dat ze waren geformatteerd voor 512B schijven terwijl ik de Seagate Barracuda 7200.14 ST2000DM001, 2TB gebruik. Is dit nog aan te passen zonder data te verliezen aangezien er al een install van ZFSGURU op de schijven staat?

Ook vroeg ik me af of het mogelijk is om een VM met bijv linux te draaien die dan plex aankan, is dit mogelijk met een Pentium G630?
Wolfensteijn schreef op zondag 11 november 2012 @ 19:19:
[...]

Onder ESXi 5.1 werkt het in ieder geval niet. Tenminste, mijn RDM schijven niet, maar de virtuele schijf waar Freebsd/ZFSguru op staat werkt dan wel...

En schiet mij maar lek. Ik heb de schijven opnieuw gemapped via de console van ESXi. Daarna eerst een verse installatie van zfsguru gedaan met alleen de virtuele schijf aan de VM toegewezen. Deze netjes kunnen upgraden naar 9.1-004 met de beta8 webinterface.

Daarna de schijven toegewezen, boel opnieuw gestart. En opeens worden de schijven gewoon herkend, en werkt alles. Behalve SMART, wat ik eerst wel werkend had, maar nu niet meer. Dus blijkbaar geeft ESXi ze anders door. Waarschijnlijk omdat ik bij het mappen iets anders heb gedaan...
-X VS -Z

Even niets...


  • Wolfensteijn
  • Registratie: Maart 2000
  • Laatst online: 22:24
Nee, -r vs -z :)

Het gaat om het vmkfstools commando. Door -r te gebruiken wordt het een virtueel device waar ESXi dus nog tussen de VM en de disk zelf zit. Met -z is er sprake van passthrough.

Ik heb nu -r gebruikt. Zometeen even proberen met -z.

Dit trouwens net via http://vmetc.com/wp-conte...007/11/man-vmkfstools.txt geleerd.

Net even geprobeerd wat een RDM met passthrough (vmkfstools -z /device /path) doet voor Freebsd. Dan gaat het dus fout en krijg je blocklevel 0 errors. Met -r werkt Freebsd wel, maar omdat het OS dan niet meer direct met de schijven kan praten heb ik geen SMART info over mijn schijven in zfsguru.

Misschien op termijn toch maar een vt-d CPU overwegen, dan kan ik de controller in ieder geval direct aan een VM hangen, zonder dat het via die gare VMware LSI controller moet...

[ Voor 33% gewijzigd door Wolfensteijn op 11-11-2012 22:23 ]


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
MikeVM schreef op zondag 11 november 2012 @ 14:48:
nu wil ik vandaag eindelijk gaan starten met Ubunut server met ZFS,

nu heb ik 5TB vrije schijfruimte, maar dit is allemaal verspreid over meedere disks.

- moet een pool volledig leeg zijn om aangemaakt te kunnen worden?
Je hebt geen pool om leeg te zijn totdat je hem aanmaakt ;)
Maar als je bedoelt of de disks leeg moeten zijn.. zfs controleert of ze deel uitmaken van bestaande pools en wellicht ook of er al wat anders op staat. Je kan forceren om ze toch te gebruiken.
Lees voordat je begint even de 'man zpool' manual, en vergeet bij het pool aanmaken de ashift12 optie niet.
MikeVM schreef op zondag 11 november 2012 @ 14:48:
- kan ik bij het creeëren van een pool, mijn oude MDADM schijven blijven aanspreken?
Ja, als ze geen deel gaan uitmaken van de zpool. Verder moet je MDADM en zfs niet mixen.
MikeVM schreef op zondag 11 november 2012 @ 14:48:
- hoe zou ik mijn 80gb ssd partitioneren voor Ubuntu server?
Ik heb 24GB voor de boot partitie (ruim genoeg voor alles. Mijn installatie zit nu pas op 2.4GB) en 12GB swap, maar uiteindelijk is het aan jou.
Ik weet niet of je hier ook nog een ZIL (write log) of L2ARC (read cache) op wil zetten en of dat een goed idee is.

  • enormhi
  • Registratie: November 2009
  • Laatst online: 03-08 22:53
De storage server waarop ik mijn ZFS setup op ga maken zal deze week binnen komen. Waarschijnlijk morgen of overmorgen. Ik zoek eigenlijk nog een goede manier om, als ik klaar ben met het opzetten van de server, om de ZFS opstelling te benchmarken/testen. Zijn er nog specifieke manieren om de ZFS performance te testen?

Ik zie een hoop posts hier in dit topic met "dd". Ik ben echter niet helemaal bekend met dit commando.

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
enormhi schreef op maandag 12 november 2012 @ 16:34:
Ik zie een hoop posts hier in dit topic met "dd". Ik ben echter niet helemaal bekend met dit commando.
dd is eigenlijk heel simpel, je leest blokken vanaf je input (if=), schrijft naar output (of=) en je kunt een blockgrootte (bs=) en aantal (count=) opgeven.
Werkt wel goed om je max sequentiele doorvoer te testen.

Als je meer wilt weten, zoals latency en IOPS, kun je eens naar FIO of Bonnie++ kijken.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Verwijderd

DD is wel de meeste slechte manier van allemaal. Het is sequentieel async and single threaded.

Verwijderd

Topicstarter
Zolang je op een filesystem test en niet raw I/O zou dat geen probleem mogen zijn. Het filesystem zorgt voor hogere queue depth door read ahead (prefetch) en write buffering.

Het is juist bonnie wat eigenlijk ongeschikt is, omdat het geen rustperiode gebruikt tussen de tests. Daardoor begint de volgende test terwijl ZFS of andere write-back mechanismen zoals hardware RAID nog bezig zijn, wat de score beïnvloedt.

Als je server benchmarks wilt met vooral random IOps of multistream read/write dan is dd veel minder geschikt natuurlijk, maar thuisgebruikers hebben vaak één sequentiële stream voor grote bestanden die op hun NAS worden opgeslagen; wat haaks staat op typische server I/O doordat deze vele clients bedient en er van een echt sequentiëel I/O patroon vaak geen sprake is.
Precies, Samba en NFS zijn ook single threaded, dus het is juist een accurate test...

CiPHER, weet jij wat er percies in 9.1-RC3 veranderd is bij FreeBSD? Zijn er dingen die epliciet stuk zijn? Anders ga ik vanavond denk ik upgraden.

Even niets...


Verwijderd

Topicstarter
Nou, single threaded maakt opzich niet uit. Ook een single threaded proces kan async I/O doen dus de 'thread' gaat door terwijl de write-opdracht pas net is verstuurd. Zo kan Samba met 'aio' async I/O doen. In de benchmarks merk je dat vooral als een soort NCQ voor je SSD, waarbij de 4K-64 score groter wordt ten opzichte van de 4K score.

Een echt accurate test zou dezelfde APIs moeten gebruiken als de applicatie die je probeert te simuleren. Dat is bij dd niet het geval, maar een goed alternatief ken ik niet. Zo hangt het bijvoorbeeld ook af of de applicatie 'Sendfile' ondersteunt. Dit is een andere manier afwikkeling van disk I/O wat tot kortere latencies zou moeten leiden omdat de direct uit RAM gelezen kan worden, ofzoiets. Dus je zou bijvoorbeeld ook Sendfile performance moeten benchmarken indien je applicatie dit gebruikt. Lighttpd en andere applicaties gebruiken namelijk ook Sendfile.

FreeBSD 9.1-RC3 draait prima hier. Als je gaat upgraden, kun je met beta8 ook makkelijk terug gaan. Je huidige installatie dus niet gelijk verwijderen. Zou je namelijk gezeik krijgen met RC3 dan switch je vrolijk weer terug naar RC1. Dat is juist de gein met het ZFSguru installatieverhaal. :)
* FireDrunk bedenkt dat dat ook gewoon remote kan...


* installing....

migrating your services from old /services directory to new location /rootpool/zfsguru/services/9.1-004 has failed!


Oops :+, dan maar opnieuw installeren...

[ Voor 52% gewijzigd door FireDrunk op 13-11-2012 10:28 ]

Even niets...


Verwijderd

Topicstarter
Bekend bugje als je een lege services directory had, kun je rustig negeren. Als je wel services had, is het wel nieuw. In dat geval graag meer info.

Beta9 is in the works. Jason heeft al mooie plannen voor de Samba rewrite. Hoop er komend weekend ook aan te kunnen sleutelen.
Ik had VirtualBox, Sources en Ports tree geinstalleerd.

Wat ook iritant is.. Static IP config gaat niet mee, passwords gaan niet mee...


** Fixed** je moet natuurlijk niet de disk image proberen te importeren...
Nieuwe VM aanmaken, en disk hergebruiken werkt beter :)

Bridged Alle networking lijkt stuk te zijn, kan niet vinden waarom...

virtio_load="YES"
virtio_pci_load="YES"
virtio_blk_load="YES"
if_vtnet_load="YES"

Stonden niet meer in rc.conf. Net toegevoegd, nu rebooten.

[ Voor 254% gewijzigd door FireDrunk op 13-11-2012 12:08 ]

Even niets...


  • enormhi
  • Registratie: November 2009
  • Laatst online: 03-08 22:53
Ik ben eens even bezig geweest met "dd". Dit onderstaand commando test write performance toch? En die snelheid is die niet ontzettend hoog? Klopt dat wel?

dd if=/dev/zero of=/mnt/tank/zerofile.000 bs=2M count=10000
10000+0 records in
10000+0 records out
20971520000 bytes transferred in 20.506273 secs (1022688032 bytes/sec) 975MB/s

(Getest op een VirtualBox VM (NAS4Free) op mijn workstation met een pool van 3 virtuele HDD's (RAIDZ1) op een virtuele SAS controller).
Je zit voor de helft je RAM te testen. Als je bijvoorbeeld 16GB geheugen hebt, word er maar 4GB daadwerkelijk met de snelheid van je disks geschreven, de rest staat in RAM.

Je moet met minimaal 5 keer je RAM testen voor een beetje accurate tests.

----

Ben er overigens achter waarom VirtualBox networking niet wil werken... De nieuwe versie van VirtualBox heeft een nieuwe versie van VirtIO... je moet je guest additions dus updaten en nieuwe kernel modules compilen.


Grmblgdverdmmmmee *KUT* UDEV...

even /etc/rules.d/70-persistent-net deleten in je VM's...

Ze krijgen een nieuw MAC adres natuurlijk, en dat vind een Ubuntu VM niet leuk... :F :F :F

Alles werkt nu dus weer :)

[ Voor 19% gewijzigd door FireDrunk op 13-11-2012 12:59 ]

Even niets...


  • enormhi
  • Registratie: November 2009
  • Laatst online: 03-08 22:53
FireDrunk schreef op dinsdag 13 november 2012 @ 12:23:
Je zit voor de helft je RAM te testen. Als je bijvoorbeeld 16GB geheugen hebt, word er maar 4GB daadwerkelijk met de snelheid van je disks geschreven, de rest staat in RAM.

Je moet met minimaal 5 keer je RAM testen voor een beetje accurate tests.
In deze VM heb ik op het moment 3GB RAM zitten, dus ik ga ruim over de 5× heen.
enormhi schreef op dinsdag 13 november 2012 @ 12:32:
[...]

In deze VM heb ik op het moment 3GB RAM zitten, dus ik ga ruim over de 5× heen.
Je zegt virtuele disks, daar zit vast wat IO caching in... probeer eens 100GB.

Even niets...


  • enormhi
  • Registratie: November 2009
  • Laatst online: 03-08 22:53
dd if=/dev/zero of=/mnt/tank/zerofile.000 bs=2M count=50000
50000+0 records in
50000+0 records out
104857600000 bytes transferred in 107.228459 secs (977889649 bytes/sec) 933MB/s

Iets wat ik me net pas bedenk, ik draai mijn OS en mijn virtuele "HDD's" vanaf SSD. Dit zal er vast invloed op hebben!
hmm. Ik vind het nog steeds extreem hoog :P Kan je je hele setup eens uitleggen?

Even niets...


  • wjn
  • Registratie: Juli 2012
  • Laatst online: 26-11 13:40

wjn

Recap:

Checksum errors (geen smart, geen read/write-errors etc) na het schrijven van data (>1TB) naar een RAID-Z1 pool. Zie voorbeeld:

Afbeeldingslocatie: http://www.mijnalbum.nl/Foto-YOCC3GUZ.jpg

Naast schijven aansluiten op een onboard controller (INTEL) ipv. de IBM M1015 (IT) en andere schijven probleren (de in bovenstaande voorbeeld 250GB schijven) zijn ook andere RAID opties geprobeerd. R0 & R1 (3x 2 mirror) gevene nagenoeg geen checksum fouten.

Geheugen lijkt het probleem, maar memtest86 heeft 13 passes gedaan zonder fouten te vinden (16GB / 1,5dag ongeveer).

De vraag is, aangezien de storingen optreden onder FreeBSD (ZFSGURU), zijn er geen geheugentesten die werken op/onder FreeBSD?

Ik ga sowieso nog andere geheugentesten proberen, volgens mij kun je met Windows7 startup ook een geheugentest opstarten. Kan helaas pas over 2 weken weer hiermee verder, schiet niet op zo :-(

Voor de volledigheid, enige andere optie die ik zie als probleem is de voeding, maar lijkt me dat ik dan meer fouten zou krijgen.

Ik ga nog wel met ZFSGURU door, want op het werk heb ik het op een PowerEdge 1950 draaien zonder problemen.

  • enormhi
  • Registratie: November 2009
  • Laatst online: 03-08 22:53
Het is inderdaad extreem hoog. Read doet zelfs 2247MB/s.
Disks:
3 5GB Vbox Harddisks
Standby time: Always on
APM: Level 254
Acoustic Level: Maximum performance

VDEV:
RAIDZ1 (vdev01)
Advanced Format enabled

Pool:
vdev01
Meer heb ik eigenlijk niet ingesteld. Veel van de instellingen werken waarschijnlijk niet eens goed. Zoals de APM en advanced format.
Afbeeldingslocatie: http://www.imagebam.com/image/f7363e220098839
Ah, virtualbox... No 1 caching :)

Even niets...


  • wjn
  • Registratie: Juli 2012
  • Laatst online: 26-11 13:40

wjn

Geen randaarde, nee. Zou ik nog eens kunnen proberen of dat verschil maakt.

Verwijderd

Topicstarter
@enormhi: een zero-write met dd kun je natuurlijk niet doen als je dedup en compressie hebt ingeschakeld (duh!). Probeer het dus eens op een eigen filesystem met die twee variabelen uit. Verder zet ik een grote rode uitroepteken bij het feit dat je dedup gebruikt.

@wjn: vage problemen, wel tof dat je doorzet. Ik schaam me alleen dat ik eigenlijk geen tips meer voor je heb. CPU stress tests enzo, maar het is zo vaag. Jouw probleem komt zoveel overeen met defect RAM-geheugen....
Ik kom er net achter, dat ZFSGuru (en camcontrol for that matter) aangeven dat mijn M1015 geen APM ondersteunt.

MAAR, als je camcontrol stop da0 t/m da7 doet.

Gaan WEL keurig alle schijven downspinnen :)

Met andere woorden. De LSI / IBM controller ZEGT dat hij geen standby/idle ondersteunt, maar honoreert wel het commando richting de disks.

Even niets...


  • wjn
  • Registratie: Juli 2012
  • Laatst online: 26-11 13:40

wjn

Ik had getest met iets wat "spindown" heet, dat werkte op zich prima, maar in verband met die checksum errors ben ik daar niet mee doorgegaan (om uit te sluiten dat het aan dit tooltje lag).

http://www.noresult.net/freebsd/spindown/

@CiPHER
Omdat ik weet dat het moet kunnen werken, op een server gaat het ook prima. Ik las wel dat er een memtest86 en een memtest86+ is, zal die andere ook eens proberen.

[ Voor 27% gewijzigd door wjn op 13-11-2012 17:00 ]


Verwijderd

Topicstarter
Ik kom er net achter, dat ZFSGuru (en camcontrol for that matter) aangeven dat mijn M1015 geen APM ondersteunt.
Dan kom je daar redelijk laat achter. Alle LSI SAS controllers hebben hier last van. Enige echte nadeel van deze controller IMO. Wat ik heb gedaan met mijn schijven die APM ondersteunen en deze ook onthouden na een power cycle, is even aansluiten op de chipset en pas daarna naar de LSI controller overzetten.

Als je schijven hebt waarbij je de APM elke boot op 254 moet zetten om headparking uit te schakelen, is dat echter wel een groot probleem want dat gaat dus niet op de IBM M1015 controller. In elk geval niet onder FreeBSD platform; Linux zou wel APM/AAM in kunnen stellen via deze controller dus het lijkt een FreeBSD driver issue te zijn.

Wel balen in elk geval. camcontrol stop is leuk, maar dat werkt dus eenmalig. Je wilt iets hebben wat bij inactiviteit je schijven downspint. Die spindown daemon die wjn oppert kende ik nog niet; ziet er geinig uit!

Probleem bij LSI SAS is dus dat het camcontrol identify commando niet werkt. Dat is wat ZFSguru gebruikt om de APM/AAM instellingen te controleren en je deze aan te laten passen.
Je bent een beetje voorbarig :)
Stopping device da0
Unit stopped successfully
device: da0, max_idle_time: 600, rd: 735, wr: 960, frees: 0, other: 40, idle time: 600, state: Not spinning
Stopping device da1
Unit stopped successfully
device: da1, max_idle_time: 600, rd: 764, wr: 961, frees: 0, other: 40, idle time: 600, state: Not spinning
Stopping device da2
Unit stopped successfully
device: da2, max_idle_time: 600, rd: 760, wr: 953, frees: 0, other: 40, idle time: 600, state: Not spinning
Stopping device da3
Unit stopped successfully
device: da3, max_idle_time: 600, rd: 734, wr: 941, frees: 0, other: 40, idle time: 600, state: Not spinning
Stopping device da4
Unit stopped successfully
device: da4, max_idle_time: 600, rd: 686, wr: 970, frees: 0, other: 40, idle time: 600, state: Not spinning
Stopping device da5
Unit stopped successfully
device: da5, max_idle_time: 600, rd: 704, wr: 962, frees: 0, other: 40, idle time: 600, state: Not spinning
Stopping device da6
Unit stopped successfully
device: da6, max_idle_time: 600, rd: 737, wr: 959, frees: 0, other: 40, idle time: 600, state: Not spinning
Stopping device da7
Unit stopped successfully
device: da7, max_idle_time: 600, rd: 757, wr: 955, frees: 0, other: 40, idle time: 600, state: Not spinning
Stopping device ada1
Error received from stop unit command
(pass9:ahcich2:0:0:0): START STOP UNIT. CDB: 1b 0 0 0 0 0
(pass9:ahcich2:0:0:0): CAM status: CCB request was invalid
spindown: Error spinning down device: ada1
device: ada1, max_idle_time: 600, rd: 683, wr: 963, frees: 0, other: 40, idle time: 600, state: Error
Stopping device ada2
Error received from stop unit command
(pass10:ahcich3:0:0:0): START STOP UNIT. CDB: 1b 0 0 0 0 0
(pass10:ahcich3:0:0:0): CAM status: CCB request was invalid


ada == onboard :)
da == M1015...

Werkt dus prima... Enige probleem is dus, dat camcontrol het SCSI standby commando niet stuurt, maar het AHCI commando (denk ik...)

Dit is dus met de Spindown utility uit Ports.

Nu nog even kijken hoe ik die als deamon in rc.conf krijg.

Even niets...


Verwijderd

Topicstarter
Ik zie anders dat je SCSI/SAS disks prima downspinnen alleen dat die utility niet op je 'ada' AHCI disks werkt. Dat is niet zo'n probleem want voor 'ada' heb je atacontrol spindown commando en kun je ook APM instellen dus hoef je die utility niet te gebruiken.

Kun je bevestigen dat je met die utility daadwerkelijk je schijven kunt downspinnen die op de LSI controller zitten? En dan bedoel ik dus niet éénmalig, maar bij inactiviteit automatisch downspinnen. Dat zou die 'spindown' utility moeten kunnen doen als ik de manpage lees.
Ik ben net die service aan het bouwen testen, moment :)

APM werkte trouwens bagger, mijn disks gingen de hele tijd na 1 seconde inactivity al down.
Misschien kan powerd helpen.

Service draait, nu 10 minuutjes wachten :)

[ Voor 73% gewijzigd door FireDrunk op 13-11-2012 19:13 ]

Even niets...


Verwijderd

Topicstarter
Op welke setting stel je APM dan in?

1 = spindown met maximale stroombesparing (na 1 seconden dus denk ik)
..
127 = spindown met minimale stroombesparing (na een uur spindown of zoiets)
128 = geen spindown, maximale stroombesparing (betekent vaak headparking)
254 = geen spindown, minimale stroombesparing (betekent vaak geen headparking)

Maar je kunt dus ook een APM instelilng van 60 ofzo proberen. ZFSguru web-interface laat je maar kiezen uit enkele instellingen, dat moet ook verbeterd worden. Daar heb ik wel wat ideeën over. :)
127 had ik, maar dat was de hele tijd downspinnen.

Service werkt overigens ;)

Mijn 10-disk RAIDZ2 server, verbruikt momenteel: 53W 44W :)

Afbeeldingslocatie: http://i50.tinypic.com/ejg1ly.jpg

[ Voor 19% gewijzigd door FireDrunk op 13-11-2012 20:12 ]

Even niets...


  • wjn
  • Registratie: Juli 2012
  • Laatst online: 26-11 13:40

wjn

[b][message=39277496,noline]Kun je bevestigen dat je met die utility daadwerkelijk je schijven kunt downspinnen die op de LSI controller zitten? En dan bedoel ik dus niet éénmalig, maar bij inactiviteit automatisch downspinnen. Dat zou die 'spindown' utility moeten kunnen doen als ik de manpage lees.
Bij mij werkte het ook op de schijven op de M1015.

Enige probleem wat ik had, is dat sommige media al uit cache (L2ARC) gestart wordt (dus direct gaan lopen/spelen) en de pool (lees: schijven) pas later (bij eerste benadering) uit sleep komen en dan een seconde of 5 vertraging veroorzaken.

In mijn geval was de cache een partitie op de SSD, die zit op het mainboard aangesloten (onboard SATA) en gaat niet in sleep.

Verwijderd

Topicstarter
Kun je voorkomen door secondarycache op metadata in te stellen (kan in ZFSguru op de Files pagina bij cache strategy). Je cached dan standaard alleen metadata op je filesystems. Je kunt dan vervolgens per filesystem aangeven waar je ook data van wilt cachen, bijvoorbeeld het filesystem waar je VM images staan. Daar zet je secondarycache dan op 'all' (dus data+metadata).

Metadata cachen is fijn, grote dirs enzo kun je dan lekker snel openen. Ook kost het je vrijwel nihil opslag op je SSD, dus altijd enablen zou ik zeggen.

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 23:52
Vandaag even NFS getest:
code:
1
2
3
4
5
6
7
8
krijn@krijn-desktop:/nfs$ dd if=/dev/zero of=/nfs/test.000 bs=1M count=10000
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 176.181 s, 59.5 MB/s
krijn@krijn-desktop:/nfs$ dd if=/nfs/test.000 of=/dev/null bs=1M
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 132.894 s, 78.9 MB/s

Dit is met ifconfig re0 polling, waarbij vooral met smb volgens mij de cpu wel iets minder belast wordt. In het geval van NFS zou het kunnen dat CPU toch de bottleneck is. Alhoewel in top % idle erg wisselend kan zijn.

Heb trouwens de nfs share gemount op ubuntu met volgende commando:
code:
1
sudo mount -o soft,intr,rsize=8192,wsize=8192 \192.168.1.107:/opslag/personal /nfs

Nu moet ik eerlijk zeggen dat ik dit commando ook ergens van een site geplukt heb en dus nog niet gekeken heb wat de parameters allemaal precies doen.

Als ik wil kijken of ik met NFS hogere snelheden kan halen (lezen gaat in dit geval stuk sneller dan schrijven) waar moet ik dan verder kijken? Las dingen over sync of async? Moet eerlijk zeggen dat ik me er verder nog niet in verdiept heb. Kostte me al wat moeite om de NFS share te maken (blijkbaar moet je op de webinterface in dat veld geen naam invullen) en daarna te mounten.

Gister ook sabnzbd geinstalleerd en ingesteld, werkt lekker. Echter kan ik owncloud niet installeren vanuit de webinterface. Geeft aan dat ik geen verbinding heb met internet.

Verwijderd

Topicstarter
Even uit mijn hoofd:
sudo mount -t nfs -o async,nolock 192.168.1.107:/opslag/personal /nfs

Nieuwe owncloud service komt eraan.

  • bco
  • Registratie: Augustus 2000
  • Laatst online: 14-10 00:40

bco

You don't need eyes to see...

Log ik weer 's aan op m'n OI/Napp-it ZPool - state: DEGRADED. Mental note: vaker onderhoud plegen...

Wat specs op 'n rij:
  • Supermicro X9SCM-F, Intel E3-1230, 16G
  • 2x IBM 1015
  • 10x Samsung HD204UI in RAIDZ2, allen voorzien van bugfree firmware
  • VMWare 5.0.0 vanaf usb, met VM image van OI op 2.5" disk
  • SunOS OI-NAS 5.11 oi_151a4 i86pc i386 i86pc
  • napp-it v0.8h nightly May.03.2012
The horror -
 pool overview:

      pool: dpool
 state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
	Sufficient replicas exist for the pool to continue functioning in a
	degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
	repaired.
  scan: none requested
config:

	NAME                       STATE     READ WRITE CKSUM
	dpool                      DEGRADED     0     0     0
	  raidz2-0                 DEGRADED     0     0     0
	    c2t50024E9204438955d0  ONLINE       0     0     0
	    c2t50024E920443896Dd0  ONLINE       0     0     0
	    c2t50024E9204438979d0  FAULTED      0     0     0  too many errors
	    c2t50024E920443898Bd0  FAULTED      0     0     0  too many errors
	    c2t50024E920561485Fd0  ONLINE       0     0     0
	    c2t50024E9205C2A7CAd0  ONLINE       0     0     0
	    c2t50024E9205C2A7D4d0  ONLINE       0     0     0
	    c2t50024E9205C2A872d0  ONLINE       0     0     0
	    c2t50024E9205C2AAE1d0  ONLINE       0     0     0
	    c2t50024E9205C2AAF1d0  ONLINE       0     0     0

errors: No known data errors 


S.M.A.R.T. info voor c2t50024E9204438979d0
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(19620) seconds.
Offline data collection
capabilities: 			 (0x5b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					No Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 255) minutes.
SCT capabilities: 	       (0x003f)	SCT Status supported.
					SCT Error Recovery Control supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   100   100   051    Pre-fail  Always       -       449
  2 Throughput_Performance  0x0026   252   252   000    Old_age   Always       -       0
  3 Spin_Up_Time            0x0023   068   064   025    Pre-fail  Always       -       9919
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       103
  5 Reallocated_Sector_Ct   0x0033   252   252   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   252   252   051    Old_age   Always       -       0
  8 Seek_Time_Performance   0x0024   252   252   015    Old_age   Offline      -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       697
 10 Spin_Retry_Count        0x0032   252   252   051    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       2
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       103
181 Program_Fail_Cnt_Total  0x0022   100   100   000    Old_age   Always       -       12345309
191 G-Sense_Error_Rate      0x0022   100   100   000    Old_age   Always       -       13
192 Power-Off_Retract_Count 0x0022   252   252   000    Old_age   Always       -       0
194 Temperature_Celsius     0x0002   064   051   000    Old_age   Always       -       35 (Min/Max 18/49)
195 Hardware_ECC_Recovered  0x003a   100   100   000    Old_age   Always       -       0
196 Reallocated_Event_Count 0x0032   252   252   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   252   252   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   252   252   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0036   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x002a   100   100   000    Old_age   Always       -       715
223 Load_Retry_Count        0x0032   100   100   000    Old_age   Always       -       2
225 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -       133

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%       675         -
# 2  Short offline       Completed without error       00%       675         -
# 3  Short offline       Completed without error       00%       671         -

Note: selective self-test log revision number (0) not 1 implies that no selective self-test has ever been run
SMART Selective self-test log data structure revision number 0
Note: revision number not 1 implies that no selective self-test has ever been run
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Completed [00% left] (0-65535)
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing


S.M.A.R.T. info voor c2t50024E920443898Bd0
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(19920) seconds.
Offline data collection
capabilities: 			 (0x5b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					No Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 255) minutes.
SCT capabilities: 	       (0x003f)	SCT Status supported.
					SCT Error Recovery Control supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   100   100   051    Pre-fail  Always       -       130
  2 Throughput_Performance  0x0026   252   252   000    Old_age   Always       -       0
  3 Spin_Up_Time            0x0023   067   062   025    Pre-fail  Always       -       10009
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       99
  5 Reallocated_Sector_Ct   0x0033   252   252   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   252   252   051    Old_age   Always       -       0
  8 Seek_Time_Performance   0x0024   252   252   015    Old_age   Offline      -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       698
 10 Spin_Retry_Count        0x0032   252   252   051    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       2
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       102
181 Program_Fail_Cnt_Total  0x0022   100   100   000    Old_age   Always       -       12348494
191 G-Sense_Error_Rate      0x0022   100   100   000    Old_age   Always       -       2
192 Power-Off_Retract_Count 0x0022   252   252   000    Old_age   Always       -       0
194 Temperature_Celsius     0x0002   064   049   000    Old_age   Always       -       35 (Min/Max 17/51)
195 Hardware_ECC_Recovered  0x003a   100   100   000    Old_age   Always       -       0
196 Reallocated_Event_Count 0x0032   252   252   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   252   252   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   252   252   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0036   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x002a   100   100   000    Old_age   Always       -       362
223 Load_Retry_Count        0x0032   100   100   000    Old_age   Always       -       2
225 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -       129

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%       675         -
# 2  Short offline       Completed without error       00%       671         -

Note: selective self-test log revision number (0) not 1 implies that no selective self-test has ever been run
SMART Selective self-test log data structure revision number 0
Note: revision number not 1 implies that no selective self-test has ever been run
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Completed [00% left] (0-65535)
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing



En dan nu de hamvraag - wat te doen?
  • ...ben geen S.M.A.R.T kenner :$
  • verdenk één van de data kabels (mini SAS 36pin to 4x SATA), al 's eerder gedonder mee gehad
  • heb dit forum al van voor naar achter doorgespit...
  • ...heb de nodige generieke hints & tips gevonden in de troubleshooting guide
Dusss... plan van aanpak:
  1. uitsluiten hardware oorzaak in kabel en/of schijf --> hoe, iemand tips?
  2. indien schijf, pas dan Troubleshooting guide toe...
  3. vervolgens herstellen van de pool --> is 'zpool clear -F dpool' voldoende?
  4. scrub job via Napp-it schedulen --> iemand ervaring mee?
Kortom, 'k kan wel wat expertise gebruiken, zie door S.M.A.R.T de bomen ff niet :X

You need vision


  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

Net de 0.2 beta 8 van ZFSGuru geboot en aan 't installeren op een USB-stick zodat ik later op m'n server van USB kan booten (geen DVD-lezer), maar dat ding staat al een half uur te installeren, de webpagina blijft wel verversen, en het lichtje van de USB-stick blijft flikkeren. Het lijkt me dus niet dat het vastgelopen is. Is het normaal dat de installatie op een stick zoveel tijd in beslag neemt?

Afbeeldingslocatie: http://i.imgur.com/ZXrPfl.png

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Verwijderd

Topicstarter
@Borromini: je hebt een USB stick die 0,001MB/s aan random write doet; oeps! En 4K optimalisatie is ook wel aanbevolen. Maar laat maar draaien, uiteindelijk is hij klaar en dat booten (lezen) gaat een stuk sneller!

Betere USB sticks doen tussen de 0,1MB/s en 1MB/s random write. Dat is dus al 100 tot 1000 keer sneller! Een hardeschijf zit boven de 1MB/s aan 4K random writes als deze dicht op elkaar zitten (LBA range) anders 0,3MB/s full-LBA.

Deze USB-stick van 4 euro bij Paradigit doet het vrij aardig qua random write en kan ik wel aanbevelen:
pricewatch: Verbatim Store'n'Go Micro-USB 4GB Zwart

@bco: je SMART is wel oke. Kun je niets in je kernel logs vinden dat er errors waren met die disks? Heb je op solaris een 'dmesg' of kun je 'cat /var/log/messages' enzo doen? Rebooten al geprobeerd? :)

[ Voor 16% gewijzigd door Verwijderd op 13-11-2012 22:34 ]


  • B2
  • Registratie: April 2000
  • Laatst online: 23:22

B2

wa' seggie?

Hm, ben bezig met ZFSGuru op mijn virtualisatie server, maar het lijkt erop dat de ZFSGuru installer cq webinterface mijn virtio disken niet ziet.

De disken worden door de kernel gezien (de vm-virtio service draait ook), de devices worden ook aangemaakt (/dev/vdbd0 t/m /dev/vdbd3)

Waarom ziet ZFSGuru ze niet?
Dat zou wel moeten, VirtualBox Block Devices die door middel van VirtIO doorgegeven worden, zouden gewoon zichtbaar moeten zijn... Soms wil ZFSguru ze nog wel eens als USB stick markeren heb ik gemerkt ;)


/offtopic ik ga er maar even vanuit dat je vdbd VirtualBox disks zijn :)

[ Voor 16% gewijzigd door FireDrunk op 13-11-2012 23:08 ]

Even niets...


  • bco
  • Registratie: Augustus 2000
  • Laatst online: 14-10 00:40

bco

You don't need eyes to see...

@CiPHER: reboot reeds (een aanta x) gedaan, geen resultaat. Duik morgen 's de kernel msg in. Keep you posted.

You need vision


  • B2
  • Registratie: April 2000
  • Laatst online: 23:22

B2

wa' seggie?

FireDrunk schreef op dinsdag 13 november 2012 @ 23:08:
Dat zou wel moeten, VirtualBox Block Devices die door middel van VirtIO doorgegeven worden, zouden gewoon zichtbaar moeten zijn... Soms wil ZFSguru ze nog wel eens als USB stick markeren heb ik gemerkt ;)


/offtopic ik ga er maar even vanuit dat je vdbd VirtualBox disks zijn :)
Nee geen VirtualBox. KVM. De kernel ziet ze dus wel, alleen ZFSGuru webinterface compleet niet.
Hmm.. Wel VirtIO? Versie van KVM libvirtd / kernel?

[ Voor 27% gewijzigd door FireDrunk op 13-11-2012 23:34 ]

Even niets...


  • B2
  • Registratie: April 2000
  • Laatst online: 23:22

B2

wa' seggie?

FireDrunk schreef op dinsdag 13 november 2012 @ 23:34:
Hmm.. Wel VirtIO? Versie van KVM libvirtd / kernel?
libvirt 0.9.11.6 kernel 3.6.6 (Fedora 17)

Overigens werkt het wel als ik handmatig de pool aanmaak. Die ziet ZFSGuru dan weer wel.
Oh, heel duidelijk een ZFSguru probleem dus :)

Dan hoeven we het er niet over te hebben. Gewoon CiPHER poken... :+

Even niets...


Verwijderd

Topicstarter
Is simpel, komt door de devicename: /dev/vdbd0. Die staat niet in de officiële lijst die Jason gebruikt: http://www.freebsd.org/do...andbook/disks-naming.html. Maar ik schrijf hem op, en tot die tijd kun je het fixen door een bestand te editen:

ee /usr/local/www/zfsguru/includes/disk.php

zoek dan naar de regel die begint met: function disk_detect_physical
Voeg daar tussen de lijst die daar vlak onder staat jouw disk naam toe, dus vdbd.

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

Verwijderd schreef op dinsdag 13 november 2012 @ 22:32:
@Borromini: je hebt een USB stick die 0,001MB/s aan random write doet; oeps! En 4K optimalisatie is ook wel aanbevolen. Maar laat maar draaien, uiteindelijk is hij klaar en dat booten (lezen) gaat een stuk sneller!
Bedankt, zal het dan met 'n andere proberen. Dat van die random writes zie ik wel nergens op het screenshot staan, is dat parate kennis? :P

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 23:52
Verwijderd schreef op dinsdag 13 november 2012 @ 21:34:
Even uit mijn hoofd:
sudo mount -t nfs -o async,nolock 192.168.1.107:/opslag/personal /nfs

Nieuwe owncloud service komt eraan.
Ik heb nu sudo mount -o async,nolock gebruikt, dit leverde de volgende snelheden op:
code:
1
2
3
4
5
6
7
8
krijn@krijn-desktop:/nfs$ dd if=/dev/zero of=/nfs/zero.000 bs=1M count=10000
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 163.52 s, 64.1 MB/s
krijn@krijn-desktop:/nfs$ dd if=/nfs/zero.000 of=/dev/zero bs=1M
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 112.798 s, 93.0 MB/s


Lezen is nu ongeveer 14 MB/s sneller, schrijven 5 MB/s. Vanavond maar is verder kijken of ik het schrijven wat verder kan tweaken.
async op NFS richting ZFS heeft weinig zin. NFS maakt de writes zelf namelijk sync als ze op je server arriveren. Een ZIL op een SSD of ZIL uitzetten is je enige optie om het sneller te maken.

Ik had dit probleem ook heel erg :(

Even niets...


  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 23:52
Voorlopig ga ik nog even geen SSD kopen. Het uitschakelen van ZIL betekent dus dat ik eventuele data verlies wanneer de stroom uit valt? Op dit moment hangt de NAS aan UPS dus zomaar stroomuitval zal niet heel snel voorkomen (moet nog wel even NUT of acpupsd installeren om te zorgen dat mijn NAS dus netjes uitgaat op moment dat batterij bijna leeg is). Ik kan ZIL in de webgui voor het filesystem personal uitzetten door Synchronous writes op disabled te zetten? Of is dit weer iets anders?

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 17-12 17:14

psy

Stel ik bouw een aparte ZFS server, kan ik dan gemakkelijk mijn NTFS rechten blijven gebruiken? Dit wordt mij niet echt duidelijk. Ik draai thuis een active directory domain en wil graag deze mogelijkheden blijven gebruiken maar NTFS is natuurlijk iets anders als ZFS.

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
psy schreef op woensdag 14 november 2012 @ 12:05:
Stel ik bouw een aparte ZFS server, kan ik dan gemakkelijk mijn NTFS rechten blijven gebruiken? Dit wordt mij niet echt duidelijk. Ik draai thuis een active directory domain en wil graag deze mogelijkheden blijven gebruiken maar NTFS is natuurlijk iets anders als ZFS.
Ik denk dat het afhankelijk is van welk OS je gebruikt, maar een CIFS/Samba share met AD-integratie moet wel kunnen ja.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.

krijn1985 schreef op woensdag 14 november 2012 @ 10:18:
Voorlopig ga ik nog even geen SSD kopen. Het uitschakelen van ZIL betekent dus dat ik eventuele data verlies wanneer de stroom uit valt? Op dit moment hangt de NAS aan UPS dus zomaar stroomuitval zal niet heel snel voorkomen (moet nog wel even NUT of acpupsd installeren om te zorgen dat mijn NAS dus netjes uitgaat op moment dat batterij bijna leeg is). Ik kan ZIL in de webgui voor het filesystem personal uitzetten door Synchronous writes op disabled te zetten? Of is dit weer iets anders?
Ja, effect is bijna hetzelfde, ZIL disabled betekend dat er geen intent log is, en dat synced writes gewoon gedaan worden wanneer ZFS denkt dat het moet, ze worden dus wel in memory gecached.

Sync helemaal disablen zorgt ervoor dat synced writes async worden, en dus gedaan worden wanneer je storage er tijd voor heeft... Tussentijds worden ze in memory opgeslagen.

Je raakt maar heel beperkt data kwijt (tot 2 minuten). Voor films en series geen probleem, voor VM's met corrupte VMDK's wat minder leuk.

Even niets...


  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 23:52
Dan ga ik vanavond even proberen wat voor snelheidswinst het disabled zetten van Synchronous writes gaat opleveren. Mocht de winst echt maar dermate weinig zijn, zet ik het wel weer gewoon aan.

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
krijn1985 schreef op woensdag 14 november 2012 @ 13:33:
Dan ga ik vanavond even proberen wat voor snelheidswinst het disabled zetten van Synchronous writes gaat opleveren. Mocht de winst echt maar dermate weinig zijn, zet ik het wel weer gewoon aan.
Je kunt ook nog even proberen met "noatime" te mounten, misschien dat dat nog wat scheelt.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


  • psy
  • Registratie: Oktober 1999
  • Laatst online: 17-12 17:14

psy

u_nix_we_all schreef op woensdag 14 november 2012 @ 12:45:
[...]

Ik denk dat het afhankelijk is van welk OS je gebruikt, maar een CIFS/Samba share met AD-integratie moet wel kunnen ja.
AD is toch eigenlijk altijd Windows?
Nouja ik draai Windows 2008R2.

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


  • ElMacaroni
  • Registratie: November 2012
  • Laatst online: 23:09

ElMacaroni

Laat de zon maar komen!

Stucked!

FreeBSD 9.1-RC3 (OFED-POLLING-ALTQ) #0: Wed Oct 31 18:51:17 UTC 2012

** ZFSguru LiveCD distribution

Ik probeer via de webinterface van ZFSGURU NFS te sharen, maar krijg het niet aan de praat. SMB werkt prima.

[ssh@zfsguru /home/ssh]$ su -
[root@zfsguru ~]# whoami
root
[root@zfsguru ~]# zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT
ZFS-Pool                    393G   194G    87K  /mnt/ZFS-Pool
ZFS-Pool/DataSet1           129G   194G   611M  /mnt/ZFS-Pool/DataSet1
ZFS-Pool/DataSet1/Volume2   129G   322G    16K  -
ZFS-Pool/Volume1            264G   458G    16K  -
[root@zfsguru ~]# zfs set sharenfs=on ZFS-Pool/DataSet1
[root@zfsguru ~]# cat /etc/zfs/exports
# !!! DO NOT EDIT THIS FILE MANUALLY !!!

/mnt/ZFS-Pool/DataSet1
[root@zfsguru ~]# ls -la /mnt/ZFS-Pool/
total 7
drwxrwxrwx  3 root  wheel   3 Oct  4 14:48 ./
drwxr-xr-x  3 root  wheel  40 Nov 13 14:04 ../
drwxrwxrwx  6 root  wheel   7 Nov 14 00:06 DataSet1/
[root@zfsguru ~]# tail /var/log/messages
Nov 14 13:32:06 zfsguru su: ssh to root on /dev/pts/0
Nov 14 13:32:46 zfsguru mountd[5328]: can't export /mnt/ZFS-Pool/DataSet1
Nov 14 13:32:46 zfsguru mountd[5328]: bad exports list line /mnt/ZFS-Pool/DataSet1


Wat doe ik fout?

SE2200+14xSF170S & SE1500M+4xTSM-375

Volgens mij mag je geen streepjes gebruiken...

en je moet het filesystem sharen, niet het volume.

Even niets...


  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 23:52
Wat ik fout deed was dat ik in het veld bij NFS share een naam invulde. Je kunt moet gewoon zonder iets in te vullen op share klikken (of je moet de juiste parametes invullen). Als het goed is komt er dan ON te staan. Je kan dan met showmount -e de lijst van NFS shares zien.

[ Voor 10% gewijzigd door krijn1985 op 14-11-2012 13:53 ]


  • ElMacaroni
  • Registratie: November 2012
  • Laatst online: 23:09

ElMacaroni

Laat de zon maar komen!

FireDrunk schreef op woensdag 14 november 2012 @ 13:52:
Volgens mij mag je geen streepjes gebruiken...
Zou dat het zijn? BRB, even checken...

--edit--
Nou, niks, nog steeds hetzelfde.

[root@zfsguru /etc/zfs]# zfs list
NAME               USED  AVAIL  REFER  MOUNTPOINT
datatank           148K   587G    32K  /datatank
datatank/filesys    31K   587G    31K  /datatank/filesys
[root@zfsguru /etc/zfs]# zfs set sharenfs="off" datatank/filesys
[root@zfsguru /etc/zfs]# cat /etc/zfs/exports
# !!! DO NOT EDIT THIS FILE MANUALLY !!!

/datatank/filesys
[root@zfsguru /etc/zfs]# tail /var/log/messages
Nov 14 14:26:29 zfsguru mountd[5328]: can't export /datatank/filesys
Nov 14 14:26:29 zfsguru mountd[5328]: bad exports list line /datatank/filesys
Nov 14 14:29:05 zfsguru mountd[5328]: can't export /datatank/filesys
Nov 14 14:29:05 zfsguru mountd[5328]: bad exports list line /datatank/filesys

[ Voor 66% gewijzigd door ElMacaroni op 14-11-2012 14:35 . Reden: Update ]

SE2200+14xSF170S & SE1500M+4xTSM-375


  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 23:52
ben er niet helemaal thuis in, maar in je laatste screenshot lijkt het erop dat je je share dus uitzet inplaats van aan.. Klopt dit?
Draait je NFS server wel? Niet liggen rommelen met de NFS server zelf?

Even niets...


  • ElMacaroni
  • Registratie: November 2012
  • Laatst online: 23:09

ElMacaroni

Laat de zon maar komen!

krijn1985 schreef op woensdag 14 november 2012 @ 15:17:
ben er niet helemaal thuis in, maar in je laatste screenshot lijkt het erop dat je je share dus uitzet inplaats van aan.. Klopt dit?
Dat is juist het merkwaardige, aanzetten, uitzetten, maakt niks uit. Deze regels blijven altijd in /etc/zfs/exports staan.

Ik zal /etc/zfs/exports even verwijderen/moven, NFS share opnieuw aanzetten en dan nog eens kijken.

[root@zfs[root@zfsguru /etc/zfs]# mv exports exports.old
[root@zfsguru /etc/zfs]# ls -la
total 24
drwxr-xr-x   2 root  wheel   120 Nov 14 15:38 ./
drwxr-xr-x  20 root  wheel  4200 Nov 13 15:50 ../
-rw-------   1 root  wheel    61 Nov 14 15:38 exports
-rw-------   1 root  wheel    86 Nov 13 14:32 exports.mv
[root@zfsguru /etc/zfs]# cat exports

[root@zfs[root@zfsguru /etc/zfs]# cat exports
# !!! DO NOT EDIT THIS FILE MANUALLY !!!

/datatank/filesys
[root@zfsguru /etc/zfs]# tail /var/log/messages
Nov 14 15:33:28 zfsguru su: ssh to root on /dev/pts/0
Nov 14 15:38:23 zfsguru mountd[5328]: can't export /datatank/filesys
Nov 14 15:38:23 zfsguru mountd[5328]: bad exports list line /datatank/filesys


Me no comprendo :?

[ Voor 46% gewijzigd door ElMacaroni op 14-11-2012 15:42 ]

SE2200+14xSF170S & SE1500M+4xTSM-375


  • wjn
  • Registratie: Juli 2012
  • Laatst online: 26-11 13:40

wjn

Verwijderd schreef op dinsdag 13 november 2012 @ 23:57:
Is simpel, komt door de devicename: /dev/vdbd0. Die staat niet in de officiële lijst die Jason gebruikt: http://www.freebsd.org/do...andbook/disks-naming.html. Maar ik schrijf hem op, en tot die tijd kun je het fixen door een bestand te editen:
Grappig, "ada" staat daar ook niet tussen?
En mijn dell server heeft "mfid", die staat er ook niet in?

(In /usr/local/www/zfsguru/includes/disk.php staan die er uiteraard wel tussen.)
Exports is depricated volgens mij.. Bij mij issie ook leeg...

Zijn er mensen die met de readahead instellingen van ZFS hebben gestoeid?

Ik wil graag een readahead van minimaal iets van 32MB per file request op mijn array, maar kan nergens vinden hoe dat moet...

[ Voor 63% gewijzigd door FireDrunk op 14-11-2012 15:52 ]

Even niets...


Verwijderd

Topicstarter
/etc/exports is voor ouderwetse NFS shares, /etc/zfs/exports voor ZFS NFS shares.

Je moet NFS wel enabled hebben in /etc/rc.conf, achteraf enablen is mij nog nooit gelukt. Je moet booten met de hele rits:
nfs_server_enable="YES"
mountd_enable="YES"
mountd_flag="-r"
rpcbind_enable="YES"
rpc_lockd_enable="YES"
rpc_statd_enable="YES"

Of de LiveCD dit enabled heeft weet ik niet, maar wellicht moet je dus installeren en normaal booten dan zou het moeten werken.

@FireDrunk: al met vdev cache gespeeld? vfs.zfs.vdev.cache.size

[ Voor 6% gewijzigd door Verwijderd op 14-11-2012 16:04 ]

Voor de mensen met een M1015:

Prerequisite: ZFSguru / FreeBSD portstree (of de gewone ports tree gebruiken uiteraard...)

cd /usr/ports/sysutils/spindown
make && make install

nano /etc/rc.conf
#Enable Spindown
spindown_enable="YES"
spindown_flags="-b -d da0 -d da1 -d da2 -d da3 -d da4 -d da5 -d da6 -d da7 -t 300"
-b voor background, -d per device, -t voor timeout in seconden

Onderaan toevoegen.

offtopic:
@CiPHER, misschien iets om automatisch te enablen als er da* devices gevonden worden?

[ Voor 21% gewijzigd door FireDrunk op 28-12-2013 10:59 ]

Even niets...


Verwijderd

Is er een manier in ZFS om de snelheid te teste van de snelheid die je werkelijk naar een pc kan schrijven en lezen. ik maak nu gebruik van 3x2tb schijven in raid-z en haal hiermee een snelheid van ong 225MB/s intern. Als ik bestanden van 10GB naar mijn computer kopier gaat dit vaak maar met 60MB/s. Omdat ik mijn disks opnieuw moet formatteren zodat ze worden gezien als 4K sector schijven heb ik alle data van de NAS afgehaald en op mijn pc tijdelijk gezet. Bij een map kopieren van 300GB ging het nog maar slechts met 50MB/s. De NAS maakt gebruik van een Pentium G630, kan dit de bottleneck zijn?
Ligt eerder aan Samba. Daar valt altijd wel wat te tunen.

Even niets...


  • wjn
  • Registratie: Juli 2012
  • Laatst online: 26-11 13:40

wjn

Denk eerder dat het aan je PC ligt, als de map veel kleine bestanden bevat en je hebt geen SSD in je PC, kost dat gewoon tijd.

Voor snelheid testen pak ik altijd een laptop met SSD en gigabit, daarmee is altijd de gigabit verbinding de bottleneck. Samba is "out of the box" zfs-guru.

Als ik kopieer naar harddisk, wordt dat de bottleneck als het veel (kleinere) bestanden zijn.

[ Voor 6% gewijzigd door wjn op 14-11-2012 17:17 ]


Verwijderd

De bestanden die ik kopier om te testen zijn vaak films omdat dit een groot bestand is van pak en beet 10GB.
Tussen kopieren van SSD naar NAS of HDD naar NAS merk ik geen verschil. Bij films blijft dit gewoon tegen de 75MB/s. Kopieren van PC naar laptop (beide met ssd) gaat overigens wel gewoon 100-110MB/s. Helaas des te langer het duurt (door bijv. meerdere films tegelijk) daalt de snelheid al snel naar zo'n 65MB/s.

[ Voor 65% gewijzigd door Verwijderd op 14-11-2012 17:41 ]


Verwijderd

Mijn ZFS systeem is tergend traag geworden de laatste week. Ik heb dan een scub gestart om eens te zien ... 500kb/sec ... ojee. Zelfs na een uur was het nog maar 2-3Mb/sec. Terwijl hij voordien boven de 100Mb scrubte.

Daarna heb ik gefoefeld met de vfs.zfs.vdev.max_pending. Nu op 1 gezet en het is terug relatief bruikbaar. Maar de performance is nog altijd echt zwak te noemen. Scrubbed nu tegen 20Mb/sec en streams haperen nog steeds af en toe. Data kopiëren in dezelfde pool duurt ook een uur voor een paar GB. Dus er scheelt echt nog iets. De pool status openen op de webui is ook traag (10 secs ofzo).

Ik begin te denken dat ik met een kapotte schijf zit. Maar hoe kan ik zoiets valideren? De benchmark module slaagt soms af na een paar refreshes en sommige schijven krijg ik niet gestart dus het is een beetje een mixed bag. Dit lijkt me allesinds geen goed teken:
Afbeeldingslocatie: http://f.cl.ly/items/3p1r1R1L3u3K1l0B2x1g/benchmark%20of%20ada2.png

SMART values voor die schijf:
http://cl.ly/image/0o002G2G102X

Suggesties? Thoughts?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
[root@zfsguru /home/ssh]# zpool status tank
  pool: tank
 state: ONLINE
  scan: scrub in progress since Sun Nov 11 20:59:15 2012
        4.07T scanned out of 8.40T at 20.2M/s, 62h28m to go
        0 repaired, 48.41% done
config:

    NAME                       STATE     READ WRITE CKSUM
    tank                       ONLINE       0     0     0
      raidz1-0                 ONLINE       0     0     0
        gpt/wd2tb-4-data       ONLINE       0     0     0
        gpt/wd2tb-5-data       ONLINE       0     0     0
        gpt/wd2tb-3-data       ONLINE       0     0     0
        gpt/wd2tb-2-data       ONLINE       0     0     0
        gpt/wd2tb-1-data       ONLINE       0     0     0
        gpt/wd2tb-6-data-real  ONLINE       0     0     0
Als je NAS ineens traag geworden is, zou ik niet aan de instellingen gaan rommelen, maar het hardware probleem wat er aan ten grondslag ligt oplossen.

Kans is groot dat er ergens iets stoek is...

Even niets...


Verwijderd

Topicstarter
Draai je die benchmark terwijl je aan het scrubben bent?

  • wjn
  • Registratie: Juli 2012
  • Laatst online: 26-11 13:40

wjn

@Sylasia
Duidelijk. Bij mij maakt het wel verschil SDD of HDD, zal wel met fragmentatie te maken hebben. Iig van/naar de NAS gaat bij mij met volledig GB, met standaard Samba instellingen.

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 23:52
Zo weer even aan het testen geweest met NFS.
Mounten met nolock, async en noatime levert het volgende op:
code:
1
2
3
4
5
6
7
8
krijn@krijn-desktop:/nfs$ dd if=/dev/zero of=/nfs/zero.000 bs=1M count=10000
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 169.731 s, 61.8 MB/s
krijn@krijn-desktop:/nfs$ dd if=/nfs/zero.000 of=/dev/zero bs=1M
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 115.462 s, 90.8 MB/s


Is iets langzamer dan gemount met alleen async en nolock, maar erg klein verschil. De volgende resultaten zijn nadat ik Synchronous writing op disabled heb gezet in de webinterface en weer gemount met async en nolock.
code:
1
2
3
4
5
6
7
8
krijn@krijn-desktop:/nfs$ dd if=/dev/zero of=/nfs/zero.000 bs=1M count=10000
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 144.89 s, 72.4 MB/s
krijn@krijn-desktop:/nfs$ dd if=/nfs/zero.000 of=/dev/zero bs=1M
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 114.743 s, 91.4 MB/s


Hierbij verschilt het lezen dus vrij weinig, echter het schrijven gaat wel met ongeveer 9MB/s omhoog. Nu is dit nog niet de volle gigabit dicht, maar misschien dat hierin toch ook nog andere factoren mee kunnen spelen.

Wanneer ik mijn NAS aan een UPS heb hangen en deze netjes laat afsluiten wanneer batterij van UPS bijna leeg is kan het toch vrij weinig kwaad als ik synchronous writes op disabled heb staan? Ok als ik perongeluk de kabel uit mijn UPS trek valt hij uit en kan ik dus data missen, maar dat risico zie ik als laag.
ZFS is altijd consistent op disk, dus je bent echt alleen gebruikersdata kwijt, of deze is corrupt.

The choice is yours...

Even niets...


Verwijderd

Verwijderd schreef op woensdag 14 november 2012 @ 17:54:
Draai je die benchmark terwijl je aan het scrubben bent?
Ja. Heb de scrub afgezet en alles nog is opnieuw gedraaid. Ik denk ook dat ik de benchmark de vorige keer dubbel aan het draaien was. Soms geeft deze plots aan dat er geen meer bezig is en dan nog is geklikt vermoedelijk. In elk geval ... ada2 is veel beter nu.
Afbeeldingslocatie: http://f.cl.ly/items/2a2v3L1J2F2f0h3Z0Y0L/simplebench_ada2.png

ada3 daar zijn misschien wel wat problemen mee.
Afbeeldingslocatie: http://f.cl.ly/items/3W1y131N2r1b0A1y2s2d/simplebench_ada3-1.png

Op de grafiek lijkt het niet zo heel erg maar de simple benchmark zelf duurt wel veel langer als de anderen.
Ik heb diskinfo -t /dev/ada3 gedaan en dat ziet er niet zo best uit. Vergelijking tussen ada0 en ada3. Zou dit kunnen verklaren waarom ik zo een slechte read & write speed heb? Vrees wel dat ik ze ga moeten omruilen.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
[root@zfsguru ~]# diskinfo -t /dev/ada0
/dev/ada0
    512             # sectorsize
    2000398934016   # mediasize in bytes (1.8T)
    3907029168      # mediasize in sectors
    4096            # stripesize
    0               # stripeoffset
    3876021         # Cylinders according to firmware.
    16              # Heads according to firmware.
    63              # Sectors according to firmware.
    WD-WCAZAE986213 # Disk ident.

Seek times:
    Full stroke:      250 iter in   5.959844 sec =   23.839 msec
    Half stroke:      250 iter in   4.365644 sec =   17.463 msec
    Quarter stroke:   500 iter in   7.479887 sec =   14.960 msec
    Short forward:    400 iter in   2.315909 sec =    5.790 msec
    Short backward:   400 iter in   2.545899 sec =    6.365 msec
    Seq outer:   2048 iter in   0.241152 sec =    0.118 msec
    Seq inner:   2048 iter in   0.230626 sec =    0.113 msec

[root@zfsguru ~]# diskinfo -t /dev/ada3
/dev/ada3
    512             # sectorsize
    2000398934016   # mediasize in bytes (1.8T)
    3907029168      # mediasize in sectors
    4096            # stripesize
    0               # stripeoffset
    3876021         # Cylinders according to firmware.
    16              # Heads according to firmware.
    63              # Sectors according to firmware.
    WD-WCAZAE637965 # Disk ident.

Seek times:
    Full stroke:      250 iter in  63.550349 sec =  254.201 msec
    Half stroke:      250 iter in  33.799519 sec =  135.198 msec
    Quarter stroke:   500 iter in 108.247500 sec =  216.495 msec
    Short forward:    400 iter in  37.218608 sec =   93.047 msec
    Short backward:   400 iter in  32.167061 sec =   80.418 msec
    Seq outer:   2048 iter in   2.190496 sec =    1.070 msec
    Seq inner:   2048 iter in   0.253944 sec =    0.124 msec
Transfer rates:
    outside:       102400 kbytes in  24.720245 sec =     4142 kbytes/sec
    middle:        102400 kbytes in  17.546034 sec =     5836 kbytes/sec
    inside:        102400 kbytes in   8.633862 sec =    11860 kbytes/sec
FireDrunk schreef op woensdag 14 november 2012 @ 17:47:
Als je NAS ineens traag geworden is, zou ik niet aan de instellingen gaan rommelen, maar het hardware probleem wat er aan ten grondslag ligt oplossen.

Kans is groot dat er ergens iets stoek is...
Kon sochtends plots niets meer streamen. Alles sloeg af, continu buffering. Ik dacht dat de slowdowns eerst kwamen omdat er plaatsgebrek was. Hij zat voor 90% vol. Ik heb een terrabyte weten te deleten dus nu weer 80%. Bleef nog steeds traag draaien. Settings wat zitten wijzigen daarna en nog steeds traag dus nu zoek ik pas achter hardware problemen :)

Ik vond het straf dat ik van een onbruikbaar systeem plots naar een half bruikbaar systeem kon gewoon door de vdev.max_pending op 1 te zetten.

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Voor de volledigheid, enige andere optie die ik zie als probleem is de voeding, maar lijkt me dat ik dan meer fouten zou krijgen.
Test die voeding nu maar. Had je al lang moeten doen. Trek eens een extra zware voeding uit een bestaande pc of zo.
Verwijderd schreef op woensdag 14 november 2012 @ 22:41:
Kon sochtends plots niets meer streamen. Alles sloeg af, continu buffering. Ik dacht dat de slowdowns eerst kwamen omdat er plaatsgebrek was. Hij zat voor 90% vol. Ik heb een terrabyte weten te deleten dus nu weer 80%. Bleef nog steeds traag draaien. Settings wat zitten wijzigen daarna en nog steeds traag dus nu zoek ik pas achter hardware problemen :)
Ik had van de week, na een 8 uur durende scrub, ook opeens eens een samba doorvoer van 1MB/s , op Ubuntu. Dat terwijl ik normaal rond de 90 zit. Ik heb het niet uitgezocht want een server reset loste het op maar ik begin haast te denken dat er een probleem in ZFS zit. Dat hij resources op maakt tijdens het scrubben of zo. Memory?

[ Voor 60% gewijzigd door Durandal op 15-11-2012 02:11 ]

ZFS' geheugen caching is volgens hetzelfde principe als L2ARC (het heet ook gewoon ARC, en L2ARC is Level/Layer 2 ARC).

Met andere woorden, het is gewoon Adaptive Replacement Cache, wat kijkt hoe lang data niet aangesproken is, en het vervangt met nieuwere data.

Dus ja, in theorie kan je hele dataset na een scrub in je geheugen staan, maar zodra er nieuwe(re) data nodig is en aangesproken word, word dat gewoon in je geheugen gezet.

Even niets...

Pagina: 1 ... 50 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.