\\ Baloo \\ Mijn iRacing profiel
Ok nu vanaf ubuntu live stick haal ik:krijn1985 schreef op zaterdag 10 november 2012 @ 21:24:
server <----> client - tmpfs <-- tmpfs = +/- 85 MB/s (nautilus als root geopend) tmpfs <-- tmpfs = +/- 37 MB/s (nautilus als user) tmpfs --> tmpfs = +/- 85 MB/s (nautilus als root geopend) zfspool <-- tmpfs = +/- 30 MB/s (nautilus als user) zfspool <-- tmpfs = raar gedrag, springt in 1 keer naar 790 mb en gaat dan aflopen van ongeveer 60 MB/s terug naar 40 (nautilus als root) tmpfs --> hdd = +/- 32 MB/s (nautilus als user) tmpfs --> hdd = +/- 75 MB/s (nautilus als root) zfspool --> hdd = +/- 81 MB/s (nautlius als root) zfspool --> hdd = +/- 32 MB/s (nautlius als user) zfspool <-- hdd = +/- 30 MB/s (nautilus als user) zfspool <-- hdd = +/- 23 MB/s (nautilus als root)
ongeveer 80 MB/s vanaf een 750GB samsung schijf (zal dus iets langzamer zijn) naar mijn zfspool. Kopien tussen tmpfs lieten wat rare waardes zien doordat ze gelijk naar 700mb sprongen en daarna vanaf 70 mb/s terugliepen naar iets van 40 als het bestand klaar was.
Bij het kopieren van HD naar zfspool had ik de volgende top output:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
| st pid: 6507; load averages: 4.54, 2.14, 0.93 up 0+21:58:18 14:48:35 34 processes: 2 running, 32 sleeping CPU: 4.9% user, 0.0% nice, 65.6% system, 16.5% interrupt, 13.0% idle Mem: 1545M Active, 12M Inact, 12G Wired, 288K Cache, 2092M Free Swap: 2048M Total, 2048M Free PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 6420 root 1 84 0 47916K 8116K CPU0 0 2:31 38.96% smbd 1754 root 1 20 0 12052K 1324K select 1 0:16 0.00% powerd 1820 www 1 52 0 51824K 8760K accept 0 0:04 0.00% php-cgi 1787 www 1 20 0 30852K 3784K kqread 1 0:04 0.00% lighttpd 1776 root 1 20 0 40976K 3104K select 1 0:03 0.00% nmbd 1712 root 4 20 0 9912K 1284K rpcsvc 0 0:01 0.00% nfsd 1778 root 1 20 0 47628K 4872K select 0 0:00 0.00% smbd 1806 root 1 20 0 14128K 1544K nanslp 0 0:00 0.00% cron 1662 root 1 20 0 12052K 1456K select 1 0:00 0.00% syslogd 1674 root 1 20 0 14132K 1788K select 0 0:00 0.00% rpcbind 1718 root 1 52 0 22324K 4784K rpcsvc 1 0:00 0.00% rpc.lockd 1715 root 1 20 0 280M 4832K select 0 0:00 0.00% rpc.statd 6491 root 1 20 0 16560K 2124K CPU1 1 0:00 0.00% top 1711 root 1 52 0 18104K 4728K select 0 0:00 0.00% nfsd 6472 root 1 21 0 67888K 4368K sbwait 0 0:00 0.00% sshd 1789 www 1 52 0 51824K 4716K wait 1 0:00 0.00% php-cgi 1850 root 1 52 0 47724K 5332K piperd 1 0:00 0.00% php |
VOlgens mij ligt het "langzame" kopieren dus aan mijn huidige ubuntu install. Misschien binnenkort dus dan toch maar even een fresh install doen (waarbij ik misschien ook wel gelijk naar Mint overga).
edit2:
Nu lijkt het vanuit mijn gewone install ook stuk sneller te gaan zo tussen de 60 tot 80 MB/s kan ik halen. Als root in nautilus kwam ik zelfs op 90MB/s. Denk dus toch dat mijn desktop hier de snelheid lijkt te limiteren.
Ik heb ook het idee dat het gebruik van ifconfig re0 polling mijn cpu idle % in top lijkt te verhogen. Met polling aan is cpu idle tussen de 20 tot 40% zonder zit het tussen de 5 en 35% ongeveer.
Is dit eventueel automatisch toe te passen?
edit2:
Ik snap het niet helemaal meer. Nu doet een kopie (53GB aan muziek) ongeveer 35MB/s (als gewone ubuntu user). Hierbij is cpu idle % op mijn nas iets van 40 tot 60%.
Ik denk dat ik nu maar gewoon zfsguru verder ga instellen (de benodigde filesystems aan maken en mijn bestand maar is ga kopieren). Daarnaast Sabnzbd etc instellen en dan binnenkort een clean install van mijn desktop doen.
[ Voor 12% gewijzigd door krijn1985 op 11-11-2012 16:28 ]
Nautilus gebruikt een eigen soort 'SMB browser' en is niet 'the real thing' als ik dat goed had begrepen. Probeer het dus eens via een normale échte mount.
Freebsd/ZFSguru is als virtuele machine geïnstalleerd op een VMware ESXi 5.1 machine. De schijven zijn met hulp van oa deze website als RDM gekoppeld.
Met system image 9.0-004 featuring FreeBSD 9.0-RELEASE with ZFS v28 werkt het allemaal prima, maar welke nieuwe system image geeft die block size error. En ik snap niet waarom...
In dit geval is wordt er gekopieerd naar mijn media filesystem die gemount is via de command line. Het kopieren gaat echter wel via nautilus. Kan je bij het kopieren via de command line ook de snelheid zien?Verwijderd schreef op zondag 11 november 2012 @ 16:38:
En doe eens niet via dat aparte nautilus maar doe het eens 'proper' via de command line met mount of via fstab cifs driver. Zoiets als: mount -t cifs //192.168.1.88/tmpfs /mnt/tmpfs
Nautilus gebruikt een eigen soort 'SMB browser' en is niet 'the real thing' als ik dat goed had begrepen. Probeer het dus eens via een normale échte mount.
update: Wat ik zo snel konden vinden is dat pv de snelheid output kan geven, dus hiermee getest. De snelheid schommelde uiteindelijk nogal erg tussen 15 MB/s tot 95 MB/s. Waarbij uiteindelijk dit het resultaat is:
1
2
| krijn@krijn-desktop:/media/opslag2tb/media/films en series/films/Drive (2011)$ pv Drive.2011.1080p.BluRay.1080p.x264.DTS-HDMaNiAcS.mkv > /media/zfsgurumedia/drive.mkv 6.67GB 0:01:54 [59.9MB/s] [==================================>] 100% |
[ Voor 26% gewijzigd door krijn1985 op 11-11-2012 16:56 ]
Dat heeft geloof ik te maken met de nieuwere LSI drivers.Wolfensteijn schreef op zondag 11 november 2012 @ 16:41:
Freebsd 9.0 werkt prima, maar zodra ik op welke manier dan ook upgrade naar 9.1 RC3 (of welke andere release na 9.0) dan krijg ik als error melding "unsupportable block size 0" op elke fysieke hardeschijf.
Freebsd/ZFSguru is als virtuele machine geïnstalleerd op een VMware ESXi 5.1 machine. De schijven zijn met hulp van oa deze website als RDM gekoppeld.
Met system image 9.0-004 featuring FreeBSD 9.0-RELEASE with ZFS v28 werkt het allemaal prima, maar welke nieuwe system image geeft die block size error. En ik snap niet waarom...
Heb je de firmware van je controller al geupdate? Die moet geloof ik matchen met de nieuwste driver.
(Zelfs VMWare's eigen 'virtuele' LSI Controller heeft er last van onder FreeBSD.)
Even niets...
De fysieke controller is een onboard intel geval, dus dat klinkt als een bios update?FireDrunk schreef op zondag 11 november 2012 @ 16:53:
[...]
Dat heeft geloof ik te maken met de nieuwere LSI drivers.
Heb je de firmware van je controller al geupdate? Die moet geloof ik matchen met de nieuwste driver.
(Zelfs VMWare's eigen 'virtuele' LSI Controller heeft er last van onder FreeBSD.)
Daar geld dit verhaal niet voor
Even niets...
Het systeem wat ik gebruik ondersteund alleen vt-x (dus geen vt-d), wat voor alleen mapping van harde schijven voldoende zou moeten zijn.FireDrunk schreef op zondag 11 november 2012 @ 17:11:
He? Je hebt 0 block device op een Intel controller? Dat heb ik nog niet gezien
Daar geld dit verhaal niet voor
Zou het kunnen dat ESXi een virtuele LSI controller gebruikt voor het aanbieden van de schijven aan een VM? En dat ik dus moet uitzoeken of er daar een update van VMware voor is?
Jawel dat is precies die fout. mps driver in FreeBSD 9.1 met oudere firmware gaat niet samen. Alleen oude mps driver met oude firmware of nieuwe mps driver met nieuwe firmware.FireDrunk schreef op zondag 11 november 2012 @ 17:11:
He? Je hebt 0 block device op een Intel controller? Dat heb ik nog niet gezien
Daar geld dit verhaal niet voor
Onboard SAS controller betekent vaak dat je tijdens het flashen van het BIOS ook de option ROM van je SAS controller meeflasht. Je zult daarvoor extra moeten zoeken, maar het zou wel moeten kunnen. Zo niet heb je een groot probleem!
Het moederbord is een MSI P67S-C43, met Intel G620 CPU. Geen onboard SAS controller, maar gewoon built-in Intel SATA controller.Verwijderd schreef op zondag 11 november 2012 @ 17:26:
[...]
Jawel dat is precies die fout. mps driver in FreeBSD 9.1 met oudere firmware gaat niet samen. Alleen oude mps driver met oude firmware of nieuwe mps driver met nieuwe firmware.
Onboard SAS controller betekent vaak dat je tijdens het flashen van het BIOS ook de option ROM van je SAS controller meeflasht. Je zult daarvoor extra moeten zoeken, maar het zou wel moeten kunnen. Zo niet heb je een groot probleem!
En juist die is gevoelig voor FreeBSD 9.1's probleem met 0-block devices...
Even niets...
Dus ik moet of de 'firmware' van de LSI controller in de VM updaten, of de driver in Freebsd downgraden?FireDrunk schreef op zondag 11 november 2012 @ 17:49:
Precies, maar je geeft via RDM natuurlijk de disks door. Dus IN de vm heb je ook nog een controller...
En juist die is gevoelig voor FreeBSD 9.1's probleem met 0-block devices...
Heb je tips en/of adviezen wat haalbaar is, en waar ik informatie kan vinden over hoe dat te doen?
Je kan nog proberen of het met ESXi 5.1 is opgelost, maar ik denk het niet...
VMware ligt een beetje heel erg achter als het gaat om Drivers / Firmware voor FreeBSD...
http://www.vmware.com/res...rtOrder=Asc&testConfig=16
Officieel is de LSI controller wel supported...
[ Voor 37% gewijzigd door FireDrunk op 11-11-2012 18:39 ]
Even niets...
ESXi + FreeBSD is altijd al een ongelukkige combinatie geweest, of althans een combinatie met een groter aantal issues dan ESXi + Linux vermoed ik. Dat is enigszins logisch; als twee softwarepakketten vaak in combinatie gebruikt worden, is de ondersteuning hiervoor vaak ook beter. Zodra je van de gemarkeerde paden loopt de jungle in, loop je een grotere kans iets naars mee te maken.
Je kunt vooralsnog bij FreeBSD 9.0 blijven met een oudere mps driver, of misschien proberen de oude mps driver te compileren op FreeBSD 9.1. Best wel klote IMO. Maar geëmuleerde hardware is dan ook niet iets waar ik gauw enthousiast van word...
Ik denk dat je hier niet om heen kan werken in de praktijk, technisch en in theorie is het denk ik wel mogelijk. Het beste wat je kan doen is wachten op een nieuwe (virtuele) hardware revisie van VMware. Enfin ik heb in het verleden gPXE in een e1000 van vmware gehad. bron.FireDrunk schreef op zondag 11 november 2012 @ 18:25:
De firmware van de LSI controller in ESX is inderdaad niet te flashen. Datzelfde probleem heb ik ook gehad.
Je kan nog proberen of het met ESXi 5.1 is opgelost, maar ik denk het niet...
VMware ligt een beetje heel erg achter als het gaat om Drivers / Firmware voor FreeBSD...
http://www.vmware.com/res...rtOrder=Asc&testConfig=16
Officieel is de LSI controller wel supported...
Onder ESXi 5.1 werkt het in ieder geval niet. Tenminste, mijn RDM schijven niet, maar de virtuele schijf waar Freebsd/ZFSguru op staat werkt dan wel...FireDrunk schreef op zondag 11 november 2012 @ 18:25:
De firmware van de LSI controller in ESX is inderdaad niet te flashen. Datzelfde probleem heb ik ook gehad.
Je kan nog proberen of het met ESXi 5.1 is opgelost, maar ik denk het niet...
VMware ligt een beetje heel erg achter als het gaat om Drivers / Firmware voor FreeBSD...
http://www.vmware.com/res...rtOrder=Asc&testConfig=16
Officieel is de LSI controller wel supported...
En schiet mij maar lek. Ik heb de schijven opnieuw gemapped via de console van ESXi. Daarna eerst een verse installatie van zfsguru gedaan met alleen de virtuele schijf aan de VM toegewezen. Deze netjes kunnen upgraden naar 9.1-004 met de beta8 webinterface.
Daarna de schijven toegewezen, boel opnieuw gestart. En opeens worden de schijven gewoon herkend, en werkt alles. Behalve SMART, wat ik eerst wel werkend had, maar nu niet meer. Dus blijkbaar geeft ESXi ze anders door. Waarschijnlijk omdat ik bij het mappen iets anders heb gedaan...
[ Voor 23% gewijzigd door Wolfensteijn op 11-11-2012 20:00 ]
Verwijderd
Mijn schijven heb ik geformatteerd met de standaard setup die je krijgt als je de eerste keer ZFSGURU opent, Maar nu zag ik dat ze waren geformatteerd voor 512B schijven terwijl ik de Seagate Barracuda 7200.14 ST2000DM001, 2TB gebruik. Is dit nog aan te passen zonder data te verliezen aangezien er al een install van ZFSGURU op de schijven staat?
Ook vroeg ik me af of het mogelijk is om een VM met bijv linux te draaien die dan plex aankan, is dit mogelijk met een Pentium G630?
-X VS -ZWolfensteijn schreef op zondag 11 november 2012 @ 19:19:
[...]
Onder ESXi 5.1 werkt het in ieder geval niet. Tenminste, mijn RDM schijven niet, maar de virtuele schijf waar Freebsd/ZFSguru op staat werkt dan wel...
En schiet mij maar lek. Ik heb de schijven opnieuw gemapped via de console van ESXi. Daarna eerst een verse installatie van zfsguru gedaan met alleen de virtuele schijf aan de VM toegewezen. Deze netjes kunnen upgraden naar 9.1-004 met de beta8 webinterface.
Daarna de schijven toegewezen, boel opnieuw gestart. En opeens worden de schijven gewoon herkend, en werkt alles. Behalve SMART, wat ik eerst wel werkend had, maar nu niet meer. Dus blijkbaar geeft ESXi ze anders door. Waarschijnlijk omdat ik bij het mappen iets anders heb gedaan...
Even niets...
Nee, -r vs -z
Het gaat om het vmkfstools commando. Door -r te gebruiken wordt het een virtueel device waar ESXi dus nog tussen de VM en de disk zelf zit. Met -z is er sprake van passthrough.
Ik heb nu -r gebruikt. Zometeen even proberen met -z.
Dit trouwens net via http://vmetc.com/wp-conte...007/11/man-vmkfstools.txt geleerd.
Net even geprobeerd wat een RDM met passthrough (vmkfstools -z /device /path) doet voor Freebsd. Dan gaat het dus fout en krijg je blocklevel 0 errors. Met -r werkt Freebsd wel, maar omdat het OS dan niet meer direct met de schijven kan praten heb ik geen SMART info over mijn schijven in zfsguru.
Misschien op termijn toch maar een vt-d CPU overwegen, dan kan ik de controller in ieder geval direct aan een VM hangen, zonder dat het via die gare VMware LSI controller moet...
[ Voor 33% gewijzigd door Wolfensteijn op 11-11-2012 22:23 ]
Je hebt geen pool om leeg te zijn totdat je hem aanmaaktMikeVM schreef op zondag 11 november 2012 @ 14:48:
nu wil ik vandaag eindelijk gaan starten met Ubunut server met ZFS,
nu heb ik 5TB vrije schijfruimte, maar dit is allemaal verspreid over meedere disks.
- moet een pool volledig leeg zijn om aangemaakt te kunnen worden?
Maar als je bedoelt of de disks leeg moeten zijn.. zfs controleert of ze deel uitmaken van bestaande pools en wellicht ook of er al wat anders op staat. Je kan forceren om ze toch te gebruiken.
Lees voordat je begint even de 'man zpool' manual, en vergeet bij het pool aanmaken de ashift12 optie niet.
Ja, als ze geen deel gaan uitmaken van de zpool. Verder moet je MDADM en zfs niet mixen.MikeVM schreef op zondag 11 november 2012 @ 14:48:
- kan ik bij het creeëren van een pool, mijn oude MDADM schijven blijven aanspreken?
Ik heb 24GB voor de boot partitie (ruim genoeg voor alles. Mijn installatie zit nu pas op 2.4GB) en 12GB swap, maar uiteindelijk is het aan jou.MikeVM schreef op zondag 11 november 2012 @ 14:48:
- hoe zou ik mijn 80gb ssd partitioneren voor Ubuntu server?
Ik weet niet of je hier ook nog een ZIL (write log) of L2ARC (read cache) op wil zetten en of dat een goed idee is.
Ik zie een hoop posts hier in dit topic met "dd". Ik ben echter niet helemaal bekend met dit commando.
dd is eigenlijk heel simpel, je leest blokken vanaf je input (if=), schrijft naar output (of=) en je kunt een blockgrootte (bs=) en aantal (count=) opgeven.enormhi schreef op maandag 12 november 2012 @ 16:34:
Ik zie een hoop posts hier in dit topic met "dd". Ik ben echter niet helemaal bekend met dit commando.
Werkt wel goed om je max sequentiele doorvoer te testen.
Als je meer wilt weten, zoals latency en IOPS, kun je eens naar FIO of Bonnie++ kijken.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Verwijderd
Het is juist bonnie wat eigenlijk ongeschikt is, omdat het geen rustperiode gebruikt tussen de tests. Daardoor begint de volgende test terwijl ZFS of andere write-back mechanismen zoals hardware RAID nog bezig zijn, wat de score beïnvloedt.
Als je server benchmarks wilt met vooral random IOps of multistream read/write dan is dd veel minder geschikt natuurlijk, maar thuisgebruikers hebben vaak één sequentiële stream voor grote bestanden die op hun NAS worden opgeslagen; wat haaks staat op typische server I/O doordat deze vele clients bedient en er van een echt sequentiëel I/O patroon vaak geen sprake is.
CiPHER, weet jij wat er percies in 9.1-RC3 veranderd is bij FreeBSD? Zijn er dingen die epliciet stuk zijn? Anders ga ik vanavond denk ik upgraden.
Even niets...
Een echt accurate test zou dezelfde APIs moeten gebruiken als de applicatie die je probeert te simuleren. Dat is bij dd niet het geval, maar een goed alternatief ken ik niet. Zo hangt het bijvoorbeeld ook af of de applicatie 'Sendfile' ondersteunt. Dit is een andere manier afwikkeling van disk I/O wat tot kortere latencies zou moeten leiden omdat de direct uit RAM gelezen kan worden, ofzoiets. Dus je zou bijvoorbeeld ook Sendfile performance moeten benchmarken indien je applicatie dit gebruikt. Lighttpd en andere applicaties gebruiken namelijk ook Sendfile.
FreeBSD 9.1-RC3 draait prima hier. Als je gaat upgraden, kun je met beta8 ook makkelijk terug gaan. Je huidige installatie dus niet gelijk verwijderen. Zou je namelijk gezeik krijgen met RC3 dan switch je vrolijk weer terug naar RC1. Dat is juist de gein met het ZFSguru installatieverhaal.
* installing....
migrating your services from old /services directory to new location /rootpool/zfsguru/services/9.1-004 has failed!
Oops
[ Voor 52% gewijzigd door FireDrunk op 13-11-2012 10:28 ]
Even niets...
Beta9 is in the works. Jason heeft al mooie plannen voor de Samba rewrite. Hoop er komend weekend ook aan te kunnen sleutelen.
Wat ook iritant is.. Static IP config gaat niet mee, passwords gaan niet mee...
** Fixed** je moet natuurlijk niet de disk image proberen te importeren...
Nieuwe VM aanmaken, en disk hergebruiken werkt beter
Bridged Alle networking lijkt stuk te zijn, kan niet vinden waarom...
virtio_load="YES"
virtio_pci_load="YES"
virtio_blk_load="YES"
if_vtnet_load="YES"
Stonden niet meer in rc.conf. Net toegevoegd, nu rebooten.
[ Voor 254% gewijzigd door FireDrunk op 13-11-2012 12:08 ]
Even niets...
dd if=/dev/zero of=/mnt/tank/zerofile.000 bs=2M count=10000
10000+0 records in
10000+0 records out
20971520000 bytes transferred in 20.506273 secs (1022688032 bytes/sec) 975MB/s
(Getest op een VirtualBox VM (NAS4Free) op mijn workstation met een pool van 3 virtuele HDD's (RAIDZ1) op een virtuele SAS controller).
Je moet met minimaal 5 keer je RAM testen voor een beetje accurate tests.
----
Ben er overigens achter waarom VirtualBox networking niet wil werken... De nieuwe versie van VirtualBox heeft een nieuwe versie van VirtIO... je moet je guest additions dus updaten en nieuwe kernel modules compilen.
Grmblgdverdmmmmee *KUT* UDEV...
even /etc/rules.d/70-persistent-net deleten in je VM's...
Ze krijgen een nieuw MAC adres natuurlijk, en dat vind een Ubuntu VM niet leuk...
Alles werkt nu dus weer
[ Voor 19% gewijzigd door FireDrunk op 13-11-2012 12:59 ]
Even niets...
In deze VM heb ik op het moment 3GB RAM zitten, dus ik ga ruim over de 5× heen.FireDrunk schreef op dinsdag 13 november 2012 @ 12:23:
Je zit voor de helft je RAM te testen. Als je bijvoorbeeld 16GB geheugen hebt, word er maar 4GB daadwerkelijk met de snelheid van je disks geschreven, de rest staat in RAM.
Je moet met minimaal 5 keer je RAM testen voor een beetje accurate tests.
Je zegt virtuele disks, daar zit vast wat IO caching in... probeer eens 100GB.enormhi schreef op dinsdag 13 november 2012 @ 12:32:
[...]
In deze VM heb ik op het moment 3GB RAM zitten, dus ik ga ruim over de 5× heen.
Even niets...
50000+0 records in
50000+0 records out
104857600000 bytes transferred in 107.228459 secs (977889649 bytes/sec) 933MB/s
Iets wat ik me net pas bedenk, ik draai mijn OS en mijn virtuele "HDD's" vanaf SSD. Dit zal er vast invloed op hebben!
Even niets...
Checksum errors (geen smart, geen read/write-errors etc) na het schrijven van data (>1TB) naar een RAID-Z1 pool. Zie voorbeeld:

Naast schijven aansluiten op een onboard controller (INTEL) ipv. de IBM M1015 (IT) en andere schijven probleren (de in bovenstaande voorbeeld 250GB schijven) zijn ook andere RAID opties geprobeerd. R0 & R1 (3x 2 mirror) gevene nagenoeg geen checksum fouten.
Geheugen lijkt het probleem, maar memtest86 heeft 13 passes gedaan zonder fouten te vinden (16GB / 1,5dag ongeveer).
De vraag is, aangezien de storingen optreden onder FreeBSD (ZFSGURU), zijn er geen geheugentesten die werken op/onder FreeBSD?
Ik ga sowieso nog andere geheugentesten proberen, volgens mij kun je met Windows7 startup ook een geheugentest opstarten. Kan helaas pas over 2 weken weer hiermee verder, schiet niet op zo
Voor de volledigheid, enige andere optie die ik zie als probleem is de voeding, maar lijkt me dat ik dan meer fouten zou krijgen.
Ik ga nog wel met ZFSGURU door, want op het werk heb ik het op een PowerEdge 1950 draaien zonder problemen.
Even niets...
Meer heb ik eigenlijk niet ingesteld. Veel van de instellingen werken waarschijnlijk niet eens goed. Zoals de APM en advanced format.Disks:
3 5GB Vbox Harddisks
Standby time: Always on
APM: Level 254
Acoustic Level: Maximum performance
VDEV:
RAIDZ1 (vdev01)
Advanced Format enabled
Pool:
vdev01
Even niets...
@wjn: vage problemen, wel tof dat je doorzet. Ik schaam me alleen dat ik eigenlijk geen tips meer voor je heb. CPU stress tests enzo, maar het is zo vaag. Jouw probleem komt zoveel overeen met defect RAM-geheugen....
MAAR, als je camcontrol stop da0 t/m da7 doet.
Gaan WEL keurig alle schijven downspinnen
Met andere woorden. De LSI / IBM controller ZEGT dat hij geen standby/idle ondersteunt, maar honoreert wel het commando richting de disks.
Even niets...
http://www.noresult.net/freebsd/spindown/
@CiPHER
Omdat ik weet dat het moet kunnen werken, op een server gaat het ook prima. Ik las wel dat er een memtest86 en een memtest86+ is, zal die andere ook eens proberen.
[ Voor 27% gewijzigd door wjn op 13-11-2012 17:00 ]
Dan kom je daar redelijk laat achter. Alle LSI SAS controllers hebben hier last van. Enige echte nadeel van deze controller IMO. Wat ik heb gedaan met mijn schijven die APM ondersteunen en deze ook onthouden na een power cycle, is even aansluiten op de chipset en pas daarna naar de LSI controller overzetten.Ik kom er net achter, dat ZFSGuru (en camcontrol for that matter) aangeven dat mijn M1015 geen APM ondersteunt.
Als je schijven hebt waarbij je de APM elke boot op 254 moet zetten om headparking uit te schakelen, is dat echter wel een groot probleem want dat gaat dus niet op de IBM M1015 controller. In elk geval niet onder FreeBSD platform; Linux zou wel APM/AAM in kunnen stellen via deze controller dus het lijkt een FreeBSD driver issue te zijn.
Wel balen in elk geval. camcontrol stop is leuk, maar dat werkt dus eenmalig. Je wilt iets hebben wat bij inactiviteit je schijven downspint. Die spindown daemon die wjn oppert kende ik nog niet; ziet er geinig uit!
Probleem bij LSI SAS is dus dat het camcontrol identify commando niet werkt. Dat is wat ZFSguru gebruikt om de APM/AAM instellingen te controleren en je deze aan te laten passen.
Stopping device da0 Unit stopped successfully device: da0, max_idle_time: 600, rd: 735, wr: 960, frees: 0, other: 40, idle time: 600, state: Not spinning Stopping device da1 Unit stopped successfully device: da1, max_idle_time: 600, rd: 764, wr: 961, frees: 0, other: 40, idle time: 600, state: Not spinning Stopping device da2 Unit stopped successfully device: da2, max_idle_time: 600, rd: 760, wr: 953, frees: 0, other: 40, idle time: 600, state: Not spinning Stopping device da3 Unit stopped successfully device: da3, max_idle_time: 600, rd: 734, wr: 941, frees: 0, other: 40, idle time: 600, state: Not spinning Stopping device da4 Unit stopped successfully device: da4, max_idle_time: 600, rd: 686, wr: 970, frees: 0, other: 40, idle time: 600, state: Not spinning Stopping device da5 Unit stopped successfully device: da5, max_idle_time: 600, rd: 704, wr: 962, frees: 0, other: 40, idle time: 600, state: Not spinning Stopping device da6 Unit stopped successfully device: da6, max_idle_time: 600, rd: 737, wr: 959, frees: 0, other: 40, idle time: 600, state: Not spinning Stopping device da7 Unit stopped successfully device: da7, max_idle_time: 600, rd: 757, wr: 955, frees: 0, other: 40, idle time: 600, state: Not spinning Stopping device ada1 Error received from stop unit command (pass9:ahcich2:0:0:0): START STOP UNIT. CDB: 1b 0 0 0 0 0 (pass9:ahcich2:0:0:0): CAM status: CCB request was invalid spindown: Error spinning down device: ada1 device: ada1, max_idle_time: 600, rd: 683, wr: 963, frees: 0, other: 40, idle time: 600, state: Error Stopping device ada2 Error received from stop unit command (pass10:ahcich3:0:0:0): START STOP UNIT. CDB: 1b 0 0 0 0 0 (pass10:ahcich3:0:0:0): CAM status: CCB request was invalid
ada == onboard
da == M1015...
Werkt dus prima... Enige probleem is dus, dat camcontrol het SCSI standby commando niet stuurt, maar het AHCI commando (denk ik...)
Dit is dus met de Spindown utility uit Ports.
Nu nog even kijken hoe ik die als deamon in rc.conf krijg.
Even niets...
Kun je bevestigen dat je met die utility daadwerkelijk je schijven kunt downspinnen die op de LSI controller zitten? En dan bedoel ik dus niet éénmalig, maar bij inactiviteit automatisch downspinnen. Dat zou die 'spindown' utility moeten kunnen doen als ik de manpage lees.
APM werkte trouwens bagger, mijn disks gingen de hele tijd na 1 seconde inactivity al down.
Misschien kan powerd helpen.
Service draait, nu 10 minuutjes wachten
[ Voor 73% gewijzigd door FireDrunk op 13-11-2012 19:13 ]
Even niets...
1 = spindown met maximale stroombesparing (na 1 seconden dus denk ik)
..
127 = spindown met minimale stroombesparing (na een uur spindown of zoiets)
128 = geen spindown, maximale stroombesparing (betekent vaak headparking)
254 = geen spindown, minimale stroombesparing (betekent vaak geen headparking)
Maar je kunt dus ook een APM instelilng van 60 ofzo proberen. ZFSguru web-interface laat je maar kiezen uit enkele instellingen, dat moet ook verbeterd worden. Daar heb ik wel wat ideeën over.
Service werkt overigens
Mijn 10-disk RAIDZ2 server, verbruikt momenteel: 53W 44W
[ Voor 19% gewijzigd door FireDrunk op 13-11-2012 20:12 ]
Even niets...
Bij mij werkte het ook op de schijven op de M1015.[b][message=39277496,noline]Kun je bevestigen dat je met die utility daadwerkelijk je schijven kunt downspinnen die op de LSI controller zitten? En dan bedoel ik dus niet éénmalig, maar bij inactiviteit automatisch downspinnen. Dat zou die 'spindown' utility moeten kunnen doen als ik de manpage lees.
Enige probleem wat ik had, is dat sommige media al uit cache (L2ARC) gestart wordt (dus direct gaan lopen/spelen) en de pool (lees: schijven) pas later (bij eerste benadering) uit sleep komen en dan een seconde of 5 vertraging veroorzaken.
In mijn geval was de cache een partitie op de SSD, die zit op het mainboard aangesloten (onboard SATA) en gaat niet in sleep.
Metadata cachen is fijn, grote dirs enzo kun je dan lekker snel openen. Ook kost het je vrijwel nihil opslag op je SSD, dus altijd enablen zou ik zeggen.
1
2
3
4
5
6
7
8
| krijn@krijn-desktop:/nfs$ dd if=/dev/zero of=/nfs/test.000 bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 176.181 s, 59.5 MB/s krijn@krijn-desktop:/nfs$ dd if=/nfs/test.000 of=/dev/null bs=1M 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 132.894 s, 78.9 MB/s |
Dit is met ifconfig re0 polling, waarbij vooral met smb volgens mij de cpu wel iets minder belast wordt. In het geval van NFS zou het kunnen dat CPU toch de bottleneck is. Alhoewel in top % idle erg wisselend kan zijn.
Heb trouwens de nfs share gemount op ubuntu met volgende commando:
1
| sudo mount -o soft,intr,rsize=8192,wsize=8192 \192.168.1.107:/opslag/personal /nfs |
Nu moet ik eerlijk zeggen dat ik dit commando ook ergens van een site geplukt heb en dus nog niet gekeken heb wat de parameters allemaal precies doen.
Als ik wil kijken of ik met NFS hogere snelheden kan halen (lezen gaat in dit geval stuk sneller dan schrijven) waar moet ik dan verder kijken? Las dingen over sync of async? Moet eerlijk zeggen dat ik me er verder nog niet in verdiept heb. Kostte me al wat moeite om de NFS share te maken (blijkbaar moet je op de webinterface in dat veld geen naam invullen) en daarna te mounten.
Gister ook sabnzbd geinstalleerd en ingesteld, werkt lekker. Echter kan ik owncloud niet installeren vanuit de webinterface. Geeft aan dat ik geen verbinding heb met internet.
sudo mount -t nfs -o async,nolock 192.168.1.107:/opslag/personal /nfs
Nieuwe owncloud service komt eraan.
Wat specs op 'n rij:
- Supermicro X9SCM-F, Intel E3-1230, 16G
- 2x IBM 1015
- 10x Samsung HD204UI in RAIDZ2, allen voorzien van bugfree firmware
- VMWare 5.0.0 vanaf usb, met VM image van OI op 2.5" disk
- SunOS OI-NAS 5.11 oi_151a4 i86pc i386 i86pc
- napp-it v0.8h nightly May.03.2012
pool overview:
pool: dpool
state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
repaired.
scan: none requested
config:
NAME STATE READ WRITE CKSUM
dpool DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
c2t50024E9204438955d0 ONLINE 0 0 0
c2t50024E920443896Dd0 ONLINE 0 0 0
c2t50024E9204438979d0 FAULTED 0 0 0 too many errors
c2t50024E920443898Bd0 FAULTED 0 0 0 too many errors
c2t50024E920561485Fd0 ONLINE 0 0 0
c2t50024E9205C2A7CAd0 ONLINE 0 0 0
c2t50024E9205C2A7D4d0 ONLINE 0 0 0
c2t50024E9205C2A872d0 ONLINE 0 0 0
c2t50024E9205C2AAE1d0 ONLINE 0 0 0
c2t50024E9205C2AAF1d0 ONLINE 0 0 0
errors: No known data errors S.M.A.R.T. info voor c2t50024E9204438979d0
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (19620) seconds.
Offline data collection
capabilities: (0x5b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 255) minutes.
SCT capabilities: (0x003f) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 100 100 051 Pre-fail Always - 449
2 Throughput_Performance 0x0026 252 252 000 Old_age Always - 0
3 Spin_Up_Time 0x0023 068 064 025 Pre-fail Always - 9919
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 103
5 Reallocated_Sector_Ct 0x0033 252 252 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 252 252 051 Old_age Always - 0
8 Seek_Time_Performance 0x0024 252 252 015 Old_age Offline - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 697
10 Spin_Retry_Count 0x0032 252 252 051 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 2
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 103
181 Program_Fail_Cnt_Total 0x0022 100 100 000 Old_age Always - 12345309
191 G-Sense_Error_Rate 0x0022 100 100 000 Old_age Always - 13
192 Power-Off_Retract_Count 0x0022 252 252 000 Old_age Always - 0
194 Temperature_Celsius 0x0002 064 051 000 Old_age Always - 35 (Min/Max 18/49)
195 Hardware_ECC_Recovered 0x003a 100 100 000 Old_age Always - 0
196 Reallocated_Event_Count 0x0032 252 252 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 252 252 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 252 252 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0036 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x002a 100 100 000 Old_age Always - 715
223 Load_Retry_Count 0x0032 100 100 000 Old_age Always - 2
225 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 133
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 675 -
# 2 Short offline Completed without error 00% 675 -
# 3 Short offline Completed without error 00% 671 -
Note: selective self-test log revision number (0) not 1 implies that no selective self-test has ever been run
SMART Selective self-test log data structure revision number 0
Note: revision number not 1 implies that no selective self-test has ever been run
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Completed [00% left] (0-65535)
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testingS.M.A.R.T. info voor c2t50024E920443898Bd0
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (19920) seconds.
Offline data collection
capabilities: (0x5b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 255) minutes.
SCT capabilities: (0x003f) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 100 100 051 Pre-fail Always - 130
2 Throughput_Performance 0x0026 252 252 000 Old_age Always - 0
3 Spin_Up_Time 0x0023 067 062 025 Pre-fail Always - 10009
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 99
5 Reallocated_Sector_Ct 0x0033 252 252 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 252 252 051 Old_age Always - 0
8 Seek_Time_Performance 0x0024 252 252 015 Old_age Offline - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 698
10 Spin_Retry_Count 0x0032 252 252 051 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 2
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 102
181 Program_Fail_Cnt_Total 0x0022 100 100 000 Old_age Always - 12348494
191 G-Sense_Error_Rate 0x0022 100 100 000 Old_age Always - 2
192 Power-Off_Retract_Count 0x0022 252 252 000 Old_age Always - 0
194 Temperature_Celsius 0x0002 064 049 000 Old_age Always - 35 (Min/Max 17/51)
195 Hardware_ECC_Recovered 0x003a 100 100 000 Old_age Always - 0
196 Reallocated_Event_Count 0x0032 252 252 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 252 252 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 252 252 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0036 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x002a 100 100 000 Old_age Always - 362
223 Load_Retry_Count 0x0032 100 100 000 Old_age Always - 2
225 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 129
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 675 -
# 2 Short offline Completed without error 00% 671 -
Note: selective self-test log revision number (0) not 1 implies that no selective self-test has ever been run
SMART Selective self-test log data structure revision number 0
Note: revision number not 1 implies that no selective self-test has ever been run
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Completed [00% left] (0-65535)
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testingEn dan nu de hamvraag - wat te doen?
- ...ben geen S.M.A.R.T kenner
- verdenk één van de data kabels (mini SAS 36pin to 4x SATA), al 's eerder gedonder mee gehad
- heb dit forum al van voor naar achter doorgespit...
- ...heb de nodige generieke hints & tips gevonden in de troubleshooting guide
- uitsluiten hardware oorzaak in kabel en/of schijf --> hoe, iemand tips?
- indien schijf, pas dan Troubleshooting guide toe...
- vervolgens herstellen van de pool --> is 'zpool clear -F dpool' voldoende?
- scrub job via Napp-it schedulen --> iemand ervaring mee?
You need vision
Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje
Betere USB sticks doen tussen de 0,1MB/s en 1MB/s random write. Dat is dus al 100 tot 1000 keer sneller! Een hardeschijf zit boven de 1MB/s aan 4K random writes als deze dicht op elkaar zitten (LBA range) anders 0,3MB/s full-LBA.
Deze USB-stick van 4 euro bij Paradigit doet het vrij aardig qua random write en kan ik wel aanbevelen:
pricewatch: Verbatim Store'n'Go Micro-USB 4GB Zwart
@bco: je SMART is wel oke. Kun je niets in je kernel logs vinden dat er errors waren met die disks? Heb je op solaris een 'dmesg' of kun je 'cat /var/log/messages' enzo doen? Rebooten al geprobeerd?
[ Voor 16% gewijzigd door Verwijderd op 13-11-2012 22:34 ]
De disken worden door de kernel gezien (de vm-virtio service draait ook), de devices worden ook aangemaakt (/dev/vdbd0 t/m /dev/vdbd3)
Waarom ziet ZFSGuru ze niet?
/offtopic ik ga er maar even vanuit dat je vdbd VirtualBox disks zijn
[ Voor 16% gewijzigd door FireDrunk op 13-11-2012 23:08 ]
Even niets...
You need vision
Nee geen VirtualBox. KVM. De kernel ziet ze dus wel, alleen ZFSGuru webinterface compleet niet.FireDrunk schreef op dinsdag 13 november 2012 @ 23:08:
Dat zou wel moeten, VirtualBox Block Devices die door middel van VirtIO doorgegeven worden, zouden gewoon zichtbaar moeten zijn... Soms wil ZFSguru ze nog wel eens als USB stick markeren heb ik gemerkt
/offtopic ik ga er maar even vanuit dat je vdbd VirtualBox disks zijn
[ Voor 27% gewijzigd door FireDrunk op 13-11-2012 23:34 ]
Even niets...
libvirt 0.9.11.6 kernel 3.6.6 (Fedora 17)FireDrunk schreef op dinsdag 13 november 2012 @ 23:34:
Hmm.. Wel VirtIO? Versie van KVM libvirtd / kernel?
Overigens werkt het wel als ik handmatig de pool aanmaak. Die ziet ZFSGuru dan weer wel.
Dan hoeven we het er niet over te hebben. Gewoon CiPHER poken...
Even niets...
ee /usr/local/www/zfsguru/includes/disk.php
zoek dan naar de regel die begint met: function disk_detect_physical
Voeg daar tussen de lijst die daar vlak onder staat jouw disk naam toe, dus vdbd.
Bedankt, zal het dan met 'n andere proberen. Dat van die random writes zie ik wel nergens op het screenshot staan, is dat parate kennis?Verwijderd schreef op dinsdag 13 november 2012 @ 22:32:
@Borromini: je hebt een USB stick die 0,001MB/s aan random write doet; oeps! En 4K optimalisatie is ook wel aanbevolen. Maar laat maar draaien, uiteindelijk is hij klaar en dat booten (lezen) gaat een stuk sneller!
Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje
Ik heb nu sudo mount -o async,nolock gebruikt, dit leverde de volgende snelheden op:Verwijderd schreef op dinsdag 13 november 2012 @ 21:34:
Even uit mijn hoofd:
sudo mount -t nfs -o async,nolock 192.168.1.107:/opslag/personal /nfs
Nieuwe owncloud service komt eraan.
1
2
3
4
5
6
7
8
| krijn@krijn-desktop:/nfs$ dd if=/dev/zero of=/nfs/zero.000 bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 163.52 s, 64.1 MB/s krijn@krijn-desktop:/nfs$ dd if=/nfs/zero.000 of=/dev/zero bs=1M 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 112.798 s, 93.0 MB/s |
Lezen is nu ongeveer 14 MB/s sneller, schrijven 5 MB/s. Vanavond maar is verder kijken of ik het schrijven wat verder kan tweaken.
Ik had dit probleem ook heel erg
Even niets...
8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)
Ik denk dat het afhankelijk is van welk OS je gebruikt, maar een CIFS/Samba share met AD-integratie moet wel kunnen ja.psy schreef op woensdag 14 november 2012 @ 12:05:
Stel ik bouw een aparte ZFS server, kan ik dan gemakkelijk mijn NTFS rechten blijven gebruiken? Dit wordt mij niet echt duidelijk. Ik draai thuis een active directory domain en wil graag deze mogelijkheden blijven gebruiken maar NTFS is natuurlijk iets anders als ZFS.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Ja, effect is bijna hetzelfde, ZIL disabled betekend dat er geen intent log is, en dat synced writes gewoon gedaan worden wanneer ZFS denkt dat het moet, ze worden dus wel in memory gecached.krijn1985 schreef op woensdag 14 november 2012 @ 10:18:
Voorlopig ga ik nog even geen SSD kopen. Het uitschakelen van ZIL betekent dus dat ik eventuele data verlies wanneer de stroom uit valt? Op dit moment hangt de NAS aan UPS dus zomaar stroomuitval zal niet heel snel voorkomen (moet nog wel even NUT of acpupsd installeren om te zorgen dat mijn NAS dus netjes uitgaat op moment dat batterij bijna leeg is). Ik kan ZIL in de webgui voor het filesystem personal uitzetten door Synchronous writes op disabled te zetten? Of is dit weer iets anders?
Sync helemaal disablen zorgt ervoor dat synced writes async worden, en dus gedaan worden wanneer je storage er tijd voor heeft... Tussentijds worden ze in memory opgeslagen.
Je raakt maar heel beperkt data kwijt (tot 2 minuten). Voor films en series geen probleem, voor VM's met corrupte VMDK's wat minder leuk.
Even niets...
Je kunt ook nog even proberen met "noatime" te mounten, misschien dat dat nog wat scheelt.krijn1985 schreef op woensdag 14 november 2012 @ 13:33:
Dan ga ik vanavond even proberen wat voor snelheidswinst het disabled zetten van Synchronous writes gaat opleveren. Mocht de winst echt maar dermate weinig zijn, zet ik het wel weer gewoon aan.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
AD is toch eigenlijk altijd Windows?u_nix_we_all schreef op woensdag 14 november 2012 @ 12:45:
[...]
Ik denk dat het afhankelijk is van welk OS je gebruikt, maar een CIFS/Samba share met AD-integratie moet wel kunnen ja.
Nouja ik draai Windows 2008R2.
8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)
FreeBSD 9.1-RC3 (OFED-POLLING-ALTQ) #0: Wed Oct 31 18:51:17 UTC 2012
** ZFSguru LiveCD distribution
Ik probeer via de webinterface van ZFSGURU NFS te sharen, maar krijg het niet aan de praat. SMB werkt prima.
[ssh@zfsguru /home/ssh]$ su - [root@zfsguru ~]# whoami root [root@zfsguru ~]# zfs list NAME USED AVAIL REFER MOUNTPOINT ZFS-Pool 393G 194G 87K /mnt/ZFS-Pool ZFS-Pool/DataSet1 129G 194G 611M /mnt/ZFS-Pool/DataSet1 ZFS-Pool/DataSet1/Volume2 129G 322G 16K - ZFS-Pool/Volume1 264G 458G 16K - [root@zfsguru ~]# zfs set sharenfs=on ZFS-Pool/DataSet1 [root@zfsguru ~]# cat /etc/zfs/exports # !!! DO NOT EDIT THIS FILE MANUALLY !!! /mnt/ZFS-Pool/DataSet1 [root@zfsguru ~]# ls -la /mnt/ZFS-Pool/ total 7 drwxrwxrwx 3 root wheel 3 Oct 4 14:48 ./ drwxr-xr-x 3 root wheel 40 Nov 13 14:04 ../ drwxrwxrwx 6 root wheel 7 Nov 14 00:06 DataSet1/ [root@zfsguru ~]# tail /var/log/messages Nov 14 13:32:06 zfsguru su: ssh to root on /dev/pts/0 Nov 14 13:32:46 zfsguru mountd[5328]: can't export /mnt/ZFS-Pool/DataSet1 Nov 14 13:32:46 zfsguru mountd[5328]: bad exports list line /mnt/ZFS-Pool/DataSet1
Wat doe ik fout?
SE2200+14xSF170S & SE1500M+4xTSM-375
en je moet het filesystem sharen, niet het volume.
Even niets...
[ Voor 10% gewijzigd door krijn1985 op 14-11-2012 13:53 ]
Zou dat het zijn? BRB, even checken...FireDrunk schreef op woensdag 14 november 2012 @ 13:52:
Volgens mij mag je geen streepjes gebruiken...
--edit--
Nou, niks, nog steeds hetzelfde.
[root@zfsguru /etc/zfs]# zfs list NAME USED AVAIL REFER MOUNTPOINT datatank 148K 587G 32K /datatank datatank/filesys 31K 587G 31K /datatank/filesys [root@zfsguru /etc/zfs]# zfs set sharenfs="off" datatank/filesys [root@zfsguru /etc/zfs]# cat /etc/zfs/exports # !!! DO NOT EDIT THIS FILE MANUALLY !!! /datatank/filesys [root@zfsguru /etc/zfs]# tail /var/log/messages Nov 14 14:26:29 zfsguru mountd[5328]: can't export /datatank/filesys Nov 14 14:26:29 zfsguru mountd[5328]: bad exports list line /datatank/filesys Nov 14 14:29:05 zfsguru mountd[5328]: can't export /datatank/filesys Nov 14 14:29:05 zfsguru mountd[5328]: bad exports list line /datatank/filesys
[ Voor 66% gewijzigd door ElMacaroni op 14-11-2012 14:35 . Reden: Update ]
SE2200+14xSF170S & SE1500M+4xTSM-375
Even niets...
Dat is juist het merkwaardige, aanzetten, uitzetten, maakt niks uit. Deze regels blijven altijd in /etc/zfs/exports staan.krijn1985 schreef op woensdag 14 november 2012 @ 15:17:
ben er niet helemaal thuis in, maar in je laatste screenshot lijkt het erop dat je je share dus uitzet inplaats van aan.. Klopt dit?
Ik zal /etc/zfs/exports even verwijderen/moven, NFS share opnieuw aanzetten en dan nog eens kijken.
[root@zfs[root@zfsguru /etc/zfs]# mv exports exports.old [root@zfsguru /etc/zfs]# ls -la total 24 drwxr-xr-x 2 root wheel 120 Nov 14 15:38 ./ drwxr-xr-x 20 root wheel 4200 Nov 13 15:50 ../ -rw------- 1 root wheel 61 Nov 14 15:38 exports -rw------- 1 root wheel 86 Nov 13 14:32 exports.mv [root@zfsguru /etc/zfs]# cat exports [root@zfs[root@zfsguru /etc/zfs]# cat exports # !!! DO NOT EDIT THIS FILE MANUALLY !!! /datatank/filesys [root@zfsguru /etc/zfs]# tail /var/log/messages Nov 14 15:33:28 zfsguru su: ssh to root on /dev/pts/0 Nov 14 15:38:23 zfsguru mountd[5328]: can't export /datatank/filesys Nov 14 15:38:23 zfsguru mountd[5328]: bad exports list line /datatank/filesys
Me no comprendo
[ Voor 46% gewijzigd door ElMacaroni op 14-11-2012 15:42 ]
SE2200+14xSF170S & SE1500M+4xTSM-375
Grappig, "ada" staat daar ook niet tussen?Verwijderd schreef op dinsdag 13 november 2012 @ 23:57:
Is simpel, komt door de devicename: /dev/vdbd0. Die staat niet in de officiële lijst die Jason gebruikt: http://www.freebsd.org/do...andbook/disks-naming.html. Maar ik schrijf hem op, en tot die tijd kun je het fixen door een bestand te editen:
En mijn dell server heeft "mfid", die staat er ook niet in?
(In /usr/local/www/zfsguru/includes/disk.php staan die er uiteraard wel tussen.)
Zijn er mensen die met de readahead instellingen van ZFS hebben gestoeid?
Ik wil graag een readahead van minimaal iets van 32MB per file request op mijn array, maar kan nergens vinden hoe dat moet...
[ Voor 63% gewijzigd door FireDrunk op 14-11-2012 15:52 ]
Even niets...
Je moet NFS wel enabled hebben in /etc/rc.conf, achteraf enablen is mij nog nooit gelukt. Je moet booten met de hele rits:
nfs_server_enable="YES"
mountd_enable="YES"
mountd_flag="-r"
rpcbind_enable="YES"
rpc_lockd_enable="YES"
rpc_statd_enable="YES"
Of de LiveCD dit enabled heeft weet ik niet, maar wellicht moet je dus installeren en normaal booten dan zou het moeten werken.
@FireDrunk: al met vdev cache gespeeld? vfs.zfs.vdev.cache.size
[ Voor 6% gewijzigd door Verwijderd op 14-11-2012 16:04 ]
Prerequisite: ZFSguru / FreeBSD portstree (of de gewone ports tree gebruiken uiteraard...)
cd /usr/ports/sysutils/spindown make && make install
nano /etc/rc.conf
#Enable Spindown spindown_enable="YES" spindown_flags="-b -d da0 -d da1 -d da2 -d da3 -d da4 -d da5 -d da6 -d da7 -t 300"
Onderaan toevoegen.
@CiPHER, misschien iets om automatisch te enablen als er da* devices gevonden worden?
[ Voor 21% gewijzigd door FireDrunk op 28-12-2013 10:59 ]
Even niets...
Verwijderd
Even niets...
Voor snelheid testen pak ik altijd een laptop met SSD en gigabit, daarmee is altijd de gigabit verbinding de bottleneck. Samba is "out of the box" zfs-guru.
Als ik kopieer naar harddisk, wordt dat de bottleneck als het veel (kleinere) bestanden zijn.
[ Voor 6% gewijzigd door wjn op 14-11-2012 17:17 ]
Verwijderd
Tussen kopieren van SSD naar NAS of HDD naar NAS merk ik geen verschil. Bij films blijft dit gewoon tegen de 75MB/s. Kopieren van PC naar laptop (beide met ssd) gaat overigens wel gewoon 100-110MB/s. Helaas des te langer het duurt (door bijv. meerdere films tegelijk) daalt de snelheid al snel naar zo'n 65MB/s.
[ Voor 65% gewijzigd door Verwijderd op 14-11-2012 17:41 ]
Verwijderd
Daarna heb ik gefoefeld met de vfs.zfs.vdev.max_pending. Nu op 1 gezet en het is terug relatief bruikbaar. Maar de performance is nog altijd echt zwak te noemen. Scrubbed nu tegen 20Mb/sec en streams haperen nog steeds af en toe. Data kopiëren in dezelfde pool duurt ook een uur voor een paar GB. Dus er scheelt echt nog iets. De pool status openen op de webui is ook traag (10 secs ofzo).
Ik begin te denken dat ik met een kapotte schijf zit. Maar hoe kan ik zoiets valideren? De benchmark module slaagt soms af na een paar refreshes en sommige schijven krijg ik niet gestart dus het is een beetje een mixed bag. Dit lijkt me allesinds geen goed teken:

SMART values voor die schijf:
http://cl.ly/image/0o002G2G102X
Suggesties? Thoughts?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
| [root@zfsguru /home/ssh]# zpool status tank
pool: tank
state: ONLINE
scan: scrub in progress since Sun Nov 11 20:59:15 2012
4.07T scanned out of 8.40T at 20.2M/s, 62h28m to go
0 repaired, 48.41% done
config:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
gpt/wd2tb-4-data ONLINE 0 0 0
gpt/wd2tb-5-data ONLINE 0 0 0
gpt/wd2tb-3-data ONLINE 0 0 0
gpt/wd2tb-2-data ONLINE 0 0 0
gpt/wd2tb-1-data ONLINE 0 0 0
gpt/wd2tb-6-data-real ONLINE 0 0 0 |
Kans is groot dat er ergens iets stoek is...
Even niets...
Duidelijk. Bij mij maakt het wel verschil SDD of HDD, zal wel met fragmentatie te maken hebben. Iig van/naar de NAS gaat bij mij met volledig GB, met standaard Samba instellingen.
Mounten met nolock, async en noatime levert het volgende op:
1
2
3
4
5
6
7
8
| krijn@krijn-desktop:/nfs$ dd if=/dev/zero of=/nfs/zero.000 bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 169.731 s, 61.8 MB/s krijn@krijn-desktop:/nfs$ dd if=/nfs/zero.000 of=/dev/zero bs=1M 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 115.462 s, 90.8 MB/s |
Is iets langzamer dan gemount met alleen async en nolock, maar erg klein verschil. De volgende resultaten zijn nadat ik Synchronous writing op disabled heb gezet in de webinterface en weer gemount met async en nolock.
1
2
3
4
5
6
7
8
| krijn@krijn-desktop:/nfs$ dd if=/dev/zero of=/nfs/zero.000 bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 144.89 s, 72.4 MB/s krijn@krijn-desktop:/nfs$ dd if=/nfs/zero.000 of=/dev/zero bs=1M 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 114.743 s, 91.4 MB/s |
Hierbij verschilt het lezen dus vrij weinig, echter het schrijven gaat wel met ongeveer 9MB/s omhoog. Nu is dit nog niet de volle gigabit dicht, maar misschien dat hierin toch ook nog andere factoren mee kunnen spelen.
Wanneer ik mijn NAS aan een UPS heb hangen en deze netjes laat afsluiten wanneer batterij van UPS bijna leeg is kan het toch vrij weinig kwaad als ik synchronous writes op disabled heb staan? Ok als ik perongeluk de kabel uit mijn UPS trek valt hij uit en kan ik dus data missen, maar dat risico zie ik als laag.
The choice is yours...
Even niets...
Verwijderd
Ja. Heb de scrub afgezet en alles nog is opnieuw gedraaid. Ik denk ook dat ik de benchmark de vorige keer dubbel aan het draaien was. Soms geeft deze plots aan dat er geen meer bezig is en dan nog is geklikt vermoedelijk. In elk geval ... ada2 is veel beter nu.Verwijderd schreef op woensdag 14 november 2012 @ 17:54:
Draai je die benchmark terwijl je aan het scrubben bent?

ada3 daar zijn misschien wel wat problemen mee.

Op de grafiek lijkt het niet zo heel erg maar de simple benchmark zelf duurt wel veel langer als de anderen.
Ik heb diskinfo -t /dev/ada3 gedaan en dat ziet er niet zo best uit. Vergelijking tussen ada0 en ada3. Zou dit kunnen verklaren waarom ik zo een slechte read & write speed heb? Vrees wel dat ik ze ga moeten omruilen.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
| [root@zfsguru ~]# diskinfo -t /dev/ada0
/dev/ada0
512 # sectorsize
2000398934016 # mediasize in bytes (1.8T)
3907029168 # mediasize in sectors
4096 # stripesize
0 # stripeoffset
3876021 # Cylinders according to firmware.
16 # Heads according to firmware.
63 # Sectors according to firmware.
WD-WCAZAE986213 # Disk ident.
Seek times:
Full stroke: 250 iter in 5.959844 sec = 23.839 msec
Half stroke: 250 iter in 4.365644 sec = 17.463 msec
Quarter stroke: 500 iter in 7.479887 sec = 14.960 msec
Short forward: 400 iter in 2.315909 sec = 5.790 msec
Short backward: 400 iter in 2.545899 sec = 6.365 msec
Seq outer: 2048 iter in 0.241152 sec = 0.118 msec
Seq inner: 2048 iter in 0.230626 sec = 0.113 msec
[root@zfsguru ~]# diskinfo -t /dev/ada3
/dev/ada3
512 # sectorsize
2000398934016 # mediasize in bytes (1.8T)
3907029168 # mediasize in sectors
4096 # stripesize
0 # stripeoffset
3876021 # Cylinders according to firmware.
16 # Heads according to firmware.
63 # Sectors according to firmware.
WD-WCAZAE637965 # Disk ident.
Seek times:
Full stroke: 250 iter in 63.550349 sec = 254.201 msec
Half stroke: 250 iter in 33.799519 sec = 135.198 msec
Quarter stroke: 500 iter in 108.247500 sec = 216.495 msec
Short forward: 400 iter in 37.218608 sec = 93.047 msec
Short backward: 400 iter in 32.167061 sec = 80.418 msec
Seq outer: 2048 iter in 2.190496 sec = 1.070 msec
Seq inner: 2048 iter in 0.253944 sec = 0.124 msec
Transfer rates:
outside: 102400 kbytes in 24.720245 sec = 4142 kbytes/sec
middle: 102400 kbytes in 17.546034 sec = 5836 kbytes/sec
inside: 102400 kbytes in 8.633862 sec = 11860 kbytes/sec |
Kon sochtends plots niets meer streamen. Alles sloeg af, continu buffering. Ik dacht dat de slowdowns eerst kwamen omdat er plaatsgebrek was. Hij zat voor 90% vol. Ik heb een terrabyte weten te deleten dus nu weer 80%. Bleef nog steeds traag draaien. Settings wat zitten wijzigen daarna en nog steeds traag dus nu zoek ik pas achter hardware problemenFireDrunk schreef op woensdag 14 november 2012 @ 17:47:
Als je NAS ineens traag geworden is, zou ik niet aan de instellingen gaan rommelen, maar het hardware probleem wat er aan ten grondslag ligt oplossen.
Kans is groot dat er ergens iets stoek is...
Ik vond het straf dat ik van een onbruikbaar systeem plots naar een half bruikbaar systeem kon gewoon door de vdev.max_pending op 1 te zetten.
Test die voeding nu maar. Had je al lang moeten doen. Trek eens een extra zware voeding uit een bestaande pc of zo.Voor de volledigheid, enige andere optie die ik zie als probleem is de voeding, maar lijkt me dat ik dan meer fouten zou krijgen.
Ik had van de week, na een 8 uur durende scrub, ook opeens eens een samba doorvoer van 1MB/s , op Ubuntu. Dat terwijl ik normaal rond de 90 zit. Ik heb het niet uitgezocht want een server reset loste het op maar ik begin haast te denken dat er een probleem in ZFS zit. Dat hij resources op maakt tijdens het scrubben of zo. Memory?Verwijderd schreef op woensdag 14 november 2012 @ 22:41:
Kon sochtends plots niets meer streamen. Alles sloeg af, continu buffering. Ik dacht dat de slowdowns eerst kwamen omdat er plaatsgebrek was. Hij zat voor 90% vol. Ik heb een terrabyte weten te deleten dus nu weer 80%. Bleef nog steeds traag draaien. Settings wat zitten wijzigen daarna en nog steeds traag dus nu zoek ik pas achter hardware problemen
[ Voor 60% gewijzigd door Durandal op 15-11-2012 02:11 ]
Met andere woorden, het is gewoon Adaptive Replacement Cache, wat kijkt hoe lang data niet aangesproken is, en het vervangt met nieuwere data.
Dus ja, in theorie kan je hele dataset na een scrub in je geheugen staan, maar zodra er nieuwe(re) data nodig is en aangesproken word, word dat gewoon in je geheugen gezet.
Even niets...
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.