Even niets...
[ Voor 26% gewijzigd door Contagion op 03-03-2013 13:18 ]
Vanaf een virtual HD die op de datastore (zou ook niet anders kunnen, met ESXi)FireDrunk schreef op zondag 03 maart 2013 @ 10:32:
Waar boot je zfs vm zelf van?
Over NCQ had ik al wat gelezen idd. Het lijkt vaak voor te komen met SB700 controllers en Samsung schijven (die ik beide heb)
Interessant thread: http://forums.freenas.org...?1910-AHCI-timeouts/page8
Daarin kwam ik ook tegen dat iemand het had opgelost door in de BIOS "SATA IDE Combined Mode) uit te zetten (stond standaard bij hem aan). Maar bij mij staat dat al uit...
Ik ga dus even proberen NCQ uit te zetten.
EDIT: NCQ uitzetten lijkt te hebben geholpen. En met de performance ben ik ook nog best tevreden:
1
2
3
4
5
6
7
8
9
10
| ZFSguru 0.2.0-beta8 (9.1-005) pool benchmark Pool : Data (2.03T, 20% full) Test size : 32 GiB normal read : 186 MB/s normal write : 144 MB/s lzjb read : 3 GB/s lzjb write : 1 GB/s gzip read : 3 GB/s gzip write : 1 GB/s I/O bandwidth : 14 GB/s |
Is er ook een optie om dit standaard (bij het booten) niet te enablen? Want nu heb ik het tijdelijk uitgezet met
camcontrol tags ada0 -N 1
[ Voor 28% gewijzigd door Compizfox op 03-03-2013 17:26 ]
Gewoon een heel grote verzameling snoertjes
Corrupted files on pool bigpool Warning: some files on your pool are inaccessible due to unrecoverable corruption! The files affected, are: *59 files knip* Corrupted files on pool bigpool
Lang leve FreeBSD die niet tegen latency kan...
* FireDrunk gaat binnenkort maar over op ZFSonLinux...
[ Voor 10% gewijzigd door FireDrunk op 03-03-2013 17:43 ]
Even niets...
Dit kan gebeuren bij kabeldefecten en andere timeouts. Aangezien jullie een virtualisatieschil gebruiken is het dan weer lastig om eerst uit te sluiten dat het daarmee te maken heeft.
Ik lees trouwens niets over SMART; hebben jullie dat gecontroleerd? Wat zou volgens jullie de oorzaak van de timeouts zijn?
[ Voor 12% gewijzigd door Verwijderd op 03-03-2013 17:57 ]
Ik had last van timeouts met NCQ enabled. Ik had echter geen corrupted bestanden (volgens ZFS dan).
Met de SMART-status van m'n disks is ook niets mis trouwens.
Het lijkt erop dat ik het probleem nu geëlimineerd heb door NCQ uit te schakelen.
Gewoon een heel grote verzameling snoertjes
Met de melding van FireDrunk kan ik niet zoveel. Dan zou ik veel meer willen weten over de pool configuratie, logs en of een power-cycle/reboot inderdaad zijn 'corruptie' verhelpt.
Ik blijf erbij dat het draaien van een ZFS platform in een virtualisatielaag een extra risico of dimensie geeft waarin er vreemde bugs of situaties kunnen optreden. Als iets niets lekker werkt in een virtualisatieomgeving, weet je niet met zekerheid of dat aan de virtualisatielaag ligt totdat je zonder virtualisatie probeert het probleem te reproduceren. Zonder virtualisatie (of alleen virtualbox op de host ofzo) is natuurlijk wel zo fijn omdat je één hele grote factor gelijk kunt uitsluiten.
ZFS is al complex genoeg, zelf maak ik het liever niet nog complexer door ZFS in een andere schil te omkapselen. Dat gezegd, ieder volgt zijn eigen weg en ik blijf natuurlijk heel benieuwd naar ZFS + virtualisatie.
Ook mekkerde FreeBSD veel dat de tijd veranderde (terwijl mijn server verder niets speciaals aan het doen was). Dit suggereert dat FreeBSD niet zo goed om kan gaan met de BIOS clock die geemuleerd word door QEMU/KVM.
Maar dat weet ik allemaal nog niet zeker, er loopt nu een scrub.
Edit: Ik zie op een paar disks Power Off Retract Count op > 200 staan... Erg vaag...
Weer een andere heeft Program Fail Cnt waardes, en weer een andere multi zone errors.
(Alle disks zijn direct aanspreekbaar door VT-d)
[ Voor 18% gewijzigd door FireDrunk op 03-03-2013 18:22 ]
Even niets...
Wat verbeterd precies met deze configuratie? De speed over LAN of (ook) WAN of andere dingen? Ik merk zelf dat ik met ZFSGuru mijn Ziggo-lijn niet kan voltrekken, en polling lijkt qua downloadsnelheid niets uit te maken.duiveltje666 schreef op vrijdag 01 maart 2013 @ 01:32:
Kleine tip om je netwerk performance te verbeteren :
ifconfig device polling ,dus bijv.
# ifconfig em0 polling
en om het permanent te maken : (voorbeeldje , zelf je config aanpassen aan je netwerkkaart)
ifconfig_em0="inet 10.21.111.100 netmask 255.255.255.192 media 1000baseT/UTP mediaopt full-duplex polling"
Om te testen of het werkt :
sysctl -a kern.polling
en ifconfig em0( vul je netwerkkaart hier in)
Je zult bijvoorbeeld dit zien :
em0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 7168
options=20db<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,POLLING,VLAN_HWCSUM,WOL_MAGIC>
ether 00:1b:21:38:77:1f
inet 192.168.1.12 netmask 0xffffff00 broadcast 192.168.1.255
nd6 options=29<PERFORMNUD,IFDISABLED,AUTO_LINKLOCAL>
media: Ethernet 1000baseT <full-duplex>
status: active
Getest met: https://github.com/Janhouse/tespeed, uitkomst: 88 om 9 Mbit/s
scrub in progress since Sun Mar 3 16:26:15 2013 1.36T scanned out of 10.5T at 400M/s, 6h39m to go 32K repaired, 12.95% done
Dit suggereert dat er een unsafe shutdown van een disk is geweest ofzo... 32K kapot klinkt echt als 1 buffertje wat niet goed is gegaan...
Even niets...
Het zijn HD753LJ's, dat zijn dus Spinpoint F1's.Verwijderd schreef op zondag 03 maart 2013 @ 18:15:
Had je trouwens wel de firmware fix voor Samsung F4EG geflashed? Deze schijf is voor een bepaalde datum namelijk kwetsbaar voor NCQ + SMART + write-request bug.
Deze NCQ-bug had ik ook toen ik ZFSGuru als host draaide.ZFS is al complex genoeg, zelf maak ik het liever niet nog complexer door ZFS in een andere schil te omkapselen. Dat gezegd, ieder volgt zijn eigen weg en ik blijf natuurlijk heel benieuwd naar ZFS + virtualisatie.
Nu draai ik het als guest in ESXi en het enige probleem waar ik mee te kampen heb, is dat ik huge interrupt storms krijg op irq 16 (wat mijn doorgegeven SATA-controller is), mits ik meer dan 1 core toewijs aan de VM.
(Zie Compizfox in "Zuinige ESXi Server")
Nu heb ik dus maar 1 core toegewezen aan ZFSGuru maar dat is een beetje suboptimaal aangezien ik er een FX-8120 in heb. Die heeft 8 (per core relatief langzame) cores.
[ Voor 8% gewijzigd door Compizfox op 03-03-2013 19:02 ]
Gewoon een heel grote verzameling snoertjes
Dit zorgt met name voor lagere cpu load als je je shares volkwakt/leeglurktC0rnelis schreef op zondag 03 maart 2013 @ 18:21:
[...]
Wat verbeterd precies met deze configuratie? De speed over LAN of (ook) WAN of andere dingen? Ik merk zelf dat ik met ZFSGuru mijn Ziggo-lijn niet kan voltrekken, en polling lijkt qua downloadsnelheid niets uit te maken.
Getest met: https://github.com/Janhouse/tespeed, uitkomst: 88 om 9 Mbit/s
Dan raken er uit mijn 2 raidz2 pools 2 discs weg en is de zaak degraded.
Reboot en alles is weer ok binnen 1 seconde repaired of zo. (De originele hdds zijn er dan weer natuurlijk)
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Gebeurt dit al als je geboot ben voor of zie je de degraded state pas als je later kijkt? In het begin al kan komen door het feit dat je HDD's te veel trekken van je voeding tijdens de boot procedure. Dan kunnen ze rustig 25-30 watt trekken om snel te zakken naar de waardes die je normaal verwachtjacovn schreef op zondag 03 maart 2013 @ 21:26:
Ik heb 3x een IBM m1015 en soms boot 1 niet goed op.
Dan raken er uit mijn 2 raidz2 pools 2 discs weg en is de zaak degraded.
Reboot en alles is weer ok binnen 1 seconde repaired of zo. (De originele hdds zijn er dan weer natuurlijk)
[ Voor 9% gewijzigd door Hakker op 03-03-2013 22:53 ]
Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
| $ sudo zpool status tank pool: tank state: ONLINE status: One or more devices has experienced an unrecoverable error. An attempt was made to correct the error. Applications are unaffected. action: Determine if the device needs to be replaced, and clear the errors using 'zpool clear' or replace the device with 'zpool replace'. see: http://zfsonlinux.org/msg/ZFS-8000-9P scan: scrub canceled on Sun Mar 3 23:39:20 2013 config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J4J15B ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J4HGNB ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J2RP1A ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J3TXGB ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J3ST5B ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J422JB ONLINE 5 0 0 cache usb-SanDisk_Cruzer_Fit_4C532000041129106180-0:0 ONLINE 0 0 0 usb-SanDisk_Cruzer_Fit_4C532000050913100011-0:0 ONLINE 0 0 0 errors: No known data errors |
De afgebroken scrub komt doordat mijn videoprojecten ineens toch wel heel erg langzaam gingen
Wat je hier ziet is precies waarom je ZFS gebruikt
1
2
3
4
| ID Device model serial number firmware revision ada0 SAMSUNG HD753LJ S13UJ1MQ122256 1AA01107 ada1 SAMSUNG HD753LJ S13UJQSZ402096 1AA01118 ada2 SAMSUNG HD753LJ S13UJQSZ402098 1AA01118 |
ada1 en ada2 krijgen de timeouts, op ada0 heb ik er geen last van. De twee 'bugged' schijven hebben echter een nieuwere fimware.
Nu heb ik hier de 1AA01107 firmware gevonden.
Maar kan ik de firmware veilig downgraden? Met camcontrol fwdownload?
EDIT: 2e verschil is dat "power-up in standby" aanstaat op ada0 maar uit op ada1 en ada2. Dat zou ook nog iets uit kunnen maken...
[ Voor 45% gewijzigd door Compizfox op 04-03-2013 00:37 ]
Gewoon een heel grote verzameling snoertjes
Ah! Ik had die read errors over het hoofd gezienContagion schreef op zondag 03 maart 2013 @ 23:58:
Je hoeft er niks mee, er zijn fouten gevonden met lezen en opgelost door ZFS. Je kan wel even 'zpool clear tank' doen om die '5' naar '0' te krijgen.
Wat je hier ziet is precies waarom je ZFS gebruikt. Er was iets fout en nu niet meer.
Dat is een beetje Off topic hier, maar het is een 760 watt seasonic voeding en het gebeurd ook niet elke keer.Hakker schreef op zondag 03 maart 2013 @ 22:48:
[...]
Gebeurt dit al als je geboot ben voor of zie je de degraded state pas als je later kijkt? In het begin al kan komen door het feit dat je HDD's te veel trekken van je voeding tijdens de boot procedure. Dan kunnen ze rustig 25-30 watt trekken om snel te zakken naar de waardes die je normaal verwachten met een reset gaan je hdd's niet volledig uit dus gaan ze niet meer door de hoge wattage cycle heen waardoor ze dan wel gevonden worden.
Mijn post was meer om te melden dat zfs na zo'n event het file systeem snel weer ok heeft.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Toen VirtIO eenmaal crashte ging de ZFSguru VM over de flos (op zich begrijpelijk, want er ging een hoop mis met het netwerk). CPU usage van de VM steeg naar 100% en de vm was amper responsive (maar deed het nog wel...).
Toen heb ik de VM gereboot, en dat ging in princpie goed, ware het niet dat de VM na de ** syncing disks ** een foutmelding gaf over het niet kunnen wegschrijven van bepaalde sectoren. Toen ging de VM uit. DAARNA gingen ineens 4 van mijn 10 schijven opspinnen... Heel vreemd...
Nu dus 167MB repaired door de scrub en weer 82 files corrupt en > 1000 checksum errors per disk
Ben een beetje radeloos...
EDIT: Even nagekeken, de ZFSguru VM zelf geeft 0,0 fouten in kernel logs.
[ Voor 3% gewijzigd door FireDrunk op 04-03-2013 09:25 ]
Even niets...
Hm, die problemen heb ik nog niet gehad. Wel een disk die telkens na een powercycle kwijt raakt, maar volgens mij is dat een power kabel probleempje. In mijn 12 disk raidz2 config merk ik wel dat het schrijven niet super snel gaat. Over nfs lijkt 600Mbit/s wel zo'n beetje de max, maar ik weet nog niet waar dat aan ligt. Op dezelfde hardware, maar dan met een 5 disk raidz ging wel met 1Gbit. Misschien toch een slog ssd nodig?FireDrunk schreef op maandag 04 maart 2013 @ 09:14:
Nog even wat achtergrond van mijn problemen. Ik draai ZFSguru dus momenteel onder KVM met 2 controllers doorgegeven via Passthrough. In de logs is niets te zien over enige vorm van ATA/AHCI/SAS controller problemen. Het enige wat ik gevonden heb is een lichte crash van het netwerk omdat er een rare bug in VirtIO blijkt te zitten. Waar deze precies door komt is nog onduidelijk, en ook op internet is er nog weinig over te vinden. Het komt alleen voor als er extreem veel verkeer over VirtIO gaat, dan word er ergens een race conditie ofzo getriggerd
Toen VirtIO eenmaal crashte ging de ZFSguru VM over de flos (op zich begrijpelijk, want er ging een hoop mis met het netwerk). CPU usage van de VM steeg naar 100% en de vm was amper responsive (maar deed het nog wel...).
Toen heb ik de VM gereboot, en dat ging in princpie goed, ware het niet dat de VM na de ** syncing disks ** een foutmelding gaf over het niet kunnen wegschrijven van bepaalde sectoren. Toen ging de VM uit. DAARNA gingen ineens 4 van mijn 10 schijven opspinnen... Heel vreemd...
Nu dus 167MB repaired door de scrub en weer 82 files corrupt en > 1000 checksum errors per disk
Ben een beetje radeloos...
EDIT: Even nagekeken, de ZFSguru VM zelf geeft 0,0 fouten in kernel logs.
Ik begrijp niet waarom je mij quote
[ Voor 46% gewijzigd door FireDrunk op 04-03-2013 09:45 ]
Even niets...
Das mooiFireDrunk schreef op maandag 04 maart 2013 @ 09:36:
Ik volg je helemaal niet...
Wat ik probeer te vertellen is het volgende, ik heb nu een 12 disk raidz2 config. Vanaf een andere host daarna toe schrijven gaat met max 600Mbit/s.
In dezelfde machine heb ik ook een 5 disk raidz config gehad, het schrijven daarna toe ging met 1Gbit/s.
Beide vanaf dezelfde source, waarbij de ZFSGuru vm de target is.
Oh zo
[ Voor 61% gewijzigd door B2 op 04-03-2013 09:51 ]
Welke versie OS en KVM (en eventueel LibVirt) heb je?
Even niets...
Fedora 17FireDrunk schreef op maandag 04 maart 2013 @ 09:54:
Aaaaah, kijk, dat is zeker bruikbare informatie!
Welke versie OS en KVM (en eventueel LibVirt) heb je?
1
2
3
| kernel 3.7.9-104 qemu-kvm-1.0.1-4 libvirt-0.9.11.9 |
Kernel 3.5.0-25-39
qemu-kvm 1.2.0
libvirt 0.9.20
Dus nieuwere libvirt, oudere kernel.
Even niets...
Nieuwste kernel is, zeker bij KVM, erg belangrijk.FireDrunk schreef op maandag 04 maart 2013 @ 10:31:
Ik zit zelf op:
Kernel 3.5.0-25-39
qemu-kvm 1.2.0
libvirt 0.9.20
Dus nieuwere libvirt, oudere kernel.
(Gentoo op USB is niet zo tof...)
Zojuist remote een release upgrade gedaan naar 13.04 dev.
Daar heb ik kernel 3.8.0. Alleen kan ik remote niet rebooten (vage USB->SATA converter werkt niet 100% als bootdevice op mijn moederbord, dus die moet ik handmatig selecteren elke boot... Beetje vaag)
Vanavond dus meer.
[ Voor 52% gewijzigd door FireDrunk op 04-03-2013 12:15 ]
Even niets...
Files corrupt moet zijn dat ZFS ofwel niet bij de data kan, ofwel dat de data misvormd is. Ik zou suggereren: start eens iets met BSD ZFS op zonder virtualisatie. Een USB-stick met ZFSguru of wat dan ook.FireDrunk schreef op maandag 04 maart 2013 @ 09:14:
Nu dus 167MB repaired door de scrub en weer 82 files corrupt en > 1000 checksum errors per disk
Wat ik namelijk verwacht is dat zodra ZFS bugvrij je disks kan aanspreken die 82 corrupte files ook moeten verdwijnen. Hoezo heb je filecorruptie die je pool niet kan corrigeren? Ik neem aan dat je een redundante poolconfiguratie draait namelijk. Misschien je pool config posten inclusief error timers?
In elk geval, dat is wat ik zou doen: even geen virtualisatie en kijken of je die corrupte files kunt terughalen. Ik neem verder aan dat je je RAM kunt vertrouwen; checksum errors random verdeeld over meerdere/alle disks ruikt naar RAM corruptie.
Dit RAM kwam uit mijn desktop (die had 32GB, is nu gehalveerd) en dat draait al maanden goed, dus ik verwacht dat het gewoon error-vrij is.
De VM zelf staat momenteel even uit, ik zal vanavond zonder Virtualisatie booten en alle configs laten zien.
De Kernel log van FreeBSD bevat 0,0 fouten, en daardoor verdenk ik niet dat ZFS niet bij de disks heeft gekund... Anders had ik daar wel melding van gehad.
Er zit GEEN virtualisatie tussen de disks en de VM (alles word via VT-d doorgegeven, zelfs de root waar de VM van boot...)
[ Voor 10% gewijzigd door FireDrunk op 04-03-2013 13:34 ]
Even niets...
Hoe weet je dat ECC het niet doet?FireDrunk schreef op maandag 04 maart 2013 @ 13:33:
Ik heb vrijdag nieuw ram geinstalleerd, ik ben van 4*4GB ECC 1333Mhz geheugen naar 2*8GB Non-ECC 1600Mhz geheugen gegaan. ECC werkte toch niet, dus dat is geen voor of achteruitgang eigenlijk...
[ Voor 28% gewijzigd door FireDrunk op 04-03-2013 14:44 ]
Even niets...
Ah, ja dat klopt, voor ECC heb je i3 of bepaalde Pentiums nodig voor zover ik weet.FireDrunk schreef op maandag 04 maart 2013 @ 14:44:
Een i5 doet geen ECC. En Q77 ook niet.
Sandy Bridge en Ivy Bridge doen alleen ECC met Xeon's en C2xx series chipsets voor zover ik weet.
Even niets...
Maar zal het wel eerst willen proberen op me laptop met workstation, alleen zal ik dan wel verschil merken tussen zfs aan en uit? aangezien ik maar 1 hdd heb en verschillende vmdk files maak op die ene hdd.
Ik zie ook geen checksum errors meer, maar mijn SMART waardes zijn nu wel nog steeds bagger (veel multi zone errors en een hoop program count errors)
Nog maar een scrubje.
@CiPHER, je moet even in de nieuwe versie ZFSguru het Lighttpd renicen met:
renice -n 5 [pid]
Dan is de webserver tenminste nog snel als er een scrub runt
[ Voor 28% gewijzigd door FireDrunk op 04-03-2013 18:12 ]
Even niets...
En bedankt voor de renice tip. Ik heb er zelf nooit last van gehad overigens. Maar ik draai dan ook zonder virtualisatie op quadcore (oke ook Brazos).
Als je 10 schijven in RAIDZ2 hebt is een scrub ook wel erg zwaar...Verwijderd schreef op maandag 04 maart 2013 @ 18:22:
Is je file-corruptie nu ook weg FireDrunk? Dat was denk ik het meest kritische.
En bedankt voor de renice tip. Ik heb er zelf nooit last van gehad overigens. Maar ik draai dan ook zonder virtualisatie op quadcore (oke ook Brazos).
De file corruptie is niet weg...
Even niets...
Ik heb Final Cut Pro X op mijn MacBook Pro staan, en mijn videobestanden op een disk image (sparsebundle) die ik over het netwerk mount. Deze image staat op mijn ZFS RAID-Z2 set van 6 schijven. Ik merk dat Final Cut niet altijd even snel is, en dat zonder dat de CPU of het netwerk van mijn MBP dichtgetrokken word. Zou een ZIL op een leuke SSD hierbij kunnen helpen?
Of, iets meer gerelateerd aan het topic, hoe kan ik zien (op ZFS on Linux danwel Solaris) of een ZIL in mijn workload een verschil oplevert?
Om het leuk te houden, bij mijn weten werken de arcstat e.d. scriptjes helaas niet (out of the box) op ZFS on Linux
Als dat je workload sneller maakt, heb je baat bij een SSD als SLOG (dedicated ZIL).
Maar ik denk eerder aan random reads, dus L2ARC zou nut kunnen hebben. Hoeveel RAM draai je? Jammer dat 32GiB momenteel de praktische limiet is.
Anders word het een server platform.
* FireDrunk heeft hier al een 1U Opteron doosje met 2*16GB DDR3 ECC REG DIMM's (+2*8) draaien.
CiPHER, hoe kan jij verklaren dat oude files corrupt raken op ZFS door een fout in KVM?
De data is er ooit native op gezet, en zou dus gewoon heel moeten blijven. Al gooi ik er de meest smerige errors tegenaan (qua CPU en/of netwerk). Hoe kan het dat ZFS met terugwerkende kracht corrupt raakt als het gaat om oude files...??
Dat is voor mij echt een raadsel...
[ Voor 44% gewijzigd door FireDrunk op 04-03-2013 18:39 ]
Even niets...
Verdere specs (voor zover nuttig):
Moederbord: Intel DH77DF
CPU: Intel Xeon E3-1265LV2 (overkill voor enkel ZFS, maar ding is ook bedoeld als virtualisatie server... ooit
RAM: 2x 8GB DDR3 (Kingston 1333MHz)
HBA: IBM M1015
HDD: 1x Crucial m4 64GB + 6x Hitachi 5K1000
Ik ga eens even spelen met sync=disabled, ik laat nog even weten wat dit oplevert
[ Voor 10% gewijzigd door Xudonax op 04-03-2013 18:42 ]
Wat ik namelijk dacht is dat doordat ZFS allemaal timeouts kreeg, om die reden corrupte files aangaf. Hetzelfde effect als al je schijven bad sectors of kabelfouten hebben als ZFS een file probeert te lezen. Die file komt dan als corrupte file te boek te staan.
Echter, bij het opnieuw aanspreken van die file of het uitvoeren van een scrub, zou ZFS opeens wel weer normaal toegang tot die file moeten krijgen. De corrupted file zou dan moeten verdwijnen uit de zpool status -v output, dus niet de file zelf maar de corruptie.
Als dat niet zo is, en je hebt na een volledige scrub nog steeds corruptie, dan zou ik dat extreem vreemd vinden. Zie je checksum correcties op de pool disk members? En nog belangrijker: zie je checksum correcties op de pool laag zelf (de pool zelf heeft ook read/write/cksum error counters).
Zelf zou ik aanraden alsnog memtest86+ te draaien, uit zekerheid. Je RAM kan opzich wel goed zijn maar je hebt toch iets verandert en dat risico moet je willen uitsluiten. Zeker nu er 'onverklaarbare' problemen opduiken. Want wat jij zegt is natuurlijk wel heel vreemd. Dat zou niet zomaar moeten kunnen. Of dat aan KVM ligt is in elk geval een mogelijkheid.
@Xudonax: en je ZFS metadata limiet even wat hoger instellen:
vfs.zfs.arc_meta_limit: 3781741568
vfs.zfs.arc_meta_used: 3781717920
In dit geval duidelijk dat de 3,7GB te weinig is voor alle metadata. Metadata cachen in RAM (of L2ARC) is heel nuttig. Dat scheelt al een boel random seeks en zorgt voor snelle zoekopdrachten.
Ik heb de arc_meta_limit ingesteld, en ga zo de machine herstarten om dit toe te passen (kan ook ZFS uit de kernel gooien (rmmod) en weer inladen, maar ik heb wat meer onderhoud te doen). De opties die ik heb die gerelateerd lijken aan de ARC zijn:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| parm: zfs_arc_min:Min arc size (ulong) parm: zfs_arc_max:Max arc size (ulong) parm: zfs_arc_meta_limit:Meta limit for arc size (ulong) parm: zfs_arc_meta_prune:Bytes of meta data to prune (int) parm: zfs_arc_grow_retry:Seconds before growing arc size (int) parm: zfs_arc_shrink_shift:log2(fraction of arc to reclaim) (int) parm: zfs_arc_p_min_shift:arc_c shift to calc min/max arc_p (int) parm: l2arc_write_max:Max write bytes per interval (ulong) parm: l2arc_write_boost:Extra write bytes during device warmup (ulong) parm: l2arc_headroom:Number of max device writes to precache (ulong) parm: l2arc_feed_secs:Seconds between L2ARC writing (ulong) parm: l2arc_feed_min_ms:Min feed interval in milliseconds (ulong) parm: l2arc_noprefetch:Skip caching prefetched buffers (int) parm: l2arc_feed_again:Turbo L2ARC warmup (int) parm: l2arc_norw:No reads during writes (int) |
Zitten er nog meer dingen in die het tweaken waard zijn?
Owja, en wat ik ben vergeten te zeggen is dat ik nog twee niet al te snelle USB sticks als L2ARC heb, meer voor de grap dan dat het nuttig is. De moeite waard om die eruit te gooien?
zpool status -v tank voor de volledigheid:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
| pool: tank state: ONLINE status: One or more devices has experienced an unrecoverable error. An attempt was made to correct the error. Applications are unaffected. action: Determine if the device needs to be replaced, and clear the errors using 'zpool clear' or replace the device with 'zpool replace'. see: http://zfsonlinux.org/msg/ZFS-8000-9P scan: scrub canceled on Mon Mar 4 18:43:07 2013 config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J4J15B ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J4HGNB ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J2RP1A ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J3TXGB ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J3ST5B ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J422JB ONLINE 5 0 0 cache usb-SanDisk_Cruzer_Fit_4C532000041129106180-0:0 ONLINE 0 0 0 usb-SanDisk_Cruzer_Fit_4C532000050913100011-0:0 ONLINE 0 0 0 errors: No known data errors |
Kun je met ZFS-on-Linux nergens zien hoeveel metadata gecached is? Geen ARC stats?
De inhoud daarvan is op een schone boot:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
| $ cat /proc/spl/kstat/zfs/arcstats 4 1 0x01 77 3696 12687278980 115101194991 name type data hits 4 94640 misses 4 11158 demand_data_hits 4 9816 demand_data_misses 4 175 demand_metadata_hits 4 76322 demand_metadata_misses 4 6791 prefetch_data_hits 4 64 prefetch_data_misses 4 2020 prefetch_metadata_hits 4 8438 prefetch_metadata_misses 4 2172 mru_hits 4 59680 mru_ghost_hits 4 55 mfu_hits 4 26557 mfu_ghost_hits 4 32 deleted 4 8 recycle_miss 4 0 mutex_miss 4 0 evict_skip 4 0 evict_l2_cached 4 0 evict_l2_eligible 4 0 evict_l2_ineligible 4 2048 hash_elements 4 11045 hash_elements_max 4 11045 hash_collisions 4 142 hash_chains 4 140 hash_chain_max 4 2 p 4 4425886208 c 4 8853127168 c_min 4 1890870784 c_max 4 8853127168 size 4 371179744 hdr_size 4 4264416 data_size 4 309645312 other_size 4 57270016 anon_size 4 16384 anon_evict_data 4 0 anon_evict_metadata 4 0 mru_size 4 281745408 mru_evict_data 4 220317184 mru_evict_metadata 4 18842112 mru_ghost_size 4 311296 mru_ghost_evict_data 4 122880 mru_ghost_evict_metadata 4 188416 mfu_size 4 27883520 mfu_evict_data 4 25174528 mfu_evict_metadata 4 656896 mfu_ghost_size 4 94208 mfu_ghost_evict_data 4 8192 mfu_ghost_evict_metadata 4 86016 l2_hits 4 0 l2_misses 4 11141 l2_feeds 4 101 l2_rw_clash 4 0 l2_read_bytes 4 0 l2_write_bytes 4 59421184 l2_writes_sent 4 69 l2_writes_done 4 69 l2_writes_error 4 0 l2_writes_hdr_miss 4 0 l2_evict_lock_retry 4 0 l2_evict_reading 4 0 l2_free_on_write 4 0 l2_abort_lowmem 4 0 l2_cksum_bad 4 0 l2_io_error 4 0 l2_size 4 59357696 l2_hdr_size 4 0 memory_throttle_count 4 0 memory_direct_count 4 0 memory_indirect_count 4 0 arc_no_grow 4 0 arc_tempreserve 4 0 arc_loaned_bytes 4 0 arc_prune 4 0 arc_meta_used 4 125688032 arc_meta_limit 4 3781741568 arc_meta_max 4 124095400 |
Ik ga even twee schijven als mirror toevoegen (aan een nieuwe ZFS pool) en dan zal ik Final Cut Pro nog eens een slinger geven
[root@NAS /home/ssh]# zpool status pool: bigpool state: ONLINE status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://illumos.org/msg/ZFS-8000-8A scan: scrub in progress since Mon Mar 4 17:00:43 2013 3.01T scanned out of 10.1T at 454M/s, 4h32m to go 0 repaired, 29.79% done config: NAME STATE READ WRITE CKSUM bigpool ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 gpt/WD2 ONLINE 0 0 0 gpt/WD3 ONLINE 0 0 0 gpt/WD4 ONLINE 0 0 0 gpt/SM1 ONLINE 0 0 0 gpt/SM2 ONLINE 0 0 0 gpt/SM3 ONLINE 0 0 0 gpt/SM4 ONLINE 0 0 0 gpt/WD1 ONLINE 0 0 0 gpt/SM5 ONLINE 0 0 0 gpt/SM6 ONLINE 0 0 0 logs gpt/ZIL ONLINE 0 0 0 cache gpt/L2ARC ONLINE 0 0 0 errors: 987 data errors, use '-v' for a list pool: rootpool state: ONLINE status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://illumos.org/msg/ZFS-8000-8A scan: none requested config: NAME STATE READ WRITE CKSUM rootpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 gpt/rootpool-A ONLINE 0 0 0 gpt/rootpool-B ONLINE 0 0 0
Even niets...
@Xudonax: doordat je vers hebt geboot zijn veel van die variabelen nog niet 'warm' om het maar zo te noemen. Het valt me wel op dat je beperkt wordt in je metadata:
arc_meta_used 4 125688032
arc_meta_limit 4 3781741568
arc_meta_max 4 124095400
Dus maximaal 128MiB aan metadata. Maak daar maar eens 2 gigabyte van minimaal en liever nog meer.
[ Voor 46% gewijzigd door Verwijderd op 04-03-2013 20:01 ]
Als wat jij zegt waar is, heb ik voor jan-met-de-korte-achternaam op ZFSguru vertrouwt omdat de webinterface zei, deleten die hap...
Enige 2 dingen die in KVM niet vlekkeloos gingen waren tijd en netwerk. De rest was 100% in orde...
Als ZFS/FreeBSD daar gevoelig voor is, is dat wel het noteren waard. En bovendien vind ik dat nogal slecht... (maar dat is mijn mening...)
EDIT:
nieuws: Linux-kernel 3.9 biedt raid-modi voor btrfs en ssd-cachingmodus
oh boy, concurrentie voor ZFS
EDIT2:
WEL GODVER******
op mijn rootpool doe ik een scrub, et voila... alle corruptie weg....
CiPHER, je wordt bedankt
[ Voor 55% gewijzigd door FireDrunk op 04-03-2013 20:17 ]
Even niets...
Innovatie. Mooi toch?FireDrunk schreef op maandag 04 maart 2013 @ 20:02:
Dat vond ik dus ook... En als jij zegt dat een scrub de files fixt, waarom bied ZFSguru dan aan om eerst de files te deleten, en dan pas een scrub te starten?
nieuws: Linux-kernel 3.9 biedt raid-modi voor btrfs en ssd-cachingmodus
oh boy, concurrentie voor ZFS
Gewoon een heel grote verzameling snoertjes
Ik heb een coraid array met een aantal schijven die gebruikt zijn voor ZFS (OpenIndiana). Iemand ervaring met het overzetten van dit soort schijven naar een ander systeem, niet een coraid zijnde?
Heb al een image kopie gemaakt van 1 schijf om te zien of een server met ZFSGuru de pool eventueel ziet, degraded maar toch zichtbaar maar helaas niks.
Joop
In jouw geval is iets heel anders aan de hand. Geen disk corruptie en waarschijnlijk ook geen RAM-corruptie, maar alle disks blokkeerden gewoon vanuit het perspectief van ZFS dus allemaal een bad sector op die plek, door een situatie die zich voordoet omdat je KVM virtualisatie gebruikt. Ook de meldingen dat de tijd terug in het verleden is gegaan (calcru: runtime went backwards) lijkt mij niet erg fris voor je guest VM - al weet ik niet hoe erg zoiets is.
Doordat alle data sources vanuit het perspectief van ZFS niet beschikbaar waren, zou ZFS die file als corrupt aanmerken. Dat lijkt mij het meest aannemelijke scenario. Merk hierbij op dat de disks niet detachen en onzichtbaar worden. Wat je zegt over dat FreeBSD slecht tegen timeouts kan verbaast mij dan ook. Juist FreeBSD heeft met progressive soft-timeouts (ada driver) een streepje voor op andere operating systems die een statische timeout gebruiken met retry. Dat is wat FreeBSD gebruikte in de 4.x series.
Maar in elk geval, ik dacht dat je net als ik dacht dat jouw corruptie simpelweg is op te lossen met een scrub. Dan verbaast mij jouw reactie:
Ik heb je juist aangeraden om niet vanuit te gaan dat die corruptie permanent is, maar dat het simpelweg op te lossen is als ZFS opnieuw die bestanden aanraakt. Dus of één voor één die corrupted files lezen met cat of dd of wat dan ook, ofwel een scrub starten.CiPHER, je wordt bedanktdoor jouw advies ben ik >100 files kwijt
Wat jij hebt gedaan (althans dat impliceert je bericht?!) is via ZFSguru de bestanden permanent verwijderen door die grote rode knop te gebruiken - al kan ik me alleen vaag herinneren hoe het eruit zag. Maar in elk geval, dat is niet wat ik je heb aangeraden, toch?
In je zpool status output zie ik 987 data errors. Dus dat suggereert dat je destijds nog niet de bestanden had verwijderd. Ik ging er dus ook gewoon vanuit dat jij ook bezig was met het recoveren van die corrupted files, en het niet als een verloren zaak zag.
Het spijt me heel erg als ik voor dataverlies heb gezorgd, maar tot dusver begrijp ik niet hoe het mis heeft kunnen gaan.

Ik heb op jou aanraden ZFSguru gebruikt, daarom impliceerde ik dat het door jou kwam. Het blijft inderdaad mijn eigen keuze om op die knop te drukken.
Wat ik dus ABSOLUUT NIET BEGRIJP is dat ZFS kan beweren dat files ECHT HELEMAAL STOEK ZIJN als een simpele scrub alles weer oplost... Dat is mij een raadsel...
Jouw post over het doen van een scrub, kwam NA mijn eerste delete actie
Wat ZFSguru dus met die knop doet is dus absoluut *verkeerd*, het doet EERST een rm, dan een scrub starten.
Terwijl het eigenlijk zou moeten controleren of er recentelijk al een scrub gedaan is, en als die echt helemaal klaar is, DAN pas als last resort (of eigenlijk een clean up) de files verwijderen.
De volgorde is dus fout, met (lichtelijk extreme) gevolgen.
[ Voor 28% gewijzigd door FireDrunk op 04-03-2013 21:51 ]
Even niets...
- raid does not fix stupid -
Normaal wordt disk corruptie natuurlijk direct gefixed door van een redundante bron de data te lezen. In jouw geval waren alle disks echter onbeschikbaar door een virtualisatie-issue. Niet echt de schuld van ZFS of FreeBSD denk ik dan als leek op dit gebied. Dat is goed nieuws voor de kans op recovery: want de files waren helemaal niet corrupt. Simpelweg opnieuw ZFS kennis laten maken met de fysieke data op een moment dat KVM zich wel netjes gedraagt zou dan de oplossing bieden.
Dan komen we op ZFSguru. Ik vraag me dan wel af hoe je die melding die je krijgt bij filecorruptie hebt geïnterpreteerd. Want ZFSguru biedt geen kans op recovery. Het is eigenlijk een 'forfeit my data; just clean all the errors'. Ik weet ook niet of die actie een scrub start. Het enige wat ik weet is dat het een combinatie is van rm <corrupte bestanden> en zpool clear. Misschien nog een scrub erachteraan automatisch wat handig kan zijn.
In jouw geval waar er dus kans op recovery was, wil je helemaal niet verwijderen. Ik weet niet hoe je dan op die knop kunt drukken; oen!
Maar eigenlijk zouden er twee knoppen moeten komen:
1. Try to recover the corrupted files (doe een dd op de corrupte bestanden in background)
2. Forfeit my data and remove all corruption (wat jij hebt gedaan dus)
Dit is in ieder geval een minder hacky oplossing (IMO) dan een gedeelde disk image, en het is hopelijk ook nog iets sneller aangezien ik geen 2-3 lagen op elkaar stapel (AFP voor toegang tot disk image, disk image mounten en daar vervolgens HFS+ overheen doen). Nu nog kijken of dit ook daadwerkelijk een snelheidswinst oplevert
Gewoon een heel grote verzameling snoertjes
sync=disabled, sparseimage: ~90MByte/s schrijven, ~85MByte/s lezen
sync=standard, sparseimage: ~80MByte/s schrijven, ~90MByte/s lezen
sync=disabled, iSCSI: ~110MByte/s schrijven, ~110MByte/s lezen
sync=enabled, iSCSI: ~110MByte/s schrijven, ~110MByte/s lezen
iSCSI is dus in sequentiele access een behoorlijk stuk sneller, hoewel de andere me niet heel erg tegenvallen om eerlijk te zijn
Mijn arcstats na dit geintje:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
| 4 1 0x01 77 3696 12687278980 10333668308680 name type data hits 4 27821744 misses 4 872100 demand_data_hits 4 26115007 demand_data_misses 4 33184 demand_metadata_hits 4 1420288 demand_metadata_misses 4 16796 prefetch_data_hits 4 101838 prefetch_data_misses 4 728634 prefetch_metadata_hits 4 184611 prefetch_metadata_misses 4 93486 mru_hits 4 4416769 mru_ghost_hits 4 46099 mfu_hits 4 23202670 mfu_ghost_hits 4 2665 deleted 4 10595029 recycle_miss 4 324072 mutex_miss 4 790727 evict_skip 4 124039844 evict_l2_cached 4 16493201920 evict_l2_eligible 4 172866161664 evict_l2_ineligible 4 16271844864 hash_elements 4 587811 hash_elements_max 4 937833 hash_collisions 4 9492065 hash_chains 4 162375 hash_chain_max 4 11 p 4 5664799 c 4 8102109184 c_min 4 1890870784 c_max 4 8853127168 size 4 8042711392 hdr_size 4 210911792 data_size 4 7693982720 other_size 4 115281952 anon_size 4 120238080 anon_evict_data 4 0 anon_evict_metadata 4 0 mru_size 4 1757336576 mru_evict_data 4 1666678272 mru_evict_metadata 4 59819520 mru_ghost_size 4 6372912640 mru_ghost_evict_data 4 4844281856 mru_ghost_evict_metadata 4 1528630784 mfu_size 4 5816408064 mfu_evict_data 4 4985358848 mfu_evict_metadata 4 793456128 mfu_ghost_size 4 15680512 mfu_ghost_evict_data 4 3673088 mfu_ghost_evict_metadata 4 12007424 l2_hits 4 4042 l2_misses 4 868041 l2_feeds 4 10465 l2_rw_clash 4 3 l2_read_bytes 4 371309568 l2_write_bytes 4 12510755840 l2_writes_sent 4 6147 l2_writes_done 4 6147 l2_writes_error 4 0 l2_writes_hdr_miss 4 4 l2_evict_lock_retry 4 0 l2_evict_reading 4 0 l2_free_on_write 4 37371 l2_abort_lowmem 4 71 l2_cksum_bad 4 0 l2_io_error 4 0 l2_size 4 11887421440 l2_hdr_size 4 23860512 memory_throttle_count 4 0 memory_direct_count 4 321 memory_indirect_count 4 348448 arc_no_grow 4 0 arc_tempreserve 4 0 arc_loaned_bytes 4 0 arc_prune 4 0 arc_meta_used 4 1271882080 arc_meta_limit 4 3781741568 arc_meta_max 4 1417657624 |
Daarnaast heb ik ook nog wat ZIL statistieken gevonden, maar ook hiervan heb ik niet echt een idee hoe ik dit moet interpreteren...
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| 5 1 0x01 13 624 12687445867 10382778847991 name type data zil_commit_count 4 7096 zil_commit_writer_count 4 7096 zil_itx_count 4 562283 zil_itx_indirect_count 4 902 zil_itx_indirect_bytes 4 117320256 zil_itx_copied_count 4 0 zil_itx_copied_bytes 4 0 zil_itx_needcopy_count 4 554890 zil_itx_needcopy_bytes 4 21398069383 zil_itx_metaslab_normal_count 4 0 zil_itx_metaslab_normal_bytes 4 0 zil_itx_metaslab_slog_count 4 203643 zil_itx_metaslab_slog_bytes 4 21543191032 |
@CiPHER: arc_meta_max heb ik in de module opties gelijkgesteld aan de arc_meta_limit, maar ik moet de module nog even herladen. Is dit een slecht idee of moet dat gewoon kunnen?
Toch duidelijke taal... en incorrect dus...You have corrupted files on this pool. These will not go away until you remove the files in question, and clear all errors on the pool. If you like to perform this action and permanently remove the files in question, click this button:
Zfsguru doet:
Rm files
Zpool clear
Zpool scrub
[ Voor 13% gewijzigd door FireDrunk op 04-03-2013 22:59 ]
Even niets...
En die eerste test is met Samba? Zijn heel redelijke snelheden hoor, ik ben bang dat je het niet veel sneller gaat krijgen.Xudonax schreef op maandag 04 maart 2013 @ 22:45:
Ik "test" het niet op een meetbare wijze, helaas. Ik merk het aan de reactiesnelheid in Final Cut als ik door de video heen blader (ProRes 4:2:2 Full HD). Ik heb wel even wat testjes gedaan (achteraf) met Blackmagic Disk Speed Test, de resultaten:
sync=disabled, sparseimage: ~90MByte/s schrijven, ~85MByte/s lezen
sync=standard, sparseimage: ~80MByte/s schrijven, ~90MByte/s lezen
sync=disabled, iSCSI: ~110MByte/s schrijven, ~110MByte/s lezen
sync=enabled, iSCSI: ~110MByte/s schrijven, ~110MByte/s lezen
iSCSI is dus in sequentiele access een behoorlijk stuk sneller, hoewel de andere me niet heel erg tegenvallen om eerlijk te zijnIk heb helaas niet zo 1-2-3 een tooltje dat de random access kan testen. Of in ieder geval, niet iets dat gratis is en op OS X draait
* Compizfox hoopt eigenlijk op een nieuw, snel open-source file protocol wat zowel onder FreeBSD, Linux als Windows goed wordt ondersteund...
Je hebt natuurlijk SMB (CIFS heet het eigenlijk nu), maar Samba is niet zo'n hele goede implementatie daarvan voor FreeBSD/Linux (reverse-engineered, tja)
Je hebt ook NFS, wat open-source is, maar waar er voor Windows geen snelle implementatie is. (Er is wel een NFS client voor Windows, maar dat is langzamer dan CIFS, helaas)
Gewoon een heel grote verzameling snoertjes
EDIT: Also, als je echt een snel protocol wilt, al eens naar FTP gekeken? Veel sneller dan dat ga je het niet krijgen. Maar ja, het is wél vrij oud...
En, het valt me op dat een scrub op een niet in gebruik zijnde mirror echt ontzettend traag is... Ik doe hier nu nog geen 30MByte/s op mijn 1TB mirror. Mijn stapel laptop schijfjes vinden een scrub wel aardig en doen dan ook vrolijk 215+MByte/s. Of zou iSCSI de mirror héél stiekem toch bezig houden?
[ Voor 35% gewijzigd door Xudonax op 04-03-2013 23:06 ]
Even niets...
Maargoed, zolang de scrub maar succesvol afgerond word
Het jammere is dat ik geen foutmeldingen kan vinden; het lijkt erop dat er helemaal geen scrub plaatsvind en dus dat de foutmelding een andere oorzaak heeft. Ik heb inmiddels geprobeerd om de ingeplande scrub weg te gooien, de NAS te rebooten en een nieuwe scrub aan te maken maar ook daarna kreeg ik afgelopen zondagnacht weer 50+ mailtjes met dezelfde melding. Is dit een bekend probleem (google zegt hier niet veel over?) en weet iemand waar ik het moet zoeken?
De geplande scrub is de enige die voor het volume gepland staat, eventuele andere scrubs worden niet ingepland of door mij geinitieerd.
De exacte melding in de mail:
Mail heeft het volgende onderwerp:cannot scrub tank: currently scrubbing; use 'zpool scrub -s' to cancel current scrub
Vooral de /dev/null lijkt me out-of-place daar?Cron <root@freenas> PATH="/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/bin:/usr/local/sbin:/root/bin" zpool scrub tank > /dev/null
alvast bedankt!
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Even niets...
Dat is al iets in ieder gevalFireDrunk schreef op dinsdag 05 maart 2013 @ 08:16:
> /dev/null betekend alleen maar dat de output van het programma weggegooid word. Het commando wordt nog steeds uitgevoerd.
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Nogmaals @ CiPHER, FreeBSD is de verbinding met de disks NIET kwijt geweest en KVM heeft FreeBSD ook NOOIT die toegang ontzegd. Er zijn 0,0 kernel meldingen over verdwenen device, device timeouts, of enige ander soort problemen omtrent IO in zowel host als guest logs.
De enige meldingen die ik kan vinden, is 1 met een vage CPU instructie foutmelding (bekende KVM bug) en de meldingen gerelateerd aan VirtIO en de tijd.
Het enige wat ik me nu dus voor kan stellen als rootcause, is dat als de tijd moeilijk doet in FreeBSD de checksums niet goed gaan, en dat ZFS' Self Healing aan de slag gaat en het juist kapot repareert.
Maar dat is pretty-far-fetched...
[ Voor 80% gewijzigd door FireDrunk op 05-03-2013 08:25 ]
Even niets...

Via SSH heb ik wel normale waardes:
Ik heb sowieso af en toe problemen met de huidige installatie, 9.1-003 op een Dell PE2950.Mem: 508K Active, 75M Inact, 7384M Wired, 36K Cache, 440M Free
Swap: 2048M Total, 2048M Free
Foutmeldingen wijzen op een volle / corrupte swap file. Ik kan dan niet meer via de console, ssh of webinterface inloggen. Shares via SMB / iSCSI zijn wel gewoon benaderbaar.
Als ik reboot is er ca. 1 maand geen probleem.
Hardwarematig is er geen probleem, geen SMART, geen geheugen problemen, etc.
Qua swap lees je op internet dat het wordt afgeraden om dat op een ZFS volume te zetten, maar met verder speuren ligt dat aan de implementatie. De implementatie zoals ZFSGuru dat doet, is goed. De ZFSGuru installatie staat op een SDD (swap dus ook). Deel van die SDD wordt ook als L2ARC gebruikt.
[ Voor 17% gewijzigd door wjn op 05-03-2013 09:53 ]
Je kan kiezen om de disk images op te slaan op zvol's maar ook voor een 'raw' image als file maar wat is beter/sneller/praktischer? Is het dan nog handig om bij lokaal hosten op de ZFS machine te kijken naar iSCSI of is dat alleen maar een extra laag?
Welke hypervisor? Heel veel mensen, waaronder ik, draaien ESXi met NFS... Gaat prima, je moet natuurlijk wel wat meeschalen met disks vs VM's en IOPS.Contagion schreef op dinsdag 05 maart 2013 @ 10:29:
Heeft iemand ervaring met het draaien van of hosten van Virtual Machines op ZFS? Ik ben vooral benieuwd naar praktische ervaringen wat betreft opslaan van de disk images.
Je kan kiezen om de disk images op te slaan op zvol's maar ook voor een 'raw' image als file maar wat is beter/sneller/praktischer? Is het dan nog handig om bij lokaal hosten op de ZFS machine te kijken naar iSCSI of is dat alleen maar een extra laag?
NFS is kernel implemented dus heel performant.
Zit je log filesystem niet toevalig aan z'n quota? Dat heb ik al vaker gezien (zelf meegemaakt, en HyperBart had er ook last van... Dat vinden een hoop applicaties niet leuk).wjn schreef op dinsdag 05 maart 2013 @ 09:50:
Heeft iemand dit wel eens gehad in ZFSGuru, voor mij de eerste keer:
[afbeelding]
Via SSH heb ik wel normale waardes:
[...]
Ik heb sowieso af en toe problemen met de huidige installatie, 9.1-003 op een Dell PE2950.
Foutmeldingen wijzen op een volle / corrupte swap file. Ik kan dan niet meer via de console, ssh of webinterface inloggen. Shares via SMB / iSCSI zijn wel gewoon benaderbaar.
Als ik reboot is er ca. 1 maand geen probleem.
Hardwarematig is er geen probleem, geen SMART, geen geheugen problemen, etc.
Qua swap lees je op internet dat het wordt afgeraden om dat op een ZFS volume te zetten, maar met verder speuren ligt dat aan de implementatie. De implementatie zoals ZFSGuru dat doet, is goed. De ZFSGuru installatie staat op een SDD (swap dus ook). Deel van die SDD wordt ook als L2ARC gebruikt.
Wil je de VM's echt onder FreeBSD hosten? Of FreeBSD alleen als storage host gebruiken?Contagion schreef op dinsdag 05 maart 2013 @ 10:29:
Heeft iemand ervaring met het draaien van of hosten van Virtual Machines op ZFS? Ik ben vooral benieuwd naar praktische ervaringen wat betreft opslaan van de disk images.
Je kan kiezen om de disk images op te slaan op zvol's maar ook voor een 'raw' image als file maar wat is beter/sneller/praktischer? Is het dan nog handig om bij lokaal hosten op de ZFS machine te kijken naar iSCSI of is dat alleen maar een extra laag?
Want dan ligt het vooral aan je platform welke vorm je het beste kan gebruiken.
In het geval van ESXi en/of KVM, zou ik voor NFS gaan, in het geval van Hyper-V moet je voor iSCSI gaan.
NFS zou ik op een los filesystem doen, en iSCSI betekend sowieso ZVOL's
Even niets...
Volgens dmesg:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| ahcich5: is 00000000 cs 000003fe ss 000003ff rs 000003ff tfd 40 serr 00000000 cmd 0004c017 ahcich5: Timeout on slot 18 port 0 ahcich5: is 00000000 cs 0ff80000 ss 0ffc0000 rs 0ffc0000 tfd 40 serr 00000000 cmd 0004d217 ahcich5: Timeout on slot 4 port 0 ahcich5: is 00000000 cs 00003fc0 ss 00003ff0 rs 00003ff0 tfd 40 serr 00000000 cmd 0004c517 ahcich5: Timeout on slot 22 port 0 ahcich5: is 00000000 cs fe000000 ss ffc00000 rs ffc00000 tfd 40 serr 00000000 cmd 0004d817 ahcich5: Timeout on slot 8 port 0 ahcich5: is 00000000 cs 0003fe00 ss 0003ff00 rs 0003ff00 tfd 40 serr 00000000 cmd 0004c817 ahcich5: Timeout on slot 26 port 0 ahcich5: is 00000000 cs f800000f ss fc00000f rs fc00000f tfd 40 serr 00000000 cmd 0004da17 ahcich5: Timeout on slot 12 port 0 ahcich5: is 00000000 cs 003fe000 ss 003ff000 rs 003ff000 tfd 40 serr 00000000 cmd 0004cc17 ahcich5: Timeout on slot 30 port 0 ahcich5: is 00000000 cs 800000ff ss c00000ff rs c00000ff tfd 40 serr 00000000 cmd 0004de17 |
Het betreft overigens beide keren dezelfde disk (waarvan het lampje op de HDD-tray blijft branden alsof hij 'in-use' is).
Iemand enig idee wat hier aan de hand kan zijn en of ik me zorgen moet maken?
Hmm, terwijl ik dit zit te typen is het probleem spontaan opgelost en loopt mijn kopieer-actie weer verder zie ik. Misschien een disk die een bad-sector is tegengekomen, of praat ik nu onzin?
Even niets...
Ik vraag me vooral af of er voordelen of nadelen zijn van een zvol vs een raw image file. Dat iSCSI noodzakelijkerwijs zvol betekent is duidelijk nu maar dat gaat dan waarschijnlijk vooral op als je de virtual machines op een andere computer host. Zijn er bijvoorbeeld ook Hypervisors die zo met ZFS kan omgaan dat een snapshot van een machine ook netjes integreert met een snapshot van ZFS of zou je dat handig kunnen combineren?
Je kan de snapshots dan ook gebruiken als een soort backup...
Even niets...
Mocht je de VM willen restoren, restore je het filesystem naar de vorige versie, en zet je daarna het snapshot terug.
Even niets...
Kun je SMART data ook resetten?FireDrunk schreef op dinsdag 05 maart 2013 @ 11:06:
Bekijk SMART? dan weet je het...
Ik heb in het verleden wat kabel errors gehad en die waardes blijven nu in m'n smart data staan, maar ik weet echt niet precies hoeveel het er waren en of er dus wel of niet een paar bij gekomen zijn nu.....
Mijn disks zijn nu zo goed als onverkoopbaar geworden...
Even niets...
Daar kan ik wel induiken, goede tip.FireDrunk schreef op dinsdag 05 maart 2013 @ 10:34:
[...]
Zit je log filesystem niet toevalig aan z'n quota? Dat heb ik al vaker gezien (zelf meegemaakt, en HyperBart had er ook last van... Dat vinden een hoop applicaties niet leuk).
(Eerst maar uitzoeken hoe dat moet in FreeBSD.)
df -h rootpool/zfsguru/9.1-005/var/log 128M 282k 127M
Size / used / avail
Even niets...
Rest komt ook niet boven de 50% uit, alleen devfs is 100%, maar dat schijnt normaal te zijn.Filesystem Size Used Avail Capacity Mounted on
zfsssdboot/zfsguru/9.1-003/var/log 1.0G 1.6M 1G 0% /var/log
Ik denk dat ik toch maar upgrade naar 9.1-005, kijken hoe de shares / iscsi meekomen.
Even niets...
Hoe kan ik dit nu het beste aanpakken, 1 voor 1 vervangen? Eventueel is het ook nog mogelijk om de pool weg te gooien en een nieuwe met nieuwe disks op te bouwen, de data is nog wel gebackupped...
Even niets...
Raid-z2, maar de pool is al degraded. Ik denk dat ik maar voor opnieuw aanmaken ga...ben ik maar een paar dagen downloads data kwijtFireDrunk schreef op woensdag 06 maart 2013 @ 14:45:
Welk raid level?
Even niets...
Dus het maakt niet uit dat er dan eigenlijk 4 schijven tegelijk vervangen worden? Je gooit dan toch eigenlijk ook 4 schijven uit de pool? En dat zouden er bij raidz2 toch maar max 2 mogen zijn?FireDrunk schreef op woensdag 06 maart 2013 @ 15:01:
Als je toch backups hebt, kan je gewoon alle schijven in 1 keer vervangen. RAIDZ2 rebuild 2 schijven tegelijkertijd, en mocht er iets fout gaan, zet je je backup terug..
Dat denk ik toch ook. Twee maal twee schijven vervangen dus, en niet vier schijven in één keer...B2 schreef op woensdag 06 maart 2013 @ 16:08:
[...]
Dus het maakt niet uit dat er dan eigenlijk 4 schijven tegelijk vervangen worden? Je gooit dan toch eigenlijk ook 4 schijven uit de pool? En dat zouden er bij raidz2 toch maar max 2 mogen zijn?
Ik bedoelde vooral dat 1 voor 1 niet perse nodig is bij ZFS, 2 tegelijk gaat prima bij RAIDZ2
Even niets...
Interessant.HyperBart schreef op dinsdag 05 maart 2013 @ 10:32:
[...]
Welke hypervisor? Heel veel mensen, waaronder ik, draaien ESXi met NFS... Gaat prima, je moet natuurlijk wel wat meeschalen met disks vs VM's en IOPS.
NFS is kernel implemented dus heel performant.
Heb je dan je storage fysiek? Dus los van je ESX Host?
Ik zit enorm te twijfelen of ik 2 losse machines ga bouwen, of 1 ESX Host, en daar FreeNAS in een VM draaien. Als het goed is, is de VMXNET3 NIC werkend te krijgen in FreeNAS, en dan heb je 10Gbit naar je vSwitch. Ik weet alleen niet of de host zelf ook een 'uplink naar de vswitch' kan krijgen van 10Gbit. Weten jullie dit?
Dit lijkt me stukken beter te performen dan een losse machine? Waar je toch wel gelimiteerd bent aan 1Gb, of een veelvoud hiervan dmv etherchannels (of, trunking, in geval van mijn HP switch
Is de limiteerde factor je netwerk, of eerder de IOPS? (met zeg, 5* 4TB disks).
Je haalt twee schijven uit je raid, je hebt daarna geen redundantie meer.
Je geeft aan dat het oude schijven betreft, en deze krijgen het tijdens een resilver redelijk voor hun kiezen.
Ik heb vaker gezien dat met resilveren de schijven die ook tegen uitvallen aanlopen hierdoor ook onderuit gaan.
De schijf die nu gemarkeerd is binnen de pool het eerst vervangen.
Daarna de andere, en dan heb je eventueel de keuze om de twee goede te vervangen aangezien de pool draait op twee nieuwe, maar ook dat is geen garantie.
gr
HyperBart heeft all-in-oneExtera schreef op donderdag 07 maart 2013 @ 09:32:
[...]
Interessant.
Heb je dan je storage fysiek? Dus los van je ESX Host?
Ik zit enorm te twijfelen of ik 2 losse machines ga bouwen, of 1 ESX Host, en daar FreeNAS in een VM draaien. Als het goed is, is de VMXNET3 NIC werkend te krijgen in FreeNAS, en dan heb je 10Gbit naar je vSwitch. Ik weet alleen niet of de host zelf ook een 'uplink naar de vswitch' kan krijgen van 10Gbit. Weten jullie dit?
Dit lijkt me stukken beter te performen dan een losse machine? Waar je toch wel gelimiteerd bent aan 1Gb, of een veelvoud hiervan dmv etherchannels (of, trunking, in geval van mijn HP switch).
Is de limiteerde factor je netwerk, of eerder de IOPS? (met zeg, 5* 4TB disks).
VMXNET3 werkend krijgen onder FreeBSD is vrij simpel. Hoe dit onder FreeNAS moet weet ik niet, maar de nieuwste versie van VMware tools werkt gewoon out-of-the-box op FreeBSD.
Je 'host' is niks onder ESXi? Waarom zou dat ding zelf 10Gb moeten hebben? Een vSwitch is niets meer dan en stukje software waarop hij VM's knoopt.
Als je bedoelt dat je > 1Gb wil halen naar buiten door middel van trunken van poorten dan kan dat inderdaad. MAAR niet met 1-op-1 verbindingen. ESXi ondersteund LACP, maar inherent aan die technologie kan je alleen 1Gb 1-op-1 verbindingen maken en nooit > 1Gb verstoken tussen 1 client en 1 VM.
Wel kan je dus door meerdere verbindingen op te zetten over meerdere IP adressen (zoals met iSCSI kan) een soort concurrency creeeren waardoor je wel over meerdere netwerkaarten gaat.
De iSCSI implementatie in Windows 8 ondersteund wel multipathing.
Even niets...
Ik snap dat je over een LACP trunk niet meer dan 1Gb per sessie kan halen zonder multipath ondersteuning. Ik vraag me af hoe ESX hier mee om gaat. Heeft iedere VM 1 sessie naar de via NFS gemounte share, of is dit 1 sessie van de ESX host.
Ik bedenk me echter net dat deze vragen beter thuishoren in [Discussie] Storage en virtualisatie
Even niets...
Daarna een scrub gestart op de rootpool, en ook dat ging allemaal vlekkeloos.
Ook even een 10GB file aangemaakt met DD en weer verwijderd.
Iemand nog meer tests die ik moet doen om zeker te weten dat de controller compatible is met ZFS?
Even niets...
Sowieso is het toch vrij ongunstig om ZVOL's te gebruiken voor je VM's aangezien je snapshots dan veel groter zijn/meer data gebruiken dan nodig?Contagion schreef op dinsdag 05 maart 2013 @ 11:08:
Ik vraag me vooral af of er voordelen of nadelen zijn van een zvol vs een raw image file. Dat iSCSI noodzakelijkerwijs zvol betekent is duidelijk nu maar dat gaat dan waarschijnlijk vooral op als je de virtual machines op een andere computer host. Zijn er bijvoorbeeld ook Hypervisors die zo met ZFS kan omgaan dat een snapshot van een machine ook netjes integreert met een snapshot van ZFS of zou je dat handig kunnen combineren?
Vroeg me daarom af of het mogelijk is Root-on-ZFS te doen met VM guests of dat dat een slecht idee is.
Root-on-NFS, zie hier http://maverick.homelinux.net/blog/?p=342, heb ik al werkend en lost eigenlijk ook het merendeel van deze problemen op.
Als je alle oude disks nog hebt en je kan fysiek 4 disks op een controller aansluiten dan zou ik ervoor kiezen om ze ALLEMAAL tegelijk te resilveren. Dat gaat en het snelst en is het meest redundant, immers; alle oude schijven (ok een aantal met bad sectors maar dat is waarschijnlijk nog geen 0.01% van alle data) doen ook mee en worden tegelijk gelezen en de CRCs gecheckt.
Als je 2 schijven weghaalt en je daar 2 anderen voor plaatst begin je al 'worst case' want er is op dat moment geen redundantie (aan de andere kant; ALS het mis gaat dan plaats je weer een van de originele schijven en begint opnieuw).
Een voor een kan natuurlijk ook dan heb je tijdens resilveren nog 'RaidZ1' dus als je geen mogelijkheid hebt om de nieuwe disks erbij te plaatsen (op andere controller, esata, USB) wellicht het meest veilig, maar duurt ook het langst.
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.