Acties:
  • 0 Henk 'm!
Waar boot je zfs vm zelf van?

Even niets...


Acties:
  • 0 Henk 'm!

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 20-10 17:58
Ik heb deze fout zelf gehad dit weekend met een Asmedia controller (en die is denk ik bricked bij mij). Ik heb zelf allerlei dingen zitten proberen maar WRITE_FPDMA_QUEUED wijst in elk geval op een NCQ write. Wordt het anders als je NCQ uit zet op je schijf (in Linux zou dat zijn hdparm -Q1 /dev/sd<x>)? Bij mij verslikt de controller / HDD combinatie zich in NCQ writes (niet in reads, dat is raar), met NCQ depth op 1 werd het beter (maar nogsteeds fouten en traag schrijven, op andere controllers geen probleem).

[ Voor 26% gewijzigd door Contagion op 03-03-2013 13:18 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:38

Compizfox

Bait for wenchmarks

Vanaf een virtual HD die op de datastore (zou ook niet anders kunnen, met ESXi)

Over NCQ had ik al wat gelezen idd. Het lijkt vaak voor te komen met SB700 controllers en Samsung schijven (die ik beide heb)

Interessant thread: http://forums.freenas.org...?1910-AHCI-timeouts/page8

Daarin kwam ik ook tegen dat iemand het had opgelost door in de BIOS "SATA IDE Combined Mode) uit te zetten (stond standaard bij hem aan). Maar bij mij staat dat al uit...

Ik ga dus even proberen NCQ uit te zetten.

EDIT: NCQ uitzetten lijkt te hebben geholpen. En met de performance ben ik ook nog best tevreden:

code:
1
2
3
4
5
6
7
8
9
10
ZFSguru 0.2.0-beta8 (9.1-005) pool benchmark
Pool            : Data (2.03T, 20% full)
Test size       : 32 GiB
normal read : 186 MB/s
normal write    : 144 MB/s
lzjb read   : 3 GB/s
lzjb write  : 1 GB/s
gzip read   : 3 GB/s
gzip write  : 1 GB/s
I/O bandwidth   : 14 GB/s


Is er ook een optie om dit standaard (bij het booten) niet te enablen? Want nu heb ik het tijdelijk uitgezet met
camcontrol tags ada0 -N 1

[ Voor 28% gewijzigd door Compizfox op 03-03-2013 17:26 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!
Godverdegodver:

Corrupted files on pool bigpool

Warning: some files on your pool are inaccessible due to unrecoverable corruption! The files affected, are:

*59 files knip*
Corrupted files on pool bigpool


Lang leve FreeBSD die niet tegen latency kan...

* FireDrunk gaat binnenkort maar over op ZFSonLinux...

[ Voor 10% gewijzigd door FireDrunk op 03-03-2013 17:43 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Als ZFS tijdelijk de data van één of meerdere disks niet kan lezen, zul je corrupted files zien inderdaad. Maar deze verdwijnen ook evengoed weer (alsin: de 'corrupte' bestanden zijn gewoon weer toegankelijk) als na een reboot of wat ZFS weer wel toegang krijgt.

Dit kan gebeuren bij kabeldefecten en andere timeouts. Aangezien jullie een virtualisatieschil gebruiken is het dan weer lastig om eerst uit te sluiten dat het daarmee te maken heeft.

Ik lees trouwens niets over SMART; hebben jullie dat gecontroleerd? Wat zou volgens jullie de oorzaak van de timeouts zijn?

[ Voor 12% gewijzigd door Verwijderd op 03-03-2013 17:57 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:38

Compizfox

Bait for wenchmarks

Je suggereert dat wij (Firedrunk en ik) hetzelfde probleem hebben. Volgens mij is dat niet het geval. :)

Ik had last van timeouts met NCQ enabled. Ik had echter geen corrupted bestanden (volgens ZFS dan).

Met de SMART-status van m'n disks is ook niets mis trouwens.

Het lijkt erop dat ik het probleem nu geëlimineerd heb door NCQ uit te schakelen.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Had je trouwens wel de firmware fix voor Samsung F4EG geflashed? Deze schijf is voor een bepaalde datum namelijk kwetsbaar voor NCQ + SMART + write-request bug.

Met de melding van FireDrunk kan ik niet zoveel. Dan zou ik veel meer willen weten over de pool configuratie, logs en of een power-cycle/reboot inderdaad zijn 'corruptie' verhelpt.

Ik blijf erbij dat het draaien van een ZFS platform in een virtualisatielaag een extra risico of dimensie geeft waarin er vreemde bugs of situaties kunnen optreden. Als iets niets lekker werkt in een virtualisatieomgeving, weet je niet met zekerheid of dat aan de virtualisatielaag ligt totdat je zonder virtualisatie probeert het probleem te reproduceren. Zonder virtualisatie (of alleen virtualbox op de host ofzo) is natuurlijk wel zo fijn omdat je één hele grote factor gelijk kunt uitsluiten.

ZFS is al complex genoeg, zelf maak ik het liever niet nog complexer door ZFS in een andere schil te omkapselen. Dat gezegd, ieder volgt zijn eigen weg en ik blijf natuurlijk heel benieuwd naar ZFS + virtualisatie.

Acties:
  • 0 Henk 'm!
SMART ziet er hier prima uit. Wat verkeerd ging (denk ik), was dat KVM het druk had, en FreeBSD wat minder CPU power kreeg. Het leek daardoor dat ik timeouts kreeg omdat FreeBSD even geen CPU prik kreeg.

Ook mekkerde FreeBSD veel dat de tijd veranderde (terwijl mijn server verder niets speciaals aan het doen was). Dit suggereert dat FreeBSD niet zo goed om kan gaan met de BIOS clock die geemuleerd word door QEMU/KVM.

Maar dat weet ik allemaal nog niet zeker, er loopt nu een scrub.

Edit: Ik zie op een paar disks Power Off Retract Count op > 200 staan... Erg vaag...
Weer een andere heeft Program Fail Cnt waardes, en weer een andere multi zone errors.

(Alle disks zijn direct aanspreekbaar door VT-d)

[ Voor 18% gewijzigd door FireDrunk op 03-03-2013 18:22 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • C0rnelis
  • Registratie: Juni 2010
  • Laatst online: 26-08 22:21
duiveltje666 schreef op vrijdag 01 maart 2013 @ 01:32:
Kleine tip om je netwerk performance te verbeteren :

ifconfig device polling ,dus bijv.
# ifconfig em0 polling

en om het permanent te maken : (voorbeeldje , zelf je config aanpassen aan je netwerkkaart)
ifconfig_em0="inet 10.21.111.100 netmask 255.255.255.192 media 1000baseT/UTP mediaopt full-duplex polling"

Om te testen of het werkt :
sysctl -a kern.polling

en ifconfig em0( vul je netwerkkaart hier in)
Je zult bijvoorbeeld dit zien :
em0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 7168
options=20db<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,POLLING,VLAN_HWCSUM,WOL_MAGIC>
ether 00:1b:21:38:77:1f
inet 192.168.1.12 netmask 0xffffff00 broadcast 192.168.1.255
nd6 options=29<PERFORMNUD,IFDISABLED,AUTO_LINKLOCAL>
media: Ethernet 1000baseT <full-duplex>
status: active
Wat verbeterd precies met deze configuratie? De speed over LAN of (ook) WAN of andere dingen? Ik merk zelf dat ik met ZFSGuru mijn Ziggo-lijn niet kan voltrekken, en polling lijkt qua downloadsnelheid niets uit te maken.

Getest met: https://github.com/Janhouse/tespeed, uitkomst: 88 om 9 Mbit/s

Acties:
  • 0 Henk 'm!
scrub in progress since Sun Mar 3 16:26:15 2013
1.36T scanned out of 10.5T at 400M/s, 6h39m to go
32K repaired, 12.95% done


Dit suggereert dat er een unsafe shutdown van een disk is geweest ofzo... 32K kapot klinkt echt als 1 buffertje wat niet goed is gegaan...

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:38

Compizfox

Bait for wenchmarks

Verwijderd schreef op zondag 03 maart 2013 @ 18:15:
Had je trouwens wel de firmware fix voor Samsung F4EG geflashed? Deze schijf is voor een bepaalde datum namelijk kwetsbaar voor NCQ + SMART + write-request bug.
Het zijn HD753LJ's, dat zijn dus Spinpoint F1's.
ZFS is al complex genoeg, zelf maak ik het liever niet nog complexer door ZFS in een andere schil te omkapselen. Dat gezegd, ieder volgt zijn eigen weg en ik blijf natuurlijk heel benieuwd naar ZFS + virtualisatie.
Deze NCQ-bug had ik ook toen ik ZFSGuru als host draaide. :)

Nu draai ik het als guest in ESXi en het enige probleem waar ik mee te kampen heb, is dat ik huge interrupt storms krijg op irq 16 (wat mijn doorgegeven SATA-controller is), mits ik meer dan 1 core toewijs aan de VM.
(Zie Compizfox in "Zuinige ESXi Server")
Nu heb ik dus maar 1 core toegewezen aan ZFSGuru maar dat is een beetje suboptimaal aangezien ik er een FX-8120 in heb. Die heeft 8 (per core relatief langzame) cores.

[ Voor 8% gewijzigd door Compizfox op 03-03-2013 19:02 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
C0rnelis schreef op zondag 03 maart 2013 @ 18:21:
[...]


Wat verbeterd precies met deze configuratie? De speed over LAN of (ook) WAN of andere dingen? Ik merk zelf dat ik met ZFSGuru mijn Ziggo-lijn niet kan voltrekken, en polling lijkt qua downloadsnelheid niets uit te maken.

Getest met: https://github.com/Janhouse/tespeed, uitkomst: 88 om 9 Mbit/s
Dit zorgt met name voor lagere cpu load als je je shares volkwakt/leeglurkt

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-10 06:46
Ik heb 3x een IBM m1015 en soms boot 1 niet goed op.
Dan raken er uit mijn 2 raidz2 pools 2 discs weg en is de zaak degraded.
Reboot en alles is weer ok binnen 1 seconde repaired of zo. (De originele hdds zijn er dan weer natuurlijk)

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Hakker
  • Registratie: Augustus 2002
  • Laatst online: 05-10 16:48

Hakker

a.k.a The Dude

jacovn schreef op zondag 03 maart 2013 @ 21:26:
Ik heb 3x een IBM m1015 en soms boot 1 niet goed op.
Dan raken er uit mijn 2 raidz2 pools 2 discs weg en is de zaak degraded.
Reboot en alles is weer ok binnen 1 seconde repaired of zo. (De originele hdds zijn er dan weer natuurlijk)
Gebeurt dit al als je geboot ben voor of zie je de degraded state pas als je later kijkt? In het begin al kan komen door het feit dat je HDD's te veel trekken van je voeding tijdens de boot procedure. Dan kunnen ze rustig 25-30 watt trekken om snel te zakken naar de waardes die je normaal verwacht :) en met een reset gaan je hdd's niet volledig uit dus gaan ze niet meer door de hoge wattage cycle heen waardoor ze dan wel gevonden worden.

[ Voor 9% gewijzigd door Hakker op 03-03-2013 22:53 ]

Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 18:19
Ik ben weer wat leuks tegengekomen. ZFS "klaagt" dat één of meer apparaten een onherstelbare fout tegen het lijf zijn gelopen, maar toont vervolgens alle apparaten doodleuk ONLINE... Wat moet ik hier nu weer mee?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
$ sudo zpool status tank
  pool: tank
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
    attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
    using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
 scan: scrub canceled on Sun Mar  3 23:39:20 2013
config:

    NAME                                               STATE     READ WRITE CKSUM
    tank                                               ONLINE       0     0     0
      raidz2-0                                         ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J4J15B        ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J4HGNB        ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J2RP1A        ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J3TXGB        ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J3ST5B        ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J422JB        ONLINE       5     0     0
    cache
      usb-SanDisk_Cruzer_Fit_4C532000041129106180-0:0  ONLINE       0     0     0
      usb-SanDisk_Cruzer_Fit_4C532000050913100011-0:0  ONLINE       0     0     0

errors: No known data errors


De afgebroken scrub komt doordat mijn videoprojecten ineens toch wel heel erg langzaam gingen :) Deze bak levert namelijk alle originele videobestanden aan de machine die edit :)

Acties:
  • 0 Henk 'm!

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 20-10 17:58
Je hoeft er niks mee, er zijn fouten gevonden met lezen en opgelost door ZFS. Je kan wel even 'zpool clear tank' doen om die '5' naar '0' te krijgen.

Wat je hier ziet is precies waarom je ZFS gebruikt :). Er was iets fout en nu niet meer.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:38

Compizfox

Bait for wenchmarks

Het viel me op dat steeds maar 2 van mijn schijven van dit probleem last hebben. Ik heb dus even een overzichtje gemaakt:
code:
1
2
3
4
ID   Device model    serial number  firmware revision
ada0 SAMSUNG HD753LJ S13UJ1MQ122256 1AA01107
ada1 SAMSUNG HD753LJ S13UJQSZ402096 1AA01118
ada2 SAMSUNG HD753LJ S13UJQSZ402098 1AA01118


ada1 en ada2 krijgen de timeouts, op ada0 heb ik er geen last van. De twee 'bugged' schijven hebben echter een nieuwere fimware.

Nu heb ik hier de 1AA01107 firmware gevonden.
Maar kan ik de firmware veilig downgraden? Met camcontrol fwdownload?

EDIT: 2e verschil is dat "power-up in standby" aanstaat op ada0 maar uit op ada1 en ada2. Dat zou ook nog iets uit kunnen maken...

[ Voor 45% gewijzigd door Compizfox op 04-03-2013 00:37 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 18:19
Contagion schreef op zondag 03 maart 2013 @ 23:58:
Je hoeft er niks mee, er zijn fouten gevonden met lezen en opgelost door ZFS. Je kan wel even 'zpool clear tank' doen om die '5' naar '0' te krijgen.

Wat je hier ziet is precies waarom je ZFS gebruikt :). Er was iets fout en nu niet meer.
Ah! Ik had die read errors over het hoofd gezien :P Morgen ff clearen dan en die scrub afmaken. Bedankt!

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-10 06:46
Hakker schreef op zondag 03 maart 2013 @ 22:48:
[...]
Gebeurt dit al als je geboot ben voor of zie je de degraded state pas als je later kijkt? In het begin al kan komen door het feit dat je HDD's te veel trekken van je voeding tijdens de boot procedure. Dan kunnen ze rustig 25-30 watt trekken om snel te zakken naar de waardes die je normaal verwacht :) en met een reset gaan je hdd's niet volledig uit dus gaan ze niet meer door de hoge wattage cycle heen waardoor ze dan wel gevonden worden.
Dat is een beetje Off topic hier, maar het is een 760 watt seasonic voeding en het gebeurd ook niet elke keer.
Mijn post was meer om te melden dat zfs na zo'n event het file systeem snel weer ok heeft.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
Nog even wat achtergrond van mijn problemen. Ik draai ZFSguru dus momenteel onder KVM met 2 controllers doorgegeven via Passthrough. In de logs is niets te zien over enige vorm van ATA/AHCI/SAS controller problemen. Het enige wat ik gevonden heb is een lichte crash van het netwerk omdat er een rare bug in VirtIO blijkt te zitten. Waar deze precies door komt is nog onduidelijk, en ook op internet is er nog weinig over te vinden. Het komt alleen voor als er extreem veel verkeer over VirtIO gaat, dan word er ergens een race conditie ofzo getriggerd :+

Toen VirtIO eenmaal crashte ging de ZFSguru VM over de flos (op zich begrijpelijk, want er ging een hoop mis met het netwerk). CPU usage van de VM steeg naar 100% en de vm was amper responsive (maar deed het nog wel...).

Toen heb ik de VM gereboot, en dat ging in princpie goed, ware het niet dat de VM na de ** syncing disks ** een foutmelding gaf over het niet kunnen wegschrijven van bepaalde sectoren. Toen ging de VM uit. DAARNA gingen ineens 4 van mijn 10 schijven opspinnen... Heel vreemd...

Nu dus 167MB repaired door de scrub en weer 82 files corrupt en > 1000 checksum errors per disk :'(

Ben een beetje radeloos...

EDIT: Even nagekeken, de ZFSguru VM zelf geeft 0,0 fouten in kernel logs.

[ Voor 3% gewijzigd door FireDrunk op 04-03-2013 09:25 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 14:18

B2

wa' seggie?

FireDrunk schreef op maandag 04 maart 2013 @ 09:14:
Nog even wat achtergrond van mijn problemen. Ik draai ZFSguru dus momenteel onder KVM met 2 controllers doorgegeven via Passthrough. In de logs is niets te zien over enige vorm van ATA/AHCI/SAS controller problemen. Het enige wat ik gevonden heb is een lichte crash van het netwerk omdat er een rare bug in VirtIO blijkt te zitten. Waar deze precies door komt is nog onduidelijk, en ook op internet is er nog weinig over te vinden. Het komt alleen voor als er extreem veel verkeer over VirtIO gaat, dan word er ergens een race conditie ofzo getriggerd :+

Toen VirtIO eenmaal crashte ging de ZFSguru VM over de flos (op zich begrijpelijk, want er ging een hoop mis met het netwerk). CPU usage van de VM steeg naar 100% en de vm was amper responsive (maar deed het nog wel...).

Toen heb ik de VM gereboot, en dat ging in princpie goed, ware het niet dat de VM na de ** syncing disks ** een foutmelding gaf over het niet kunnen wegschrijven van bepaalde sectoren. Toen ging de VM uit. DAARNA gingen ineens 4 van mijn 10 schijven opspinnen... Heel vreemd...

Nu dus 167MB repaired door de scrub en weer 82 files corrupt en > 1000 checksum errors per disk :'(

Ben een beetje radeloos...

EDIT: Even nagekeken, de ZFSguru VM zelf geeft 0,0 fouten in kernel logs.
Hm, die problemen heb ik nog niet gehad. Wel een disk die telkens na een powercycle kwijt raakt, maar volgens mij is dat een power kabel probleempje. In mijn 12 disk raidz2 config merk ik wel dat het schrijven niet super snel gaat. Over nfs lijkt 600Mbit/s wel zo'n beetje de max, maar ik weet nog niet waar dat aan ligt. Op dezelfde hardware, maar dan met een 5 disk raidz ging wel met 1Gbit. Misschien toch een slog ssd nodig?

Acties:
  • 0 Henk 'm!
Ik volg je helemaal niet...
Ik begrijp niet waarom je mij quote :)

[ Voor 46% gewijzigd door FireDrunk op 04-03-2013 09:45 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 14:18

B2

wa' seggie?

Das mooi :)
Wat ik probeer te vertellen is het volgende, ik heb nu een 12 disk raidz2 config. Vanaf een andere host daarna toe schrijven gaat met max 600Mbit/s.
In dezelfde machine heb ik ook een 5 disk raidz config gehad, het schrijven daarna toe ging met 1Gbit/s.

Beide vanaf dezelfde source, waarbij de ZFSGuru vm de target is.


Oh zo :) Omdat ik hetzelfde doe, ZFSGuru in een KVM vm draaien, met VirtIO en vt-d voor de M1015 kaarten.

[ Voor 61% gewijzigd door B2 op 04-03-2013 09:51 ]


Acties:
  • 0 Henk 'm!
Aaaaah, kijk, dat is zeker bruikbare informatie! :D
Welke versie OS en KVM (en eventueel LibVirt) heb je?

Even niets...


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 14:18

B2

wa' seggie?

FireDrunk schreef op maandag 04 maart 2013 @ 09:54:
Aaaaah, kijk, dat is zeker bruikbare informatie! :D
Welke versie OS en KVM (en eventueel LibVirt) heb je?
Fedora 17
code:
1
2
3
kernel 3.7.9-104
qemu-kvm-1.0.1-4
libvirt-0.9.11.9

Acties:
  • 0 Henk 'm!
Ik zit zelf op:

Kernel 3.5.0-25-39
qemu-kvm 1.2.0
libvirt 0.9.20

Dus nieuwere libvirt, oudere kernel.

Even niets...


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 14:18

B2

wa' seggie?

FireDrunk schreef op maandag 04 maart 2013 @ 10:31:
Ik zit zelf op:

Kernel 3.5.0-25-39
qemu-kvm 1.2.0
libvirt 0.9.20

Dus nieuwere libvirt, oudere kernel.
Nieuwste kernel is, zeker bij KVM, erg belangrijk.

Acties:
  • 0 Henk 'm!
Vandaag komt er een 16p controller binnen als het goed is, en kan ik mijn onboard controller weer zelf gebruiken. Dan ga ik weer over op Gentoo denk ik.

(Gentoo op USB is niet zo tof...)

Zojuist remote een release upgrade gedaan naar 13.04 dev.
Daar heb ik kernel 3.8.0. Alleen kan ik remote niet rebooten (vage USB->SATA converter werkt niet 100% als bootdevice op mijn moederbord, dus die moet ik handmatig selecteren elke boot... Beetje vaag)

Vanavond dus meer.

[ Voor 52% gewijzigd door FireDrunk op 04-03-2013 12:15 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
FireDrunk schreef op maandag 04 maart 2013 @ 09:14:
Nu dus 167MB repaired door de scrub en weer 82 files corrupt en > 1000 checksum errors per disk :'(
Files corrupt moet zijn dat ZFS ofwel niet bij de data kan, ofwel dat de data misvormd is. Ik zou suggereren: start eens iets met BSD ZFS op zonder virtualisatie. Een USB-stick met ZFSguru of wat dan ook.

Wat ik namelijk verwacht is dat zodra ZFS bugvrij je disks kan aanspreken die 82 corrupte files ook moeten verdwijnen. Hoezo heb je filecorruptie die je pool niet kan corrigeren? Ik neem aan dat je een redundante poolconfiguratie draait namelijk. Misschien je pool config posten inclusief error timers?

In elk geval, dat is wat ik zou doen: even geen virtualisatie en kijken of je die corrupte files kunt terughalen. Ik neem verder aan dat je je RAM kunt vertrouwen; checksum errors random verdeeld over meerdere/alle disks ruikt naar RAM corruptie.

Acties:
  • 0 Henk 'm!
Ik heb vrijdag nieuw ram geinstalleerd, ik ben van 4*4GB ECC 1333Mhz geheugen naar 2*8GB Non-ECC 1600Mhz geheugen gegaan. ECC werkte toch niet, dus dat is geen voor of achteruitgang eigenlijk...
Dit RAM kwam uit mijn desktop (die had 32GB, is nu gehalveerd) en dat draait al maanden goed, dus ik verwacht dat het gewoon error-vrij is.

De VM zelf staat momenteel even uit, ik zal vanavond zonder Virtualisatie booten en alle configs laten zien.

De Kernel log van FreeBSD bevat 0,0 fouten, en daardoor verdenk ik niet dat ZFS niet bij de disks heeft gekund... Anders had ik daar wel melding van gehad.

Er zit GEEN virtualisatie tussen de disks en de VM (alles word via VT-d doorgegeven, zelfs de root waar de VM van boot...)

[ Voor 10% gewijzigd door FireDrunk op 04-03-2013 13:34 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
FireDrunk schreef op maandag 04 maart 2013 @ 13:33:
Ik heb vrijdag nieuw ram geinstalleerd, ik ben van 4*4GB ECC 1333Mhz geheugen naar 2*8GB Non-ECC 1600Mhz geheugen gegaan. ECC werkte toch niet, dus dat is geen voor of achteruitgang eigenlijk...
Hoe weet je dat ECC het niet doet?

Acties:
  • 0 Henk 'm!
Een i5 doet geen ECC. En Q77 ook niet.

[ Voor 28% gewijzigd door FireDrunk op 04-03-2013 14:44 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
FireDrunk schreef op maandag 04 maart 2013 @ 14:44:
Een i5 doet geen ECC. En Q77 ook niet.
Ah, ja dat klopt, voor ECC heb je i3 of bepaalde Pentiums nodig voor zover ik weet.

Acties:
  • 0 Henk 'm!
Ja, en dan nog werkt het alleen met Clarkdale en een 3420 chipset.

Sandy Bridge en Ivy Bridge doen alleen ECC met Xeon's en C2xx series chipsets voor zover ik weet.

Even niets...


Acties:
  • 0 Henk 'm!

  • Nielsjuhz
  • Registratie: November 2010
  • Laatst online: 19-10 10:32
Ik wil proberen een all-in-one esxi zfs systeem te maken mocht ik ooit x geld hebben.

Maar zal het wel eerst willen proberen op me laptop met workstation, alleen zal ik dan wel verschil merken tussen zfs aan en uit? aangezien ik maar 1 hdd heb en verschillende vmdk files maak op die ene hdd.

Acties:
  • 0 Henk 'm!
Nu thuis, server gereboot en kernel 3.8.0 draait nu prima.
Ik zie ook geen checksum errors meer, maar mijn SMART waardes zijn nu wel nog steeds bagger (veel multi zone errors en een hoop program count errors)

Nog maar een scrubje.

@CiPHER, je moet even in de nieuwe versie ZFSguru het Lighttpd renicen met:
renice -n 5 [pid]


Dan is de webserver tenminste nog snel als er een scrub runt :+

[ Voor 28% gewijzigd door FireDrunk op 04-03-2013 18:12 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Is je file-corruptie nu ook weg FireDrunk? Dat was denk ik het meest kritische.

En bedankt voor de renice tip. Ik heb er zelf nooit last van gehad overigens. Maar ik draai dan ook zonder virtualisatie op quadcore (oke ook Brazos). :P

Acties:
  • 0 Henk 'm!
Verwijderd schreef op maandag 04 maart 2013 @ 18:22:
Is je file-corruptie nu ook weg FireDrunk? Dat was denk ik het meest kritische.

En bedankt voor de renice tip. Ik heb er zelf nooit last van gehad overigens. Maar ik draai dan ook zonder virtualisatie op quadcore (oke ook Brazos). :P
Als je 10 schijven in RAIDZ2 hebt is een scrub ook wel erg zwaar... :+

De file corruptie is niet weg...

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 18:19
Semi-related vraagje:

Ik heb Final Cut Pro X op mijn MacBook Pro staan, en mijn videobestanden op een disk image (sparsebundle) die ik over het netwerk mount. Deze image staat op mijn ZFS RAID-Z2 set van 6 schijven. Ik merk dat Final Cut niet altijd even snel is, en dat zonder dat de CPU of het netwerk van mijn MBP dichtgetrokken word. Zou een ZIL op een leuke SSD hierbij kunnen helpen?

Of, iets meer gerelateerd aan het topic, hoe kan ik zien (op ZFS on Linux danwel Solaris) of een ZIL in mijn workload een verschil oplevert?
Om het leuk te houden, bij mijn weten werken de arcstat e.d. scriptjes helaas niet (out of the box) op ZFS on Linux :-(

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
zfs set sync=disabled <filesystem>

Als dat je workload sneller maakt, heb je baat bij een SSD als SLOG (dedicated ZIL).

Maar ik denk eerder aan random reads, dus L2ARC zou nut kunnen hebben. Hoeveel RAM draai je? Jammer dat 32GiB momenteel de praktische limiet is. :(

Acties:
  • 0 Henk 'm!
Je kan naar Socket 2011 gaan (als je persé intel wil) daar kan je 64GB addreseren met desktop CPU's.
Anders word het een server platform.

* FireDrunk heeft hier al een 1U Opteron doosje met 2*16GB DDR3 ECC REG DIMM's (+2*8) draaien.

CiPHER, hoe kan jij verklaren dat oude files corrupt raken op ZFS door een fout in KVM?

De data is er ooit native op gezet, en zou dus gewoon heel moeten blijven. Al gooi ik er de meest smerige errors tegenaan (qua CPU en/of netwerk). Hoe kan het dat ZFS met terugwerkende kracht corrupt raakt als het gaat om oude files...??

Dat is voor mij echt een raadsel...

[ Voor 44% gewijzigd door FireDrunk op 04-03-2013 18:39 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 18:19
Helaas, ik draai op mini ITX dus mijn praktische limiet is 16GB :( En dat zit er dan ook in...

Verdere specs (voor zover nuttig):
Moederbord: Intel DH77DF
CPU: Intel Xeon E3-1265LV2 (overkill voor enkel ZFS, maar ding is ook bedoeld als virtualisatie server... ooit :P)
RAM: 2x 8GB DDR3 (Kingston 1333MHz)
HBA: IBM M1015
HDD: 1x Crucial m4 64GB + 6x Hitachi 5K1000

Ik ga eens even spelen met sync=disabled, ik laat nog even weten wat dit oplevert :)

[ Voor 10% gewijzigd door Xudonax op 04-03-2013 18:42 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@FireDrunk: je draait RAID-Z2 en hebt file-corruptie. Dus dan denk ik: wat is er gebeurt?! Wat zie je aan de errror counters in de zpool status output?

Wat ik namelijk dacht is dat doordat ZFS allemaal timeouts kreeg, om die reden corrupte files aangaf. Hetzelfde effect als al je schijven bad sectors of kabelfouten hebben als ZFS een file probeert te lezen. Die file komt dan als corrupte file te boek te staan.

Echter, bij het opnieuw aanspreken van die file of het uitvoeren van een scrub, zou ZFS opeens wel weer normaal toegang tot die file moeten krijgen. De corrupted file zou dan moeten verdwijnen uit de zpool status -v output, dus niet de file zelf maar de corruptie.

Als dat niet zo is, en je hebt na een volledige scrub nog steeds corruptie, dan zou ik dat extreem vreemd vinden. Zie je checksum correcties op de pool disk members? En nog belangrijker: zie je checksum correcties op de pool laag zelf (de pool zelf heeft ook read/write/cksum error counters).

Zelf zou ik aanraden alsnog memtest86+ te draaien, uit zekerheid. Je RAM kan opzich wel goed zijn maar je hebt toch iets verandert en dat risico moet je willen uitsluiten. Zeker nu er 'onverklaarbare' problemen opduiken. Want wat jij zegt is natuurlijk wel heel vreemd. Dat zou niet zomaar moeten kunnen. Of dat aan KVM ligt is in elk geval een mogelijkheid.

@Xudonax: en je ZFS metadata limiet even wat hoger instellen:
vfs.zfs.arc_meta_limit: 3781741568
vfs.zfs.arc_meta_used: 3781717920

In dit geval duidelijk dat de 3,7GB te weinig is voor alle metadata. Metadata cachen in RAM (of L2ARC) is heel nuttig. Dat scheelt al een boel random seeks en zorgt voor snelle zoekopdrachten.

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 18:19
@CiPHER: Ik geloof dat ik niet de opties heb die jij noemt... Sowieso gaat het bij ZFS on Linux schijnbaar met module parameters, dus bij mijn weten kun je dan heel erg weinig on-the-fly aanpassen :(

Ik heb de arc_meta_limit ingesteld, en ga zo de machine herstarten om dit toe te passen (kan ook ZFS uit de kernel gooien (rmmod) en weer inladen, maar ik heb wat meer onderhoud te doen). De opties die ik heb die gerelateerd lijken aan de ARC zijn:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
parm:           zfs_arc_min:Min arc size (ulong)
parm:           zfs_arc_max:Max arc size (ulong)
parm:           zfs_arc_meta_limit:Meta limit for arc size (ulong)
parm:           zfs_arc_meta_prune:Bytes of meta data to prune (int)
parm:           zfs_arc_grow_retry:Seconds before growing arc size (int)
parm:           zfs_arc_shrink_shift:log2(fraction of arc to reclaim) (int)
parm:           zfs_arc_p_min_shift:arc_c shift to calc min/max arc_p (int)
parm:           l2arc_write_max:Max write bytes per interval (ulong)
parm:           l2arc_write_boost:Extra write bytes during device warmup (ulong)
parm:           l2arc_headroom:Number of max device writes to precache (ulong)
parm:           l2arc_feed_secs:Seconds between L2ARC writing (ulong)
parm:           l2arc_feed_min_ms:Min feed interval in milliseconds (ulong)
parm:           l2arc_noprefetch:Skip caching prefetched buffers (int)
parm:           l2arc_feed_again:Turbo L2ARC warmup (int)
parm:           l2arc_norw:No reads during writes (int)


Zitten er nog meer dingen in die het tweaken waard zijn?

Owja, en wat ik ben vergeten te zeggen is dat ik nog twee niet al te snelle USB sticks als L2ARC heb, meer voor de grap dan dat het nuttig is. De moeite waard om die eruit te gooien?

zpool status -v tank voor de volledigheid:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
  pool: tank
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
    attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
    using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
 scan: scrub canceled on Mon Mar  4 18:43:07 2013
config:

    NAME                                               STATE     READ WRITE CKSUM
    tank                                               ONLINE       0     0     0
      raidz2-0                                         ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J4J15B        ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J4HGNB        ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J2RP1A        ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J3TXGB        ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J3ST5B        ONLINE       0     0     0
        ata-HGST_HTS541010A9E680_JB100013J422JB        ONLINE       5     0     0
    cache
      usb-SanDisk_Cruzer_Fit_4C532000041129106180-0:0  ONLINE       0     0     0
      usb-SanDisk_Cruzer_Fit_4C532000050913100011-0:0  ONLINE       0     0     0

errors: No known data errors

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Met USB sticks als cache moet je zorgen dat ze niet te intensief gebruikt worden. Anders kan dat je snelheid gaan kosten. Ik zou de l2arc_write_max dus flink laag houden. Max een halve megabyte per seconde ofzo. Dat zijn dus tot 128 4K-queries gecached per seconde.

Kun je met ZFS-on-Linux nergens zien hoeveel metadata gecached is? Geen ARC stats?

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 18:19
Ik heb wel een /proc/spl/kstat/zfs/arcstats, maar ik zou eerlijk gezegd niet weten wat ik met de inhoud daarvan moet...

De inhoud daarvan is op een schone boot:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
$ cat /proc/spl/kstat/zfs/arcstats 
4 1 0x01 77 3696 12687278980 115101194991
name                            type data
hits                            4    94640
misses                          4    11158
demand_data_hits                4    9816
demand_data_misses              4    175
demand_metadata_hits            4    76322
demand_metadata_misses          4    6791
prefetch_data_hits              4    64
prefetch_data_misses            4    2020
prefetch_metadata_hits          4    8438
prefetch_metadata_misses        4    2172
mru_hits                        4    59680
mru_ghost_hits                  4    55
mfu_hits                        4    26557
mfu_ghost_hits                  4    32
deleted                         4    8
recycle_miss                    4    0
mutex_miss                      4    0
evict_skip                      4    0
evict_l2_cached                 4    0
evict_l2_eligible               4    0
evict_l2_ineligible             4    2048
hash_elements                   4    11045
hash_elements_max               4    11045
hash_collisions                 4    142
hash_chains                     4    140
hash_chain_max                  4    2
p                               4    4425886208
c                               4    8853127168
c_min                           4    1890870784
c_max                           4    8853127168
size                            4    371179744
hdr_size                        4    4264416
data_size                       4    309645312
other_size                      4    57270016
anon_size                       4    16384
anon_evict_data                 4    0
anon_evict_metadata             4    0
mru_size                        4    281745408
mru_evict_data                  4    220317184
mru_evict_metadata              4    18842112
mru_ghost_size                  4    311296
mru_ghost_evict_data            4    122880
mru_ghost_evict_metadata        4    188416
mfu_size                        4    27883520
mfu_evict_data                  4    25174528
mfu_evict_metadata              4    656896
mfu_ghost_size                  4    94208
mfu_ghost_evict_data            4    8192
mfu_ghost_evict_metadata        4    86016
l2_hits                         4    0
l2_misses                       4    11141
l2_feeds                        4    101
l2_rw_clash                     4    0
l2_read_bytes                   4    0
l2_write_bytes                  4    59421184
l2_writes_sent                  4    69
l2_writes_done                  4    69
l2_writes_error                 4    0
l2_writes_hdr_miss              4    0
l2_evict_lock_retry             4    0
l2_evict_reading                4    0
l2_free_on_write                4    0
l2_abort_lowmem                 4    0
l2_cksum_bad                    4    0
l2_io_error                     4    0
l2_size                         4    59357696
l2_hdr_size                     4    0
memory_throttle_count           4    0
memory_direct_count             4    0
memory_indirect_count           4    0
arc_no_grow                     4    0
arc_tempreserve                 4    0
arc_loaned_bytes                4    0
arc_prune                       4    0
arc_meta_used                   4    125688032
arc_meta_limit                  4    3781741568
arc_meta_max                    4    124095400


Ik ga even twee schijven als mirror toevoegen (aan een nieuwe ZFS pool) en dan zal ik Final Cut Pro nog eens een slinger geven :)

Acties:
  • 0 Henk 'm!
[root@NAS /home/ssh]# zpool status
  pool: bigpool
 state: ONLINE
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.
   see: http://illumos.org/msg/ZFS-8000-8A
  scan: scrub in progress since Mon Mar  4 17:00:43 2013
        3.01T scanned out of 10.1T at 454M/s, 4h32m to go
        0 repaired, 29.79% done
config:

        NAME         STATE     READ WRITE CKSUM
        bigpool      ONLINE       0     0     0
          raidz2-0   ONLINE       0     0     0
            gpt/WD2  ONLINE       0     0     0
            gpt/WD3  ONLINE       0     0     0
            gpt/WD4  ONLINE       0     0     0
            gpt/SM1  ONLINE       0     0     0
            gpt/SM2  ONLINE       0     0     0
            gpt/SM3  ONLINE       0     0     0
            gpt/SM4  ONLINE       0     0     0
            gpt/WD1  ONLINE       0     0     0
            gpt/SM5  ONLINE       0     0     0
            gpt/SM6  ONLINE       0     0     0
        logs
          gpt/ZIL    ONLINE       0     0     0
        cache
          gpt/L2ARC  ONLINE       0     0     0

errors: 987 data errors, use '-v' for a list

  pool: rootpool
 state: ONLINE
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.
   see: http://illumos.org/msg/ZFS-8000-8A
  scan: none requested
config:

        NAME                STATE     READ WRITE CKSUM
        rootpool            ONLINE       0     0     0
          mirror-0          ONLINE       0     0     0
            gpt/rootpool-A  ONLINE       0     0     0
            gpt/rootpool-B  ONLINE       0     0     0

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Zodra je scrub klaar is ben ik benieuwd of je nog steeds 987 corrupte files hebt. Als mijn theorie klopt zouden die dan weg moeten zijn of in elk geval een heel stuk lager. Ook vind ik het vreemd dat je geen error counters hebt in je pool.

@Xudonax: doordat je vers hebt geboot zijn veel van die variabelen nog niet 'warm' om het maar zo te noemen. Het valt me wel op dat je beperkt wordt in je metadata:
arc_meta_used 4 125688032
arc_meta_limit 4 3781741568
arc_meta_max 4 124095400

Dus maximaal 128MiB aan metadata. Maak daar maar eens 2 gigabyte van minimaal en liever nog meer.

[ Voor 46% gewijzigd door Verwijderd op 04-03-2013 20:01 ]


Acties:
  • 0 Henk 'm!
Dat vond ik dus ook... En als jij zegt dat een scrub de files fixt, waarom bied ZFSguru dan aan om eerst de files te deleten, en dan pas een scrub te starten?

Als wat jij zegt waar is, heb ik voor jan-met-de-korte-achternaam op ZFSguru vertrouwt omdat de webinterface zei, deleten die hap...

Enige 2 dingen die in KVM niet vlekkeloos gingen waren tijd en netwerk. De rest was 100% in orde...
Als ZFS/FreeBSD daar gevoelig voor is, is dat wel het noteren waard. En bovendien vind ik dat nogal slecht... (maar dat is mijn mening...)

EDIT:

nieuws: Linux-kernel 3.9 biedt raid-modi voor btrfs en ssd-cachingmodus

oh boy, concurrentie voor ZFS :+

EDIT2:

WEL GODVER******

op mijn rootpool doe ik een scrub, et voila... alle corruptie weg....

CiPHER, je wordt bedankt :P door jouw advies ben ik >100 files kwijt :+

[ Voor 55% gewijzigd door FireDrunk op 04-03-2013 20:17 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:38

Compizfox

Bait for wenchmarks

FireDrunk schreef op maandag 04 maart 2013 @ 20:02:
Dat vond ik dus ook... En als jij zegt dat een scrub de files fixt, waarom bied ZFSguru dan aan om eerst de files te deleten, en dan pas een scrub te starten?
nieuws: Linux-kernel 3.9 biedt raid-modi voor btrfs en ssd-cachingmodus

oh boy, concurrentie voor ZFS :+
Innovatie. Mooi toch? ;)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • originng
  • Registratie: December 2012
  • Laatst online: 23-07-2024
Ik heb een vraag/probleem, wie niet ;-)

Ik heb een coraid array met een aantal schijven die gebruikt zijn voor ZFS (OpenIndiana). Iemand ervaring met het overzetten van dit soort schijven naar een ander systeem, niet een coraid zijnde?

Heb al een image kopie gemaakt van 1 schijf om te zien of een server met ZFSGuru de pool eventueel ziet, degraded maar toch zichtbaar maar helaas niks.

Joop

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ehm, het verbaast me eigenlijk dat je dit niet had geweten FireDrunk?! Ik ken die melding in ZFSguru niet zo goed, maar volgens mij wordt daar uitgelegd dat de files verwijderd worden. ZFSguru doet dan een rm op die files. Dat doe je alleen als je denkt dat het een verloren zaak is en ervanuit gaat dat je de corruptie niet kunt oplossen.

In jouw geval is iets heel anders aan de hand. Geen disk corruptie en waarschijnlijk ook geen RAM-corruptie, maar alle disks blokkeerden gewoon vanuit het perspectief van ZFS dus allemaal een bad sector op die plek, door een situatie die zich voordoet omdat je KVM virtualisatie gebruikt. Ook de meldingen dat de tijd terug in het verleden is gegaan (calcru: runtime went backwards) lijkt mij niet erg fris voor je guest VM - al weet ik niet hoe erg zoiets is.

Doordat alle data sources vanuit het perspectief van ZFS niet beschikbaar waren, zou ZFS die file als corrupt aanmerken. Dat lijkt mij het meest aannemelijke scenario. Merk hierbij op dat de disks niet detachen en onzichtbaar worden. Wat je zegt over dat FreeBSD slecht tegen timeouts kan verbaast mij dan ook. Juist FreeBSD heeft met progressive soft-timeouts (ada driver) een streepje voor op andere operating systems die een statische timeout gebruiken met retry. Dat is wat FreeBSD gebruikte in de 4.x series.

Maar in elk geval, ik dacht dat je net als ik dacht dat jouw corruptie simpelweg is op te lossen met een scrub. Dan verbaast mij jouw reactie:
CiPHER, je wordt bedankt :P door jouw advies ben ik >100 files kwijt :+
Ik heb je juist aangeraden om niet vanuit te gaan dat die corruptie permanent is, maar dat het simpelweg op te lossen is als ZFS opnieuw die bestanden aanraakt. Dus of één voor één die corrupted files lezen met cat of dd of wat dan ook, ofwel een scrub starten.

Wat jij hebt gedaan (althans dat impliceert je bericht?!) is via ZFSguru de bestanden permanent verwijderen door die grote rode knop te gebruiken - al kan ik me alleen vaag herinneren hoe het eruit zag. Maar in elk geval, dat is niet wat ik je heb aangeraden, toch?

In je zpool status output zie ik 987 data errors. Dus dat suggereert dat je destijds nog niet de bestanden had verwijderd. Ik ging er dus ook gewoon vanuit dat jij ook bezig was met het recoveren van die corrupted files, en het niet als een verloren zaak zag.

Het spijt me heel erg als ik voor dataverlies heb gezorgd, maar tot dusver begrijp ik niet hoe het mis heeft kunnen gaan.

Acties:
  • 0 Henk 'm!

  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
Je hebt ook nog files in /sys/module/zfs/parameters/. Sommigen lijken daarvan te kloppen, maar anderen zoals zfs_arc_* zijn allemaal 0 :/

Acties:
  • 0 Henk 'm!
@CiPHER, het was ook geen aanval hoor, vandaar de :+
Ik heb op jou aanraden ZFSguru gebruikt, daarom impliceerde ik dat het door jou kwam. Het blijft inderdaad mijn eigen keuze om op die knop te drukken.

Wat ik dus ABSOLUUT NIET BEGRIJP is dat ZFS kan beweren dat files ECHT HELEMAAL STOEK ZIJN als een simpele scrub alles weer oplost... Dat is mij een raadsel...

Jouw post over het doen van een scrub, kwam NA mijn eerste delete actie :) Jouw treft geen blaam hoor ;)

Wat ZFSguru dus met die knop doet is dus absoluut *verkeerd*, het doet EERST een rm, dan een scrub starten.

Terwijl het eigenlijk zou moeten controleren of er recentelijk al een scrub gedaan is, en als die echt helemaal klaar is, DAN pas als last resort (of eigenlijk een clean up) de files verwijderen.

De volgorde is dus fout, met (lichtelijk extreme) gevolgen.

[ Voor 28% gewijzigd door FireDrunk op 04-03-2013 21:51 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 19-10 09:41
FireDrunk grapt maar wat, hij heeft namelijk een recente backup en is de files dus niet kwijt.... >:) :>

- raid does not fix stupid -


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Het kan zijn dat er in dit opzicht wat aan ZFSguru valt te verbeteren. Maar alvorens daar op in te gaan wil ik wel opmerken dat het soort corruptie wat jij kreeg wel heel bijzonder en afwijkend en ongewoon is. Het is veroorzaakt door een interactie tussen je KVM virtualisatie en de ZFSguru guest VM. Althans zo verklaar je zelf en dat biedt een goede verklaring voor hetgeen je meemaakt.

Normaal wordt disk corruptie natuurlijk direct gefixed door van een redundante bron de data te lezen. In jouw geval waren alle disks echter onbeschikbaar door een virtualisatie-issue. Niet echt de schuld van ZFS of FreeBSD denk ik dan als leek op dit gebied. Dat is goed nieuws voor de kans op recovery: want de files waren helemaal niet corrupt. Simpelweg opnieuw ZFS kennis laten maken met de fysieke data op een moment dat KVM zich wel netjes gedraagt zou dan de oplossing bieden.

Dan komen we op ZFSguru. Ik vraag me dan wel af hoe je die melding die je krijgt bij filecorruptie hebt geïnterpreteerd. Want ZFSguru biedt geen kans op recovery. Het is eigenlijk een 'forfeit my data; just clean all the errors'. Ik weet ook niet of die actie een scrub start. Het enige wat ik weet is dat het een combinatie is van rm <corrupte bestanden> en zpool clear. Misschien nog een scrub erachteraan automatisch wat handig kan zijn.

In jouw geval waar er dus kans op recovery was, wil je helemaal niet verwijderen. Ik weet niet hoe je dan op die knop kunt drukken; oen! :+ Nee serieus, ik ken de melding niet en het kan zijn dat hij veel beter verwoord moet worden.

Maar eigenlijk zouden er twee knoppen moeten komen:
1. Try to recover the corrupted files (doe een dd op de corrupte bestanden in background)
2. Forfeit my data and remove all corruption (wat jij hebt gedaan dus)

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 18:19
zfs set sync=disabled heeft het geheel niet sneller gemaakt, het lijkt eerder langzamer te zijn geworden... Ik heb ondertussen wel een betere oplossing gevonden, ik heb een ZFS pool toegevoegd bestaande uit twee antieke (2008) Hitachi 7K1000.B 3.5" schijven en hier een 954GiB iSCSI LUN op aangemaakt.

Dit is in ieder geval een minder hacky oplossing (IMO) dan een gedeelde disk image, en het is hopelijk ook nog iets sneller aangezien ik geen 2-3 lagen op elkaar stapel (AFP voor toegang tot disk image, disk image mounten en daar vervolgens HFS+ overheen doen). Nu nog kijken of dit ook daadwerkelijk een snelheidswinst oplevert :)

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:38

Compizfox

Bait for wenchmarks

En waarmee test je dat? Want je hebt natuurlijk een grote kans dat je bottleneck bij Samba/NFS/iSCSI ligt.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 18:19
Ik "test" het niet op een meetbare wijze, helaas. Ik merk het aan de reactiesnelheid in Final Cut als ik door de video heen blader (ProRes 4:2:2 Full HD). Ik heb wel even wat testjes gedaan (achteraf) met Blackmagic Disk Speed Test, de resultaten:

sync=disabled, sparseimage: ~90MByte/s schrijven, ~85MByte/s lezen
sync=standard, sparseimage: ~80MByte/s schrijven, ~90MByte/s lezen
sync=disabled, iSCSI: ~110MByte/s schrijven, ~110MByte/s lezen
sync=enabled, iSCSI: ~110MByte/s schrijven, ~110MByte/s lezen

iSCSI is dus in sequentiele access een behoorlijk stuk sneller, hoewel de andere me niet heel erg tegenvallen om eerlijk te zijn :) Ik heb helaas niet zo 1-2-3 een tooltje dat de random access kan testen. Of in ieder geval, niet iets dat gratis is en op OS X draait :-(

Mijn arcstats na dit geintje:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
4 1 0x01 77 3696 12687278980 10333668308680
name                            type data
hits                            4    27821744
misses                          4    872100
demand_data_hits                4    26115007
demand_data_misses              4    33184
demand_metadata_hits            4    1420288
demand_metadata_misses          4    16796
prefetch_data_hits              4    101838
prefetch_data_misses            4    728634
prefetch_metadata_hits          4    184611
prefetch_metadata_misses        4    93486
mru_hits                        4    4416769
mru_ghost_hits                  4    46099
mfu_hits                        4    23202670
mfu_ghost_hits                  4    2665
deleted                         4    10595029
recycle_miss                    4    324072
mutex_miss                      4    790727
evict_skip                      4    124039844
evict_l2_cached                 4    16493201920
evict_l2_eligible               4    172866161664
evict_l2_ineligible             4    16271844864
hash_elements                   4    587811
hash_elements_max               4    937833
hash_collisions                 4    9492065
hash_chains                     4    162375
hash_chain_max                  4    11
p                               4    5664799
c                               4    8102109184
c_min                           4    1890870784
c_max                           4    8853127168
size                            4    8042711392
hdr_size                        4    210911792
data_size                       4    7693982720
other_size                      4    115281952
anon_size                       4    120238080
anon_evict_data                 4    0
anon_evict_metadata             4    0
mru_size                        4    1757336576
mru_evict_data                  4    1666678272
mru_evict_metadata              4    59819520
mru_ghost_size                  4    6372912640
mru_ghost_evict_data            4    4844281856
mru_ghost_evict_metadata        4    1528630784
mfu_size                        4    5816408064
mfu_evict_data                  4    4985358848
mfu_evict_metadata              4    793456128
mfu_ghost_size                  4    15680512
mfu_ghost_evict_data            4    3673088
mfu_ghost_evict_metadata        4    12007424
l2_hits                         4    4042
l2_misses                       4    868041
l2_feeds                        4    10465
l2_rw_clash                     4    3
l2_read_bytes                   4    371309568
l2_write_bytes                  4    12510755840
l2_writes_sent                  4    6147
l2_writes_done                  4    6147
l2_writes_error                 4    0
l2_writes_hdr_miss              4    4
l2_evict_lock_retry             4    0
l2_evict_reading                4    0
l2_free_on_write                4    37371
l2_abort_lowmem                 4    71
l2_cksum_bad                    4    0
l2_io_error                     4    0
l2_size                         4    11887421440
l2_hdr_size                     4    23860512
memory_throttle_count           4    0
memory_direct_count             4    321
memory_indirect_count           4    348448
arc_no_grow                     4    0
arc_tempreserve                 4    0
arc_loaned_bytes                4    0
arc_prune                       4    0
arc_meta_used                   4    1271882080
arc_meta_limit                  4    3781741568
arc_meta_max                    4    1417657624


Daarnaast heb ik ook nog wat ZIL statistieken gevonden, maar ook hiervan heb ik niet echt een idee hoe ik dit moet interpreteren...
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
5 1 0x01 13 624 12687445867 10382778847991
name                            type data
zil_commit_count                4    7096
zil_commit_writer_count         4    7096
zil_itx_count                   4    562283
zil_itx_indirect_count          4    902
zil_itx_indirect_bytes          4    117320256
zil_itx_copied_count            4    0
zil_itx_copied_bytes            4    0
zil_itx_needcopy_count          4    554890
zil_itx_needcopy_bytes          4    21398069383
zil_itx_metaslab_normal_count   4    0
zil_itx_metaslab_normal_bytes   4    0
zil_itx_metaslab_slog_count     4    203643
zil_itx_metaslab_slog_bytes     4    21543191032


@CiPHER: arc_meta_max heb ik in de module opties gelijkgesteld aan de arc_meta_limit, maar ik moet de module nog even herladen. Is dit een slecht idee of moet dat gewoon kunnen?

Acties:
  • 0 Henk 'm!
You have corrupted files on this pool. These will not go away until you remove the files in question, and clear all errors on the pool. If you like to perform this action and permanently remove the files in question, click this button:
Toch duidelijke taal... en incorrect dus...

Zfsguru doet:
Rm files
Zpool clear
Zpool scrub

[ Voor 13% gewijzigd door FireDrunk op 04-03-2013 22:59 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:38

Compizfox

Bait for wenchmarks

Xudonax schreef op maandag 04 maart 2013 @ 22:45:
Ik "test" het niet op een meetbare wijze, helaas. Ik merk het aan de reactiesnelheid in Final Cut als ik door de video heen blader (ProRes 4:2:2 Full HD). Ik heb wel even wat testjes gedaan (achteraf) met Blackmagic Disk Speed Test, de resultaten:

sync=disabled, sparseimage: ~90MByte/s schrijven, ~85MByte/s lezen
sync=standard, sparseimage: ~80MByte/s schrijven, ~90MByte/s lezen
sync=disabled, iSCSI: ~110MByte/s schrijven, ~110MByte/s lezen
sync=enabled, iSCSI: ~110MByte/s schrijven, ~110MByte/s lezen

iSCSI is dus in sequentiele access een behoorlijk stuk sneller, hoewel de andere me niet heel erg tegenvallen om eerlijk te zijn :) Ik heb helaas niet zo 1-2-3 een tooltje dat de random access kan testen. Of in ieder geval, niet iets dat gratis is en op OS X draait :-(
En die eerste test is met Samba? Zijn heel redelijke snelheden hoor, ik ben bang dat je het niet veel sneller gaat krijgen.

* Compizfox hoopt eigenlijk op een nieuw, snel open-source file protocol wat zowel onder FreeBSD, Linux als Windows goed wordt ondersteund...
Je hebt natuurlijk SMB (CIFS heet het eigenlijk nu), maar Samba is niet zo'n hele goede implementatie daarvan voor FreeBSD/Linux (reverse-engineered, tja)
Je hebt ook NFS, wat open-source is, maar waar er voor Windows geen snelle implementatie is. (Er is wel een NFS client voor Windows, maar dat is langzamer dan CIFS, helaas)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 18:19
Nee, ik doe niet aan Samba/NFS :) Ik heb netatalk lopen voor AFP zodat ik niet aan twee kanten met een brakke Samba/CIFS implementatie zit. Het valt me vooral héél erg mee dat ik met iSCSI praktisch aan de limiet van mijn netwerk zit. En helaas kun je een MacBook zo lastig upgraden naar 10GbE :P (om het nog maar niet over de overige kosten te hebben @_@ Server upgrade, switch upgraden, nieuwe kabels...)

EDIT: Also, als je echt een snel protocol wilt, al eens naar FTP gekeken? Veel sneller dan dat ga je het niet krijgen. Maar ja, het is wél vrij oud...

En, het valt me op dat een scrub op een niet in gebruik zijnde mirror echt ontzettend traag is... Ik doe hier nu nog geen 30MByte/s op mijn 1TB mirror. Mijn stapel laptop schijfjes vinden een scrub wel aardig en doen dan ook vrolijk 215+MByte/s. Of zou iSCSI de mirror héél stiekem toch bezig houden?

[ Voor 35% gewijzigd door Xudonax op 04-03-2013 23:06 ]


Acties:
  • 0 Henk 'm!
Het duurt even voor je scrub vaart maakt...

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 18:19
@FireDrunk Die getallen zijn van ongeveer 50% "in" de scrub :)
Maargoed, zolang de scrub maar succesvol afgerond word :+

Acties:
  • 0 Henk 'm!

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 20:38

Pixeltje

Woo-woohoo!

Ik gebruik FreeNAS (inmiddels versie 8.3 en dus) met ZFS v28. Sinds de upgrade van 8.04 Media edition werkt mijn wekelijkse scrub niet meer. Die scrub staat elke week gepland in de nacht van zaterdag op zondag, sinds de upgrade krijg ik in die nacht ruim 60 mailtjes dat er geen scheduled scrub gestart kan worden omdat er al een scrub in progress is. Elke minuut oid kijkt hij hier kennelijk naar want de mailtjes worden ongeveer een minuut na elkaar verstuurd.

Het jammere is dat ik geen foutmeldingen kan vinden; het lijkt erop dat er helemaal geen scrub plaatsvind en dus dat de foutmelding een andere oorzaak heeft. Ik heb inmiddels geprobeerd om de ingeplande scrub weg te gooien, de NAS te rebooten en een nieuwe scrub aan te maken maar ook daarna kreeg ik afgelopen zondagnacht weer 50+ mailtjes met dezelfde melding. Is dit een bekend probleem (google zegt hier niet veel over?) en weet iemand waar ik het moet zoeken?

De geplande scrub is de enige die voor het volume gepland staat, eventuele andere scrubs worden niet ingepland of door mij geinitieerd.

De exacte melding in de mail:
cannot scrub tank: currently scrubbing; use 'zpool scrub -s' to cancel current scrub
Mail heeft het volgende onderwerp:
Cron <root@freenas> PATH="/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/bin:/usr/local/sbin:/root/bin" zpool scrub tank > /dev/null
Vooral de /dev/null lijkt me out-of-place daar?

alvast bedankt!

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


Acties:
  • 0 Henk 'm!
> /dev/null betekend alleen maar dat de output van het programma weggegooid word. Het commando wordt nog steeds uitgevoerd.

Even niets...


Acties:
  • 0 Henk 'm!

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 20:38

Pixeltje

Woo-woohoo!

FireDrunk schreef op dinsdag 05 maart 2013 @ 08:16:
> /dev/null betekend alleen maar dat de output van het programma weggegooid word. Het commando wordt nog steeds uitgevoerd.
Dat is al iets in ieder geval :) Was even bang dat er iets anders naar /dev/null ging :+

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


Acties:
  • 0 Henk 'm!
Vannacht nog een scrub gedraait, maar tevergeefs... De files zijn niet gerepareerd.

Nogmaals @ CiPHER, FreeBSD is de verbinding met de disks NIET kwijt geweest en KVM heeft FreeBSD ook NOOIT die toegang ontzegd. Er zijn 0,0 kernel meldingen over verdwenen device, device timeouts, of enige ander soort problemen omtrent IO in zowel host als guest logs.

De enige meldingen die ik kan vinden, is 1 met een vage CPU instructie foutmelding (bekende KVM bug) en de meldingen gerelateerd aan VirtIO en de tijd.

Het enige wat ik me nu dus voor kan stellen als rootcause, is dat als de tijd moeilijk doet in FreeBSD de checksums niet goed gaan, en dat ZFS' Self Healing aan de slag gaat en het juist kapot repareert.

Maar dat is pretty-far-fetched...

[ Voor 80% gewijzigd door FireDrunk op 05-03-2013 08:25 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • wjn
  • Registratie: Juli 2012
  • Laatst online: 24-09 15:47

wjn

Heeft iemand dit wel eens gehad in ZFSGuru, voor mij de eerste keer:

Afbeeldingslocatie: http://www.mijnalbum.nl/GroteFoto-PNDWHPCE.jpg

Via SSH heb ik wel normale waardes:
Mem: 508K Active, 75M Inact, 7384M Wired, 36K Cache, 440M Free
Swap: 2048M Total, 2048M Free
Ik heb sowieso af en toe problemen met de huidige installatie, 9.1-003 op een Dell PE2950.

Foutmeldingen wijzen op een volle / corrupte swap file. Ik kan dan niet meer via de console, ssh of webinterface inloggen. Shares via SMB / iSCSI zijn wel gewoon benaderbaar.
Als ik reboot is er ca. 1 maand geen probleem.
Hardwarematig is er geen probleem, geen SMART, geen geheugen problemen, etc.

Qua swap lees je op internet dat het wordt afgeraden om dat op een ZFS volume te zetten, maar met verder speuren ligt dat aan de implementatie. De implementatie zoals ZFSGuru dat doet, is goed. De ZFSGuru installatie staat op een SDD (swap dus ook). Deel van die SDD wordt ook als L2ARC gebruikt.

[ Voor 17% gewijzigd door wjn op 05-03-2013 09:53 ]


Acties:
  • 0 Henk 'm!

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 20-10 17:58
Heeft iemand ervaring met het draaien van of hosten van Virtual Machines op ZFS? Ik ben vooral benieuwd naar praktische ervaringen wat betreft opslaan van de disk images.

Je kan kiezen om de disk images op te slaan op zvol's maar ook voor een 'raw' image als file maar wat is beter/sneller/praktischer? Is het dan nog handig om bij lokaal hosten op de ZFS machine te kijken naar iSCSI of is dat alleen maar een extra laag?

Acties:
  • 0 Henk 'm!
Contagion schreef op dinsdag 05 maart 2013 @ 10:29:
Heeft iemand ervaring met het draaien van of hosten van Virtual Machines op ZFS? Ik ben vooral benieuwd naar praktische ervaringen wat betreft opslaan van de disk images.

Je kan kiezen om de disk images op te slaan op zvol's maar ook voor een 'raw' image als file maar wat is beter/sneller/praktischer? Is het dan nog handig om bij lokaal hosten op de ZFS machine te kijken naar iSCSI of is dat alleen maar een extra laag?
Welke hypervisor? Heel veel mensen, waaronder ik, draaien ESXi met NFS... Gaat prima, je moet natuurlijk wel wat meeschalen met disks vs VM's en IOPS.

NFS is kernel implemented dus heel performant.

Acties:
  • 0 Henk 'm!
wjn schreef op dinsdag 05 maart 2013 @ 09:50:
Heeft iemand dit wel eens gehad in ZFSGuru, voor mij de eerste keer:

[afbeelding]

Via SSH heb ik wel normale waardes:


[...]


Ik heb sowieso af en toe problemen met de huidige installatie, 9.1-003 op een Dell PE2950.

Foutmeldingen wijzen op een volle / corrupte swap file. Ik kan dan niet meer via de console, ssh of webinterface inloggen. Shares via SMB / iSCSI zijn wel gewoon benaderbaar.
Als ik reboot is er ca. 1 maand geen probleem.
Hardwarematig is er geen probleem, geen SMART, geen geheugen problemen, etc.

Qua swap lees je op internet dat het wordt afgeraden om dat op een ZFS volume te zetten, maar met verder speuren ligt dat aan de implementatie. De implementatie zoals ZFSGuru dat doet, is goed. De ZFSGuru installatie staat op een SDD (swap dus ook). Deel van die SDD wordt ook als L2ARC gebruikt.
Zit je log filesystem niet toevalig aan z'n quota? Dat heb ik al vaker gezien (zelf meegemaakt, en HyperBart had er ook last van... Dat vinden een hoop applicaties niet leuk).
Contagion schreef op dinsdag 05 maart 2013 @ 10:29:
Heeft iemand ervaring met het draaien van of hosten van Virtual Machines op ZFS? Ik ben vooral benieuwd naar praktische ervaringen wat betreft opslaan van de disk images.

Je kan kiezen om de disk images op te slaan op zvol's maar ook voor een 'raw' image als file maar wat is beter/sneller/praktischer? Is het dan nog handig om bij lokaal hosten op de ZFS machine te kijken naar iSCSI of is dat alleen maar een extra laag?
Wil je de VM's echt onder FreeBSD hosten? Of FreeBSD alleen als storage host gebruiken?
Want dan ligt het vooral aan je platform welke vorm je het beste kan gebruiken.

In het geval van ESXi en/of KVM, zou ik voor NFS gaan, in het geval van Hyper-V moet je voor iSCSI gaan.
NFS zou ik op een los filesystem doen, en iSCSI betekend sowieso ZVOL's

Even niets...


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 21-10 12:58
Na een jaar zonder noemenswaardige problemen, heb ik nu opeens twee keer in een paar dagen last van een time-out(?) probleem:

Volgens dmesg:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
ahcich5: is 00000000 cs 000003fe ss 000003ff rs 000003ff tfd 40 serr 00000000 cmd 0004c017
ahcich5: Timeout on slot 18 port 0
ahcich5: is 00000000 cs 0ff80000 ss 0ffc0000 rs 0ffc0000 tfd 40 serr 00000000 cmd 0004d217
ahcich5: Timeout on slot 4 port 0
ahcich5: is 00000000 cs 00003fc0 ss 00003ff0 rs 00003ff0 tfd 40 serr 00000000 cmd 0004c517
ahcich5: Timeout on slot 22 port 0
ahcich5: is 00000000 cs fe000000 ss ffc00000 rs ffc00000 tfd 40 serr 00000000 cmd 0004d817
ahcich5: Timeout on slot 8 port 0
ahcich5: is 00000000 cs 0003fe00 ss 0003ff00 rs 0003ff00 tfd 40 serr 00000000 cmd 0004c817
ahcich5: Timeout on slot 26 port 0
ahcich5: is 00000000 cs f800000f ss fc00000f rs fc00000f tfd 40 serr 00000000 cmd 0004da17
ahcich5: Timeout on slot 12 port 0
ahcich5: is 00000000 cs 003fe000 ss 003ff000 rs 003ff000 tfd 40 serr 00000000 cmd 0004cc17
ahcich5: Timeout on slot 30 port 0
ahcich5: is 00000000 cs 800000ff ss c00000ff rs c00000ff tfd 40 serr 00000000 cmd 0004de17


Het betreft overigens beide keren dezelfde disk (waarvan het lampje op de HDD-tray blijft branden alsof hij 'in-use' is).
Iemand enig idee wat hier aan de hand kan zijn en of ik me zorgen moet maken?


Hmm, terwijl ik dit zit te typen is het probleem spontaan opgelost en loopt mijn kopieer-actie weer verder zie ik. Misschien een disk die een bad-sector is tegengekomen, of praat ik nu onzin? :+

Acties:
  • 0 Henk 'm!
Bekijk SMART? dan weet je het...

Even niets...


Acties:
  • 0 Henk 'm!

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 20-10 17:58
Ik zit zelf te denken aan Linux omdat ik de meeste ervaring heb met Linux en ZFS-on-Linux me ook prima bevalt in mijn storage server. Ik heb gegeken naar KVM of misschien zelfs Virtualbox. Het is nog niet zeker of de storage server zelf ook de virtual machines gaat hosten maar dat is wel het meest waarschijnlijk. Het onderliggende OS zal dus waarschijnlijk host worden en ook als opslag dienen van de images.

Ik vraag me vooral af of er voordelen of nadelen zijn van een zvol vs een raw image file. Dat iSCSI noodzakelijkerwijs zvol betekent is duidelijk nu maar dat gaat dan waarschijnlijk vooral op als je de virtual machines op een andere computer host. Zijn er bijvoorbeeld ook Hypervisors die zo met ZFS kan omgaan dat een snapshot van een machine ook netjes integreert met een snapshot van ZFS of zou je dat handig kunnen combineren?

Acties:
  • 0 Henk 'm!
Nee, die zijn er (nog) niet. Wat dat betreft zou je in theorie natuurlijk 1 filesystem per VM kunnen maken, en niet de VM snapshotten maar dat filesystem. ZFS kan daar prima tegen.

Je kan de snapshots dan ook gebruiken als een soort backup...

Even niets...


Acties:
  • 0 Henk 'm!

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 20-10 17:58
Daar heb ik aan gedacht, maar dan snapshot je een 'disk' van een draaiende machine. De meeste operating systems vinden dat niet zo fijn :). Als je dan je snapshot terug zet is er alsnog allerlei corruptie omdat je midden in transacties van open files zat. (ZFS weet dat immeers niet zodra je een snapshot maakt). Je zou dan dus de virtuale machine eerst moeten afsluiten, snapshotten (met ZFS) en dan weer opstarten. Dat is niet ideaal.

Acties:
  • 0 Henk 'm!
Dat klopt, wat je doet: Je maakt een snapshot van een VM, daarna snapshot je met ZFS.
Mocht je de VM willen restoren, restore je het filesystem naar de vorige versie, en zet je daarna het snapshot terug.

Even niets...


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 21-10 12:58
FireDrunk schreef op dinsdag 05 maart 2013 @ 11:06:
Bekijk SMART? dan weet je het...
Kun je SMART data ook resetten?

Ik heb in het verleden wat kabel errors gehad en die waardes blijven nu in m'n smart data staan, maar ik weet echt niet precies hoeveel het er waren en of er dus wel of niet een paar bij gekomen zijn nu.....

Acties:
  • 0 Henk 'm!
Nee helaas, voor zover ik weet niet.. Dat wil ik eigenlijk ook...

Mijn disks zijn nu zo goed als onverkoopbaar geworden...

Even niets...


Acties:
  • 0 Henk 'm!

  • wjn
  • Registratie: Juli 2012
  • Laatst online: 24-09 15:47

wjn

FireDrunk schreef op dinsdag 05 maart 2013 @ 10:34:
[...]


Zit je log filesystem niet toevalig aan z'n quota? Dat heb ik al vaker gezien (zelf meegemaakt, en HyperBart had er ook last van... Dat vinden een hoop applicaties niet leuk).
Daar kan ik wel induiken, goede tip.
(Eerst maar uitzoeken hoe dat moet in FreeBSD.)

Acties:
  • 0 Henk 'm!
df -h
rootpool/zfsguru/9.1-005/var/log 128M 282k 127M


Size / used / avail

Even niets...


Acties:
  • 0 Henk 'm!

  • wjn
  • Registratie: Juli 2012
  • Laatst online: 24-09 15:47

wjn

Filesystem Size Used Avail Capacity Mounted on
zfsssdboot/zfsguru/9.1-003/var/log 1.0G 1.6M 1G 0% /var/log
Rest komt ook niet boven de 50% uit, alleen devfs is 100%, maar dat schijnt normaal te zijn.

Ik denk dat ik toch maar upgrade naar 9.1-005, kijken hoe de shares / iscsi meekomen.

Acties:
  • 0 Henk 'm!
Trek even een backup van je root pool ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 14:18

B2

wa' seggie?

Ik kwam erachter dat 4 oudere disken in mijn nieuwe 12 disk pool bad sectors bevatten. Ze zaten allemaal nog in de garantie, dus de replacements zijn al binnen.
Hoe kan ik dit nu het beste aanpakken, 1 voor 1 vervangen? Eventueel is het ook nog mogelijk om de pool weg te gooien en een nieuwe met nieuwe disks op te bouwen, de data is nog wel gebackupped...

Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 14:18

B2

wa' seggie?

Raid-z2, maar de pool is al degraded. Ik denk dat ik maar voor opnieuw aanmaken ga...ben ik maar een paar dagen downloads data kwijt

Acties:
  • 0 Henk 'm!
Als je toch backups hebt, kan je gewoon alle schijven in 1 keer vervangen. RAIDZ2 rebuild 2 schijven tegelijkertijd, en mocht er iets fout gaan, zet je je backup terug..

Even niets...


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 14:18

B2

wa' seggie?

FireDrunk schreef op woensdag 06 maart 2013 @ 15:01:
Als je toch backups hebt, kan je gewoon alle schijven in 1 keer vervangen. RAIDZ2 rebuild 2 schijven tegelijkertijd, en mocht er iets fout gaan, zet je je backup terug..
Dus het maakt niet uit dat er dan eigenlijk 4 schijven tegelijk vervangen worden? Je gooit dan toch eigenlijk ook 4 schijven uit de pool? En dat zouden er bij raidz2 toch maar max 2 mogen zijn?

Acties:
  • 0 Henk 'm!

  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
B2 schreef op woensdag 06 maart 2013 @ 16:08:
[...]


Dus het maakt niet uit dat er dan eigenlijk 4 schijven tegelijk vervangen worden? Je gooit dan toch eigenlijk ook 4 schijven uit de pool? En dat zouden er bij raidz2 toch maar max 2 mogen zijn?
Dat denk ik toch ook. Twee maal twee schijven vervangen dus, en niet vier schijven in één keer...

Acties:
  • 0 Henk 'm!
Ja sorry, ik verwoord mij verkeerd, je kan inderdaad gewoon 2 schijven per keer vervangen.

Ik bedoelde vooral dat 1 voor 1 niet perse nodig is bij ZFS, 2 tegelijk gaat prima bij RAIDZ2

Even niets...


Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
HyperBart schreef op dinsdag 05 maart 2013 @ 10:32:
[...]

Welke hypervisor? Heel veel mensen, waaronder ik, draaien ESXi met NFS... Gaat prima, je moet natuurlijk wel wat meeschalen met disks vs VM's en IOPS.

NFS is kernel implemented dus heel performant.
Interessant.

Heb je dan je storage fysiek? Dus los van je ESX Host?
Ik zit enorm te twijfelen of ik 2 losse machines ga bouwen, of 1 ESX Host, en daar FreeNAS in een VM draaien. Als het goed is, is de VMXNET3 NIC werkend te krijgen in FreeNAS, en dan heb je 10Gbit naar je vSwitch. Ik weet alleen niet of de host zelf ook een 'uplink naar de vswitch' kan krijgen van 10Gbit. Weten jullie dit?

Dit lijkt me stukken beter te performen dan een losse machine? Waar je toch wel gelimiteerd bent aan 1Gb, of een veelvoud hiervan dmv etherchannels (of, trunking, in geval van mijn HP switch :+ ).

Is de limiteerde factor je netwerk, of eerder de IOPS? (met zeg, 5* 4TB disks).

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 17-10 21:45
Ik zou het even 1 voor 1 doen.
Je haalt twee schijven uit je raid, je hebt daarna geen redundantie meer.
Je geeft aan dat het oude schijven betreft, en deze krijgen het tijdens een resilver redelijk voor hun kiezen.
Ik heb vaker gezien dat met resilveren de schijven die ook tegen uitvallen aanlopen hierdoor ook onderuit gaan.
De schijf die nu gemarkeerd is binnen de pool het eerst vervangen.
Daarna de andere, en dan heb je eventueel de keuze om de twee goede te vervangen aangezien de pool draait op twee nieuwe, maar ook dat is geen garantie.

gr

Acties:
  • 0 Henk 'm!
Extera schreef op donderdag 07 maart 2013 @ 09:32:
[...]


Interessant.

Heb je dan je storage fysiek? Dus los van je ESX Host?
Ik zit enorm te twijfelen of ik 2 losse machines ga bouwen, of 1 ESX Host, en daar FreeNAS in een VM draaien. Als het goed is, is de VMXNET3 NIC werkend te krijgen in FreeNAS, en dan heb je 10Gbit naar je vSwitch. Ik weet alleen niet of de host zelf ook een 'uplink naar de vswitch' kan krijgen van 10Gbit. Weten jullie dit?

Dit lijkt me stukken beter te performen dan een losse machine? Waar je toch wel gelimiteerd bent aan 1Gb, of een veelvoud hiervan dmv etherchannels (of, trunking, in geval van mijn HP switch :+ ).

Is de limiteerde factor je netwerk, of eerder de IOPS? (met zeg, 5* 4TB disks).
HyperBart heeft all-in-one ;)
VMXNET3 werkend krijgen onder FreeBSD is vrij simpel. Hoe dit onder FreeNAS moet weet ik niet, maar de nieuwste versie van VMware tools werkt gewoon out-of-the-box op FreeBSD.
Je 'host' is niks onder ESXi? Waarom zou dat ding zelf 10Gb moeten hebben? Een vSwitch is niets meer dan en stukje software waarop hij VM's knoopt.

Als je bedoelt dat je > 1Gb wil halen naar buiten door middel van trunken van poorten dan kan dat inderdaad. MAAR niet met 1-op-1 verbindingen. ESXi ondersteund LACP, maar inherent aan die technologie kan je alleen 1Gb 1-op-1 verbindingen maken en nooit > 1Gb verstoken tussen 1 client en 1 VM.

Wel kan je dus door meerdere verbindingen op te zetten over meerdere IP adressen (zoals met iSCSI kan) een soort concurrency creeeren waardoor je wel over meerdere netwerkaarten gaat.

De iSCSI implementatie in Windows 8 ondersteund wel multipathing.

Even niets...


Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Je spreek je NFS share toch aan met een source address? Deze zal toch op een adapter ergens leven met een bepaalde bandwith?

Ik snap dat je over een LACP trunk niet meer dan 1Gb per sessie kan halen zonder multipath ondersteuning. Ik vraag me af hoe ESX hier mee om gaat. Heeft iedere VM 1 sessie naar de via NFS gemounte share, of is dit 1 sessie van de ESX host.

Ik bedenk me echter net dat deze vragen beter thuishoren in [Discussie] Storage en virtualisatie

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!
Dan gaan we daar verder :)

Even niets...


Acties:
  • 0 Henk 'm!

  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
@CiPHER: hoe kan ik in de webgui van ZFSguru oude images als 9.1-004 deleten? Of kan dit alleen met zfs destroy in ssh?

Acties:
  • 0 Henk 'm!
Gister mijn Areca 1300ix binnen gekregen en in mijn server gehangen. Driver is geinjecteerd en het ding werkt :) Heb mijn rootpool (2*80GB Intel 320 SSD's) er aan gehangen en geboot.

Daarna een scrub gestart op de rootpool, en ook dat ging allemaal vlekkeloos.
Ook even een 10GB file aangemaakt met DD en weer verwijderd.

Iemand nog meer tests die ik moet doen om zeker te weten dat de controller compatible is met ZFS?

Even niets...


Acties:
  • 0 Henk 'm!

  • aaahaaap
  • Registratie: November 2010
  • Laatst online: 13:52
Contagion schreef op dinsdag 05 maart 2013 @ 11:08:
Ik vraag me vooral af of er voordelen of nadelen zijn van een zvol vs een raw image file. Dat iSCSI noodzakelijkerwijs zvol betekent is duidelijk nu maar dat gaat dan waarschijnlijk vooral op als je de virtual machines op een andere computer host. Zijn er bijvoorbeeld ook Hypervisors die zo met ZFS kan omgaan dat een snapshot van een machine ook netjes integreert met een snapshot van ZFS of zou je dat handig kunnen combineren?
Sowieso is het toch vrij ongunstig om ZVOL's te gebruiken voor je VM's aangezien je snapshots dan veel groter zijn/meer data gebruiken dan nodig?

Vroeg me daarom af of het mogelijk is Root-on-ZFS te doen met VM guests of dat dat een slecht idee is.
Root-on-NFS, zie hier http://maverick.homelinux.net/blog/?p=342, heb ik al werkend en lost eigenlijk ook het merendeel van deze problemen op.

Acties:
  • 0 Henk 'm!

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 20-10 17:58
@B2:

Als je alle oude disks nog hebt en je kan fysiek 4 disks op een controller aansluiten dan zou ik ervoor kiezen om ze ALLEMAAL tegelijk te resilveren. Dat gaat en het snelst en is het meest redundant, immers; alle oude schijven (ok een aantal met bad sectors maar dat is waarschijnlijk nog geen 0.01% van alle data) doen ook mee en worden tegelijk gelezen en de CRCs gecheckt.

Als je 2 schijven weghaalt en je daar 2 anderen voor plaatst begin je al 'worst case' want er is op dat moment geen redundantie (aan de andere kant; ALS het mis gaat dan plaats je weer een van de originele schijven en begint opnieuw).

Een voor een kan natuurlijk ook dan heb je tijdens resilveren nog 'RaidZ1' dus als je geen mogelijkheid hebt om de nieuwe disks erbij te plaatsen (op andere controller, esata, USB) wellicht het meest veilig, maar duurt ook het langst.
Pagina: 1 ... 65 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.