Gewoon een heel grote verzameling snoertjes
Je kan er overigens ook voor kiezen om bijv. je mail via gmail te laten lopen: http://easyos.net/article..._to_send_email_in_freebsd
[ Voor 54% gewijzigd door CurlyMo op 12-10-2014 22:58 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Eigenlijk wou ik het laten lopen via mijn mailserver die op de VM 'naast hem' draait, maar aan die link heb ik wel wat, thxCurlyMo schreef op zondag 12 oktober 2014 @ 22:55:
Je kan er overigens ook voor kiezen om bijv. je mail via gmail te laten lopen: http://easyos.net/article..._to_send_email_in_freebsd
[ Voor 74% gewijzigd door Compizfox op 12-10-2014 23:01 ]
Gewoon een heel grote verzameling snoertjes
BSD heeft zijn dagelijkse emails via Cron, daarbij kan ook de ZFS pool status worden doorgegeven. Tevens kun je regelmatige scrubs laten uitvoeren.Compizfox schreef op zondag 12 oktober 2014 @ 22:46:
Heeft ZFSGuru eigenlijk geen feature dat je een email-alert krijgt op het moment dat een disk failt?
Heel leuk dat ZFSGuru een webinterface heeft waarop de status van je pools en schijven te zien is, maar ik kijk daar niet dagelijks op dus als een schijf failt heb ik het waarschijnlijk niet eens door. Niet zo handig eigenlijk, bedacht ik me plotseling.
Maar je hebt gelijk als je zegt dat deze functionaliteit niet via de ZFSguru web-interface wordt geboden. Aangezien dit iets is wat op de achtergrond uitgevoerd wordt; betekent dit dat de Task Manager functionaliteit eerst moet worden gebouwd. Dat kan nog even duren. Tot die tijd kun je dus het beste een cron-script installeren. Wat CurlyMo heeft gepost kun je gebruiken, of zoiets als in deze guide: https://calomel.org/zfs_health_check_script.html.
ZFSguru is ook nog niet af qua core features. Zie de beperkingen: http://zfsguru.com/doc/limitationsCompizfox schreef op zondag 12 oktober 2014 @ 23:00:
Tja, het lijkt mij een redelijk belangrijke core-feature eigenlijk.
[ Voor 11% gewijzigd door Verwijderd op 13-10-2014 00:03 ]
Ik heb het nu inderdaad in /etc/periodic/daily gegooid.
En je SSL-certificaat voor https://zfsguru.com is kapot; die is namelijk alleen geldig voor alpha.zfsguru.com.
Gewoon een heel grote verzameling snoertjes
Daar is hij ook voor bedoeld.
Echt SSL cert komt met de nieuwe server.
Zie voor standaard Periodic cronjobs:
/etc/periodic/daily/404.status-zfs
/etc/periodic/daily/800.scrub-zfs
Die kun je activeren door in /etc/periodic.conf te plaatsen:
1
2
3
4
5
6
7
8
9
| # 404.status-zfs daily_status_zfs_enable="NO" # Check ZFS daily_status_zfs_zpool_list_enable="YES" # List ZFS pools # 800.scrub-zfs daily_scrub_zfs_enable="NO" daily_scrub_zfs_pools="" # empty string selects all pools daily_scrub_zfs_default_threshold="35" # days between scrubs #daily_scrub_zfs_${poolname}_threshold="35" # pool specific threshold |
Wat ik wil is een ZFS storage, met daarnaast ook de mogelijkheid VM's te draaien op dezelfde machine.
Nou gaat mijn voorkeur naar ESXi + ZFSguru waar ik de schijven direct doorgeef aan de VM, maar ik lees op meerdere plaatsen op het internet dat dat vragen om problemen is.
Daarnaast las ik dat je ook Virtualbox op ZFSguru zou kunnen draaien.
Mijn vraag is, wat zijn hierin jullie ervaringen?
Zuinige ESXi Server
Uitgebreid uitgelegd.
De TS staat vol met dingen die nuttig zijn voor ZFS (Zie kopje "Doorgeven complete HBA").
[ Voor 3% gewijzigd door FireDrunk op 13-10-2014 10:13 ]
Even niets...
Na de upgrade en reboot vind ik de zpool in de volgende state:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
| root@server:~$ zpool status -v pool: tank state: UNAVAIL status: One or more devices could not be used because the label is missing or invalid. There are insufficient replicas for the pool to continue functioning. action: Destroy and re-create the pool from a backup source. see: http://zfsonlinux.org/msg/ZFS-8000-5E scan: none requested config: NAME STATE READ WRITE CKSUM tank UNAVAIL 0 0 0 insufficient replicas raidz2-0 UNAVAIL 0 0 0 insufficient replicas scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0061334 UNAVAIL 0 0 0 scsi-SATA_WDC_WD30EFRX-68_WD-WCC1T0418462 UNAVAIL 0 0 0 scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0074906 UNAVAIL 0 0 0 scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0075172 UNAVAIL 0 0 0 scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0076274 UNAVAIL 0 0 0 scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0078222 UNAVAIL 0 0 0 scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0568807 UNAVAIL 0 0 0 scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0580606 UNAVAIL 0 0 0 scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0656559 UNAVAIL 0 0 0 scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0658861 UNAVAIL 0 0 0 |
Als ik /dev/disk/by-id bekijk zie ik dat de disks (symlinks) in bovenstaande zpool status niet meer bestaan (maar voor de upgrade nog wel). De fysieke disks c t/m l bestaan nog wel voor het systeem maar het lijkt er op dat ze nu een andere naam hebben:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
| root@server:~$ dir /dev/disk/by-id/* lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/ata-ST31500341AS_9VS16WYF -> ../../sda lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-ST31500341AS_9VS16WYF-part1 -> ../../sda1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-ST31500341AS_9VS16WYF-part2 -> ../../sda2 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-ST31500341AS_9VS16WYF-part3 -> ../../sda3 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-ST31500341AS_9VS16WYF-part4 -> ../../sda4 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/ata-ST31500341AS_9VS18TCQ -> ../../sdb lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-ST31500341AS_9VS18TCQ-part1 -> ../../sdb1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-ST31500341AS_9VS18TCQ-part2 -> ../../sdb2 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-ST31500341AS_9VS18TCQ-part3 -> ../../sdb3 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-ST31500341AS_9VS18TCQ-part4 -> ../../sdb4 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WCC1T0418462 -> ../../sdd lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WCC1T0418462-part1 -> ../../sdd1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WCC1T0418462-part9 -> ../../sdd9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0061334 -> ../../sdc lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0061334-part1 -> ../../sdc1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0061334-part9 -> ../../sdc9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0074906 -> ../../sdi lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0074906-part1 -> ../../sdi1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0074906-part9 -> ../../sdi9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0075172 -> ../../sdg lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0075172-part1 -> ../../sdg1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0075172-part9 -> ../../sdg9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0076274 -> ../../sdf lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0076274-part1 -> ../../sdf1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0076274-part9 -> ../../sdf9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0078222 -> ../../sde lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0078222-part1 -> ../../sde1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0078222-part9 -> ../../sde9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0568807 -> ../../sdl lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0568807-part1 -> ../../sdl1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0568807-part9 -> ../../sdl9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0580606 -> ../../sdj lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0580606-part1 -> ../../sdj1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0580606-part9 -> ../../sdj9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0656559 -> ../../sdk lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0656559-part1 -> ../../sdk1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0656559-part9 -> ../../sdk9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0658861 -> ../../sdh lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0658861-part1 -> ../../sdh1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T0658861-part9 -> ../../sdh9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/md-name-server:0 -> ../../md0 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/md-name-server:1 -> ../../md1 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/md-name-server:2 -> ../../md2 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/md-uuid-1ff74d48:3aae95e5:9e605e97:f56030f1 -> ../../md2 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/md-uuid-ac8d2ff3:4eb5a01e:7bd3cc96:4450a294 -> ../../md1 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/md-uuid-b2346b8d:673d8dc7:c2cb2128:4fa10cc8 -> ../../md0 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/wwn-0x5000c50009d682f7 -> ../../sdb lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x5000c50009d682f7-part1 -> ../../sdb1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x5000c50009d682f7-part2 -> ../../sdb2 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x5000c50009d682f7-part3 -> ../../sdb3 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x5000c50009d682f7-part4 -> ../../sdb4 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/wwn-0x5000c50009d8cf43 -> ../../sda lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x5000c50009d8cf43-part1 -> ../../sda1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x5000c50009d8cf43-part2 -> ../../sda2 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x5000c50009d8cf43-part3 -> ../../sda3 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x5000c50009d8cf43-part4 -> ../../sda4 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee00359c650 -> ../../sdc lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee00359c650-part1 -> ../../sdc1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee00359c650-part9 -> ../../sdc9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee058ae52ba -> ../../sde lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee058ae52ba-part1 -> ../../sde1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee058ae52ba-part9 -> ../../sde9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee058ae7885 -> ../../sdf lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee058ae7885-part1 -> ../../sdf1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee058ae7885-part9 -> ../../sdf9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee058aed511 -> ../../sdi lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee058aed511-part1 -> ../../sdi1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee058aed511-part9 -> ../../sdi9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee0ae045753 -> ../../sdg lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee0ae045753-part1 -> ../../sdg1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee0ae045753-part9 -> ../../sdg9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee208186cca -> ../../sdd lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee208186cca-part1 -> ../../sdd1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee208186cca-part9 -> ../../sdd9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee602cdf335 -> ../../sdk lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee602cdf335-part1 -> ../../sdk1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee602cdf335-part9 -> ../../sdk9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee602ce3edd -> ../../sdh lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee602ce3edd-part1 -> ../../sdh1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee602ce3edd-part9 -> ../../sdh9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee602ce57f8 -> ../../sdl lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee602ce57f8-part1 -> ../../sdl1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee602ce57f8-part9 -> ../../sdl9 lrwxrwxrwx 1 root root 9 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee658238e9a -> ../../sdj lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee658238e9a-part1 -> ../../sdj1 lrwxrwxrwx 1 root root 10 Oct 13 16:00 /dev/disk/by-id/wwn-0x50014ee658238e9a-part9 -> ../../sdj9 |
Ik verder nog niets gedaan. Hoe zet ik dit het beste weer recht?
Bouwt 'ie dan een nieuwe configuratie of zo?
Nu kijken of ik de rest van de upgrade recht kan zetten. Helemaal foutloos gaat dat nog niet..
Wat lukt er niet?
Even niets...
Echter door de manier waarop xenserver de schijven doorgeeft is de mapping van fysieke drives naar devices in de DomU nogal intransparant. /dev/disk/by-id is bijvoorbeeld niet gevuld, waardoor ik alleen op device naam kon werken. Mijn vraag is nu hoe ik eventueel kan identificeren welk device overeenkomt met welke schijf. Een serial number opvragen in de DomU werkt niet. Een schijf eruit halen levert ook geen goed resultaat op, daar het doorgeven vanuit de Dom0 de volgorde redelijk kan verstoren.
Kan ik op een of andere manier in de DomU zien welke schijf het is? Iemand een goed idee?
Thanks,
Averell
PS direct disk access methode volgens https://wiki.xenserver.org/XCP_DirectDiskAccess
The ZFS Storage Blog!
[ Voor 64% gewijzigd door FireDrunk op 14-10-2014 16:03 ]
Even niets...
Maar mijn vraag was dus is er een manier om een mooie visuele interface te hebben voor zfs, ik gebruikte nu zol en de terminal maar zoals ik zei dat is echt niet gemakkelijk... En zo niet, kan iemand die wat meer internet kennis heeft en wel een goede manual weet voor zol en dergelijke die link eens geven,
Bedankt!!!
Nee, als je zfs op whole devices gebruikt kan je niet meer switchen. (Tenzij je je pool opnieuw aanmaakt.)Averell schreef op dinsdag 14 oktober 2014 @ 16:08:
Ok, ik heb zitten kijken naar labels, maar vraag me af of ik die ongestraft kan zetten op een bestaand device wat al deel uitmaakt van een ZFS pool.
Even niets...
Even niets...
De enige voorwaarden,Extera schreef op vrijdag 10 oktober 2014 @ 09:24:
@ Pantagruel, als je eens wilt testen of het werkt via een riser, dan heb ik er nog meer dan zat liggen waar ik niets voor hoef te hebben...
Kort door de bocht: Ja het werkt,Extera schreef op vrijdag 10 oktober 2014 @ 10:00:
Thanks!
PM even je adres, dan stuur ik wel 1 op.
Met als voorwaarde dat je de resultaten post

Maar zoals t tweakers betaamt, 'Pic's or it didn't happen:
Bij thuiskomst lag er een bruine enveloppe op de mat, het bergje reclame-afval papier kon mijn aandacht niet vangen en kreeg een schop terzijde.
Schaar, scalpel, tamponeren zuster en de inhoud van het pakje is vrij geprepareerd:

Het PCIe riserbordje, USB kabel en PCIe 1x met USB aansluiting voor data verkeer en een SATA->Molex verloopje voor de 'prik'.
Close up van het PCIe riser kaartje

Zoals het bij een beetje tweaker gaat; de gehele opstelling natuurlijk uitermate ESD (on)verantwoordelijk opgebouwd, min of meer 'naakt' op een doosje en de SATA disk op bubbelwrap

De linker(naar boven stekende) SFF-8087 kabel gaat naar de M1015 (reflashed tot 9210-8i in IT mode).
De rechter(naar boven stekende) SFF-8087 kabel gaat naar de SATA disk (320 GB) die op 't bubbelzakje ligt.
De twee SFF08087 naar SATA kabels (rood) gaan naar de bestaande RAIDZ2 array.
Het PCIe riserbordje is voorzien van een USB aansluiting voor evt. data verkeer, normaal dient dit soort PCIe riser bordjes om GPU's te huisvesten voor coin mining (bit-, lite-, dog-, etc. ) in ieder geval, deze is nu ongebruikt, de molex aansluiting verzorgd 't sap voor de SAS expander.
En dan het moment van de waarheid, vingers kruizen, powerknop indrukken, blik afwenden voor als de boel op gaat in magische rook en afwachten. De SAS expander krijgt in ieder geval prik via het PCIe slot (en dus van de molex aansluiting), t groene ledje brandt dus dat lijkt wel snor te zitten.
Dmv het indrukken van CTRL+C combinatie het BIOS van de SAS2008 HBA inkomen en zien of de HBA de SAS expander wilt zien.

In ieder geval 'ziet' de HBA de Lenovo SAS card, de info komt overeen met de situatie als de SAS expander in een PCIe slot is gestoken.
Vervolgens de doorstart en wachten, de X9SCM-F is nu eenmaal niet zo snel als t gaat om opstarten.
Nadat ZFSguru "up and running" is eens een blik in 't 'disks' menu werpen en wat zien we daar:

De 320 GiB SATA disk is zichtbaar (donkergrijs), dus disks aan de tweede naar bovenstekende aansluitingen zijn zichtbaar mag de conclusie dus zijn.
Voor hen die in de gauwigheid hebben meegeteld: 9 'da' disks zijn te zien ( 0 t/m 8 ) en dus 9 disks hangen aan de ge-reflashede M1015 wat er dus één meer is dan de 8 stuks die normaal aan een M1015 worden aangesloten.
Dus ja, de PCIe riser werkt en maakt het mogelijk om een SAS expander welke geen onboard power aansluiting heeft (itt de Intel RES2CV240) direct van prik te voorzien zonder dat het ten koste gaat van een PCIe slot van je moederbord. Uiteindelijk is het dan toch jammer dat een bruikbaar slot enkel en alleen in gebruik is als spanningsvoorziening.
De kosten zijn overigens te overzien, vanaf Ebay betrek je zo'n PCIe riser kaartje tussen de $5 a $10 excl. verzending, naar mijn zin wel een nuttige investering.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ook goed om te zien dat het werkt!
Deze risers kan je prima monteren in een 19"chassis naast het moederbord, zo kan perfect uitbreiden zonder een bord met veel PCI-E sloten te moeten aanschaffen. De riser kan je dan zelfs nog vastschroeven in het chassis (de meeste zullen 7 sloten hebben voor full-atx support).
Leuke combi met een Asrock C2750D4i!
Thanks, tja als je t dan toch doet...Extera schreef op dinsdag 14 oktober 2014 @ 22:32:
Cool dat je er een complete review van hebt gemaakt
![]()
Ook goed om te zien dat het werkt!
Deze risers kan je prima monteren in een 19"chassis naast het moederbord, zo kan perfect uitbreiden zonder een bord met veel PCI-E sloten te moeten aanschaffen. De riser kan je dan zelfs nog vastschroeven in het chassis (de meeste zullen 7 sloten hebben voor full-atx support).
Leuke combi met een Asrock C2750D4i!
Klopt, de riser is vanonder van een isolerende laag schuim voorzien en heeft langs de rand gaten. Met een beetje geluk (en anders een accu boor/schroef machine) zet je hem op de back/bodem plaat vast.
Of de Asrock C2750D4i een juiste keuze is, weet ik niet. Als ik me niet vergis heeft dat bordje enkel SATA aansluitingen en geen SAS poorten. Iets a la de P9AIC25504L van Asus wellicht.
[ Voor 17% gewijzigd door Pantagruel op 14-10-2014 22:56 . Reden: Asus Avoton bordje ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Even niets...
Jammer genoeg heb ik nog de juiste meetapparatuur nog de kennis om t op verantwoorde wijze te doen, die eer laat ik aanmux over. Sinds de bokkie-wokkie meter van de bouwmarkt het leven liet, heb ik geen ander aangeschaft. (Energy check 3000 was toch wel redelijk goed?)FireDrunk schreef op dinsdag 14 oktober 2014 @ 23:08:
Kan je nog eens meten wat het ding aan stroom verbruikt?
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Maar zelfs een magere meter kan het verschil wel zien als het basis verbruik maar hoog genoeg is.
Je kan ook gewoon een multimeter tussen de stroomvoorziening van de riser bouwen
Even niets...
Altijd leuk om wat nieuws te leren. Welke multimeter is betaalbaar en kan de toets van de tweakers alhier doorstaan?FireDrunk schreef op dinsdag 14 oktober 2014 @ 23:24:
Nee, EC3000 is poepEM3000 of EL3000 zijn beter.
Maar zelfs een magere meter kan het verschil wel zien als het basis verbruik maar hoog genoeg is.
Je kan ook gewoon een multimeter tussen de stroomvoorziening van de riser bouwen
(/me verjaart binnenkort, dus wellicht een leuk cadeautje)
[ Voor 6% gewijzigd door Pantagruel op 15-10-2014 00:02 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Op centos 5/6/7, ubuntu 12.04 /14.04, Win2k08R2 std krijg ik de zabbix agent prima aan de praat. Echter lukt het me niet te fixen op ZFSguru 10.1-001 beta9 v5000 64-bit.
192.168.0.103 / Aristoteles (ZFSguru bak)
192.168.1.153 / Bias (Zabbix)
Ik zie het volgende:
1
2
3
4
5
6
7
| [root@aristoteles /usr/local/etc/zabbix22]# ps aux | grep zabbix zabbix 28914 0.0 0.0 25364 2032 - I 1:31PM 0:00.00 /usr/local/sbin/zabbix_agentd zabbix 28915 0.0 0.0 25364 2156 - S 1:31PM 0:00.05 zabbix_agentd: collector [idle 1 sec] (zabbix_agentd) zabbix 28916 0.0 0.0 25364 2072 - I 1:31PM 0:00.00 zabbix_agentd: listener #1 [waiting for connection] (zabbix_agentd) zabbix 28917 0.0 0.0 25364 2072 - I 1:31PM 0:00.00 zabbix_agentd: listener #2 [waiting for connection] (zabbix_agentd) zabbix 28918 0.0 0.0 25364 2072 - I 1:31PM 0:00.00 zabbix_agentd: listener #3 [waiting for connection] (zabbix_agentd) zabbix 28919 0.0 0.0 25364 2092 - S 1:31PM 0:00.03 zabbix_agentd: active checks #1 [idle 1 sec] (zabbix_agentd) |
1
2
3
| [root@aristoteles /usr/local/etc/zabbix22]# netstat -an | grep 10050 tcp4 0 0 192.168.0.103.10050 192.168.1.153.49912 TIME_WAIT tcp4 0 0 192.168.0.103.10050 *.* LISTEN |
De agent draait en er wordt geluisterd op de juiste poort.
Een telnet test op 10050 geeft het volgende: (binnen 1 seconde)
1
2
3
4
5
| zabbix@bias:~> telnet aristoteles 10050 Trying 192.168.0.103... Connected to aristoteles. Escape character is '^]'. Connection closed by foreign host. |
Voor zover draait er geen firewall op ZFSguru? Dus dat zou het probleem niet moeten zijn (correct me if i'm wrong). Heeft er iemand ervaring met de zabbix agent op ZFSguru? Ik zag dat je het hele pakket kunt installeren in de GUI, maar wil graag alleen de agent.
//edit:
Extra info:
1
2
3
4
5
6
7
8
9
| [root@aristoteles /etc]# kldstat Id Refs Address Size Name 1 19 0xffffffff80200000 1765cb8 kernel 2 1 0xffffffff81966000 244ee0 zfs.ko 3 2 0xffffffff81bab000 5d18 opensolaris.ko 4 1 0xffffffff81bb1000 3648 geom_uzip.ko 5 1 0xffffffff81bb5000 4e110 pf.ko 6 1 0xffffffff81c04000 f5e0 aio.ko 7 1 0xffffffff81e12000 d2f coretemp.ko |
1
2
3
4
5
6
7
8
9
10
| [root@aristoteles /usr/local/etc/zabbix22]# ls -ltra total 64 -rw-r--r-- 1 root wheel 7508 Sep 30 20:56 zabbix_agentd.conf -rw-r--r-- 1 root wheel 7486 Oct 15 13:14 zabbix_agentd.conf.sample drwxr-xr-x 2 root wheel 2 Oct 15 13:14 zabbix_agentd.conf.d -rw-r--r-- 1 root wheel 2509 Oct 15 13:14 zabbix_agent.conf.sample drwxr-xr-x 2 root wheel 2 Oct 15 13:14 zabbix_agent.conf.d drwxr-xr-x 19 root wheel 40 Oct 15 13:16 .. drwxr-xr-x 4 root wheel 8 Oct 15 13:17 . -rw-r--r-- 1 root wheel 7499 Oct 15 13:31 zabbix-agentd.conf |
Inhoud van zabbix_agentd.conf
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
| ### Option: Server # List of comma delimited IP addresses (or hostnames) of Zabbix servers. # Incoming connections will be accepted only from the hosts listed here. # If IPv6 support is enabled then '127.0.0.1', '::127.0.0.1', '::ffff:127.0.0.1' are treated equally. # # Mandatory: no # Default: # Server= Server=192.168.l.153 ### Option: ListenPort # Agent will listen on this port for connections from the server. # # Mandatory: no # Range: 1024-32767 # Default: ListenPort=10050 ### Option: ListenIP # List of comma delimited IP addresses that the agent should listen on. # First IP address is sent to Zabbix server if connecting to it to retrieve list of active checks. # # Mandatory: no # Default: ListenIP=192.168.0.103 ### Option: ServerActive # List of comma delimited IP:port (or hostname:port) pairs of Zabbix servers for active checks. # If port is not specified, default port is used. # IPv6 addresses must be enclosed in square brackets if port for that host is specified. # If port is not specified, square brackets for IPv6 addresses are optional. # If this parameter is not specified, active checks are disabled. # Example: ServerActive=127.0.0.1:20051,zabbix.domain,[::1]:30051,::1,[12fc::1] # # Mandatory: no # Default: # ServerActive= ServerActive=127.0.0.1 ### Option: Hostname # Unique, case sensitive hostname. # Required for active checks and must match hostname as configured on the server. # Value is acquired from HostnameItem if undefined. # # Mandatory: no # Default: # Hostname= Hostname=aristoteles.domain.com |
Firewall staat uit:
1
2
| [root@aristoteles /usr/local/etc/zabbix22]# cat /etc/rc.conf| grep pf #pf_enable="YES" |
[ Voor 41% gewijzigd door Vuurvoske op 15-10-2014 16:40 ]
Beroeps brabander
1
2
3
4
5
6
| zabbix@bias:~> telnet aristoteles 10050 Trying 192.168.0.103... Connected to aristoteles. Escape character is '^]'. system.uname ZBXD▒FreeBSD aristoteles.domain.com 10.0-STABLE FreeBSD 10.0-STABLE #0: Sun Apr 20 21:20:08 UTC 2014 jason@zfsguru:/usr/obj/tmpfs/2-source/sys/NEWCONS-OFED-POLLING-ALTQ amd64Connection closed by foreign host. |
Jullie mogen allemaal keihard lachen. Maar het bleek dat:
Server=192.168.l.153 ingesteld stond. Ja echt, er stond een kleine L in plaats van een 1.
Case closed


Beroeps brabander
Ben naar FILES > zfsraid/Sports gegaan. Vervolgens share with NFS
Bij Share filesystem: zfsraid/Sports
Easy permissions (check)
Access profile Protected
Vervolgens: Create new NFS share: Success: Command executed!
Bij Files > zfsraid/Sports staat er dat hij via NFS geshared is.
Ik zie in /etc/zfs/exports ook het volgende:
1
2
3
| # !!! DO NOT EDIT THIS FILE MANUALLY !!! /zfsraid/Sports -alldirs -mapall=1000:1000 -network 10.0.0.0/8 -network 172.16.0.0/12 -network 192.168.0.0/16 |
Echter bij showmount en showmount -e krijg ik alleen het volgende:
1
2
3
4
5
| [root@aristoteles /home/ssh]# showmount Hosts on localhost: [root@aristoteles /home/ssh]# showmount -e Exports list on localhost: [root@aristoteles /home/ssh]# |
Alle services draaien, maar toch lijkt het niet te werken? Wat doe ik verkeerd

[ Voor 3% gewijzigd door Vuurvoske op 16-10-2014 18:12 ]
Beroeps brabander
Sinds de 2 dagen regel reageer ik hier niet meer
Dat had ik al gedaan, helpt helaas niet.CurlyMo schreef op donderdag 16 oktober 2014 @ 18:21:
Meestal helpt het wanneer je de rpcbind, nfsd en mountd services even herstart.
//edit: had ook al een reboot geprobeerd.
[ Voor 8% gewijzigd door Vuurvoske op 16-10-2014 18:34 ]
Beroeps brabander
Even niets...
Bedankt voor je suggestie.lord4163 schreef op donderdag 16 oktober 2014 @ 16:04:
@GioStyle
Neem deze dan gewoon?
pricewatch: MSI B85I
Maar ik zou graag een keer een Asrock moederbord willen uitproberen en daarbij is dit bord door Mux getest en het kwam erg zuinig uit de bus.
Als je de pf service hebt draaien, zet deze dan eens uit en kijk of het dan wel lukt.Vuurvoske schreef op donderdag 16 oktober 2014 @ 18:24:
[...]
Dat had ik al gedaan, helpt helaas niet.
//edit: had ook al een reboot geprobeerd.
To See A World In A Grain Of Sand, And A Heaven In A Wild Flower, Hold Infinity In The Palm Of Your Hand, And Eternity In An Hour
1
2
3
| [ssh@aristoteles ~]$ ps aux | grep nfs root 1735 0.0 0.0 16440 3920 - Is 4:24PM 0:00.02 nfsd: master ( root 1736 0.0 0.0 12344 1964 - I 4:24PM 0:00.02 nfsd: server ( |
1
2
| [ssh@aristoteles ~]$ cat /etc/rc.conf | grep pf #pf_enable="YES" |
[ Voor 93% gewijzigd door Vuurvoske op 16-10-2014 23:10 ]
Beroeps brabander
Even niets...
1
2
3
4
5
6
7
| ## NFS nfs_server_enable="YES" mountd_enable="YES" mountd_flag="-r" rpcbind_enable="YES" rpc_lockd_enable="YES" rpc_statd_enable="YES" |
Heb je ook gereboot?
Heb je nog meer NFS shares of is die ene share de enige?
Een goede kans dat het dan wel werkt.
1
2
3
4
5
6
7
8
9
10
| ## NFS nfs_server_enable="YES" mountd_enable="YES" mountd_flag="-r" rpcbind_enable="YES" rpc_lockd_enable="YES" rpc_statd_enable="YES" # if you have problems, perhaps you can try the old NFS server: #oldnfs_server_enable="YES" weak_mountd_authentication="YES" |
Ik heb al een keer gereboot. Er is maar 1 NFS-share.
Beroeps brabander
Uit het bestand /etc/rc.d/mountd:syl765 schreef op vrijdag 17 oktober 2014 @ 08:07:
Kopieer de inhoud van /etc/zfs/exports eens naar /etc/exports
Een goede kans dat het dan wel werkt.
1
2
3
| if checkyesno zfs_enable; then rc_flags="${rc_flags} /etc/exports /etc/zfs/exports" fi |
De /etc/zfs/exports wordt dus gewoon ingeladen als je zfs enabled hebt staan
Sinds de 2 dagen regel reageer ik hier niet meer
1
2
3
4
5
| Oct 17 06:57:11 aristoteles kernel: Trying to mount root from zfs:bootpool/zfsguru/10.1-001 [rw]... Oct 17 06:57:16 aristoteles mountd[451]: network/host conflict Oct 17 06:57:16 aristoteles mountd[451]: bad exports list line /zfsraid/Sports -alldirs -mapall Oct 17 06:57:16 aristoteles mountd[451]: network/host conflict Oct 17 06:57:16 aristoteles mountd[451]: bad exports list line /zfsraid/Sports -alldirs -mapall |
Ik zie bij /etc/zfs/exports ook niet de opties voor rechten (ro, rw etc)
Beroeps brabander
1
| /zfsraid/Sports -alldirs -maproot=1000 -network 10.0.0.0 -network 172.16.0.0 -network 192.168.0.0 |
Sinds de 2 dagen regel reageer ik hier niet meer
Ik krijg nu ook deze melding bij het uitvoeren van 'showmount'
1
2
3
| [root@aristoteles /home/ssh]# showmount RPC: Program not registered showmount: can't do mountdump rpc |
Kan het zo zijn dat je de service SAMBA en NFS niet gelijkertijd mag draaien??
Beroeps brabander
RPC program not registered klinkt alsof RPCd niet draait?
Even niets...
Sinds de 2 dagen regel reageer ik hier niet meer
1
2
3
4
5
6
7
| [root@aristoteles /home/ssh]# showmount RPC: Program not registered showmount: can't do mountdump rpc [root@aristoteles /home/ssh]# ps aux | grep rpcbind root 1412 0.0 0.0 16572 2272 - Ss 9:32AM 0:00.00 /usr/sbin/rpcbind [root@aristoteles /home/ssh]# service rpcbind start rpcbind already running? (pid=1412). |
Beroeps brabander
1
2
3
4
5
6
7
8
9
| [root@server /home/ssh]# ps aux | grep rpc root 594 0.0 0.0 16572 572 - Is 1Oct14 0:06.56 /usr/sbin/rpcbind root 726 0.0 0.0 284764 292 - Ss 1Oct14 0:04.62 /usr/sbin/rpc.statd root 737 0.0 0.0 24792 204 - Ss 1Oct14 0:07.75 /usr/sbin/rpc.lockd [root@server /home/ssh]# ps aux | grep mount root 700 0.0 0.0 22684 504 - Is 1Oct14 0:00.89 /usr/sbin/mountd -o -r /etc/exports /etc/zfs/exports [root@server /home/ssh]# ps aux | grep nfsd root 716 0.0 0.0 20536 264 - Is 1Oct14 0:00.20 nfsd: master (nfsd) root 717 0.0 0.0 12344 692 - I 1Oct14 5:36.01 nfsd: server (nfsd) |
Sinds de 2 dagen regel reageer ik hier niet meer
Even niets...
Sinds de 2 dagen regel reageer ik hier niet meer
1
2
3
4
5
6
7
8
9
| [root@aristoteles /home/ssh]# ps aux | grep rpc root 453 0.0 0.0 280668 3860 - Ss 9:24AM 0:00.00 /usr/sbin/rpc.statd root 456 0.0 0.0 20696 3932 - Ss 9:24AM 0:00.00 /usr/sbin/rpc.lockd root 1412 0.0 0.0 16572 2272 - Is 9:32AM 0:00.00 /usr/sbin/rpcbind [root@aristoteles /home/ssh]# ps aux | grep mountd root 1391 0.0 0.0 18588 4036 - Is 9:32AM 0:00.00 /usr/sbin/mountd -r -n /etc/exports /etc/zfs/exports [root@aristoteles /home/ssh]# ps aux | grep nfsd root 1366 0.0 0.0 16440 3920 - Is 9:32AM 0:00.02 nfsd: master (nfsd) root 1367 0.0 0.0 12344 1964 - I 9:32AM 0:00.00 nfsd: server (nfsd) |
Ik snap er gewoon echt geen hout van waarom het niet werkt.
[ Voor 35% gewijzigd door Vuurvoske op 17-10-2014 09:47 ]
Beroeps brabander
Sinds de 2 dagen regel reageer ik hier niet meer
Ja,CurlyMo schreef op vrijdag 17 oktober 2014 @ 09:47:
Ondanks wat showmount zegt, heb je wel eens geprobeerd de shares extern te benaderen?
1
2
| Oct 16 16:18:21 aristoteles mountd[452]: mount request from 192.168.0.102 for non existent path /Sports Oct 16 16:18:21 aristoteles mountd[452]: mount request denied from 192.168.0.102 for /Sports |
Vanaf linux bak:
1
2
| [vuurvoske@confucius ~]$ sudo mount 192.168.0.103:/zfsraid/Sports /mnt mount: mount to NFS server '192.168.0.103' failed: RPC Error: Program not registered. |
[ Voor 18% gewijzigd door Vuurvoske op 17-10-2014 21:27 ]
Beroeps brabander
x.x.x.x:/zfsraid/Sports
Sinds de 2 dagen regel reageer ik hier niet meer
Ik wist dat je dat ging zeggen. Maar heb het ook met het goede pad geprobeerd daarna. Dat werkt ook niet.CurlyMo schreef op vrijdag 17 oktober 2014 @ 09:50:
Ik denk dat dat eerder je probleem is. Je moet het volledige pad opgeven. Dus:
x.x.x.x:/zfsraid/Sports
WTF!
Hij doet het!
1
2
3
| [ssh@aristoteles ~]$ showmount -e Exports list on localhost: /zfsraid/Sports 192.168.0.0 |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| [vuurvoske@confucius ~]$ sudo mount 192.168.0.103:/zfsraid/Sports /mnt mount: 192.168.0.103:/zfsraid/Sports failed, reason given by server: Permission denied [vuurvoske@confucius ~]$ sudo mount 192.168.0.103:/zfsraid/Sports /mnt mount: mount to NFS server '192.168.0.103' failed: RPC Error: Program not registered. [vuurvoske@confucius ~]$ sudo mount 192.168.0.103:/zfsraid/Sports /mnt [vuurvoske@confucius ~]$ cd /mnt [vuurvoske@confucius mnt]$ ls Beginner to Winner Bullet-to-the-head From the inside Out (2012) Kitesurf Instructie Nederlands Strength in numbers Toughest Race On Earth with James Cracknell(2013)-SamFIE man Where The Trail Ends (2012) 1080pBluRayx264-XSTREEM |
Ik snap er geen zak van. Heb alleen maar de zoveelste reboot geprobeeerd.
Dit laten de exports files zien:
1
2
3
4
5
6
| [root@aristoteles /home/ssh]# cat /etc/zfs/exports # !!! DO NOT EDIT THIS FILE MANUALLY !!! /zfsraid/Sports -network=192.168.0.0/24 -alldirs -mapall=1000:1000 [root@aristoteles /home/ssh]# cat /etc/exports /zfsraid/Sports -alldirs -maproot=1000 -network 10.0.0.0 -network 172.16.0.0 -network 192.168.0.0 |
//edit:
Ik weet waar het aan ligt. Je mag schijnbaar niet verschillende netwerkranges toevoegen. Als ik:
192.168.0.0 EN 192.168.1.0 toevoeg werkt het niet
192.168.0.0 alleen werkt wel.
[ Voor 32% gewijzigd door Vuurvoske op 17-10-2014 11:18 ]
Beroeps brabander
Ik heb de kopieer actie van 5,5TB even uitgezet, maar als hij blijft crashen wordt het fijn troubleshooten
Iemand een idee welke logs ik kan beginnen? (FreeNAS)
Mijn syslog server heeft niets opgevangen, alleen van de boot erna weer.....
denk dat het meeste wel in /var/log zal staan. Zou het een hardware probleem kunnen zijn? Te zwakke voeding?Extera schreef op vrijdag 17 oktober 2014 @ 17:25:
sinds de uitbreiding van mijn pool (gisteravond) is mijn NAS net 2x gecrashed.
Ik heb de kopieer actie van 5,5TB even uitgezet, maar als hij blijft crashen wordt het fijn troubleshooten
Iemand een idee welke logs ik kan beginnen? (FreeNAS)
Mijn syslog server heeft niets opgevangen, alleen van de boot erna weer.....
Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9
[ Voor 3% gewijzigd door FireDrunk op 18-10-2014 13:28 ]
Even niets...
Heb sinds een weekje ook een fileserver met ZFSguru erop, na een week klooien lijkt het meeste goed te werken. Er is echter nog 1 puntje waar ik tegenaan loop. Ik heb een ups bij deze server gekocht.
Nu heb ik geprobeerd NUT aan de praat te krijgen en na de hele zaterdag klooien ben ik zover dat ik de communicatie tussen mijn UPS en NUT werkend heb, tot een reboot.
Wat is het geval? NUT wil alleen met de UPS communiceren als ik /dev/usb/ (poort waar usb aan hangt) 777 rechten geef, dat gaat prima, maar na een reboot is hij dit weer kwijt.
Het voelt bij mij aan alsof ik NUT als een specifieke gebruiker met die poort moet laten verbinden, maar ik heb geen idee hoe.
Heeft iemand een idee hoe ik dit oplos?
[ Voor 13% gewijzigd door pica op 18-10-2014 21:46 ]
Iets als
nut_user=root
nut_group=root
Zo werkt dat meestal onder BSD, de exacte opties kan je misschien vinden in de mapage van NUT.
Even niets...
Maar je kunt ook eens kijken naar X-nut - de grafische versie die ook de frontend 'knutclient' heeft. Hiervoor moet je wel de hele grafische desktop meuk installeren, maar die frontend kan wel alles voor je configureren. Wellicht ook een optie als je dingen werkend wilt krijgen.
Bedankt voor de reactie, ik heb het met devfs opgelost:Verwijderd schreef op zondag 19 oktober 2014 @ 06:50:
Je kunt ook in /etc/devfs.conf permanente permissies instellen voor /dev/ nodes.
Maar je kunt ook eens kijken naar X-nut - de grafische versie die ook de frontend 'knutclient' heeft. Hiervoor moet je wel de hele grafische desktop meuk installeren, maar die frontend kan wel alles voor je configureren. Wellicht ook een optie als je dingen werkend wilt krijgen.
/etc/rc.conf
devfs_system_ruleset="nut_usb"
/etc/devfs.rules
[nut_usb=10]
add path 'usb/*' group wheel user uucp mode 0660
Nu start nut gewoon op.
Ik heb ook KNutClient geprobeerd, maar dat doet niet zoveel, in Gnome staat er "starting knutclient" voor een seconde of 10, en vervolgens is hij weer weg.
Ik heb het voor nu even gehad, morgenavond maar weer verder.
Wat wil je uitproberen precies ??GioStyle schreef op donderdag 16 oktober 2014 @ 19:20:
ik zou graag een keer een Asrock moederbord willen uitproberen
Ik ben de laatste tijd groot fan van AsRock : X79 Extreme11 in de gamebak / Z87 Extreme4 in de HTPC en binnenkort nog een Z97 Extreme4 erbij voor een ESXi bakkie met een heleboel verschillende besturingssystemen VM's en wat ZFS experimentjes als voorbereiding voor een ZFS NAS in de toekomst
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
matty___ schreef op vrijdag 17 oktober 2014 @ 22:33:
[...]
denk dat het meeste wel in /var/log zal staan. Zou het een hardware probleem kunnen zijn? Te zwakke voeding?
De voeding is goed (Seasonic G-Serie 450Watt)Hakker schreef op zaterdag 18 oktober 2014 @ 12:14:
Als de voeding te zwak zou zijn had de server niet goed geboot. Booting stressed een server het meest. read/write stelt niet zo heel veel voor.
Er zijn 4x 1TB disks uitgegaan en geruild voor 4x4TB extra (zat er al 1 in van de 5 disks van de uitbreiding).
Stroomverbruik zou juist lager moeten zijn.
Ik heb de kopieer actie beeindigd (liep vanaf de shell van FreeNAS/BSD) en nu draait de server sinds vrijdagmiddag weer stabiel. Ik kan geen duidelijke logs achterhalen
Klopt inderdaad, ik kreeg op een gegeven moment de melding vanuit NUT dat die service onder die account draait, daarnaast had ik aan de hand van onderstaand document gewerkt, waar dit in staat:Bigs schreef op zondag 19 oktober 2014 @ 19:41:
Hoe kom je erbij om user uucp eigenaar te maken van je devices? Draait NUT als die user?
http://people.freebsd.org/~thierry/nut_FreeBSD_HowTo.txt
Overigens werkt het nu ook met 600 rechten, dus bij deze inderdaad bevestigd dat NUT die user gebruikt.
Had weer een nieuw probleem, na een paar minuten verloor NUT de verbinding, dit lijkt nu opgelost door pollinterval = 10 in de ups.conf te zetten... vandaag even in de gaten houden, vanavond deze opstelling even testen.
[ Voor 26% gewijzigd door pica op 20-10-2014 16:17 ]
Ik heb moederborden van Asus, Intel, MSI, Gigabyte en van alles en nog wat gehad, behalve Asrock. Ik wilde namelijk 1 van de 2 zuinigste bordjes die Mux heeft getest samen met een IBM M1015. Kijken of die combo zuiniger is dan mijn huidige Asus H87I-Plus moederbord. Maar die geteste moederborden van Asrock hebben een slecht (lees: niet) ondersteunde netwerkkaart onder FreeNAS.nero355 schreef op maandag 20 oktober 2014 @ 01:07:
[...]
Wat wil je uitproberen precies ??
Ik ben de laatste tijd groot fan van AsRock : X79 Extreme11 in de gamebak / Z87 Extreme4 in de HTPC en binnenkort nog een Z97 Extreme4 erbij voor een ESXi bakkie met een heleboel verschillende besturingssystemen VM's en wat ZFS experimentjes als voorbereiding voor een ZFS NAS in de toekomst
Ik wil als er een powerfailure is dat mijn UPS zichzelf ook uitschakeld. Dit kun je doen dmv upsdrvct1, dus heb ik in de rc.shutdown als laatste staan:
if (test -f /etc/killpower)
then
/usr/local/libexec/nut/upsdrvctl shutdown
fi
Probleem is echter dat de UPS zichzelf te snel uitzet waardoor ik maar halverwege mijn shutdown procedure ben voordat de boel uitklapt. Nu heb ik in http://www.networkupstools.org/docs/man/blazer.html gelezen dat dit mogelijk is met de optie offdelay, dus heb ik mijn ups.conf als volgt aangepast:
[powerwalker]
driver = blazer_usb
port = auto
pollinterval = 10
offdelay = 120
ondelay = 3
Echter lijkt het wel alsof die offdelay niets doet... ziet iemand wat ik fout doe?
[root@zfsguru /home/ssh]# /usr/local/bin/upsc powerwalker@localhost
battery.charge: 29
battery.voltage: 22.30
battery.voltage.high: 26.00
battery.voltage.low: 20.80
battery.voltage.nominal: 24.0
device.type: ups
driver.name: blazer_usb
driver.parameter.offdelay: 120
driver.parameter.ondelay: 3
driver.parameter.pollinterval: 10
driver.parameter.port: auto
driver.version: 2.6.5
driver.version.internal: 0.09
input.current.nominal: 4.0
input.frequency: 50.0
input.frequency.nominal: 50
input.voltage: 3.9
input.voltage.fault: 3.9
input.voltage.nominal: 230
output.voltage: 231.6
ups.beeper.status: enabled
ups.delay.shutdown: 120
ups.delay.start: 180
ups.load: 17
ups.productid: 5161
ups.status: OB
ups.type: offline / line interactive
ups.vendorid: 0665
[root@zfsguru /home/ssh]#
/edit
Probleem opgelost met een update naar laatste versie van NUT

[ Voor 34% gewijzigd door pica op 21-10-2014 20:33 ]
Waarom een superzuinig moederbord kopen als je er vervolgens een stroomvretende M1015 in zet?GioStyle schreef op maandag 20 oktober 2014 @ 18:23:
[...]
Ik heb moederborden van Asus, Intel, MSI, Gigabyte en van alles en nog wat gehad, behalve Asrock. Ik wilde namelijk 1 van de 2 zuinigste bordjes die Mux heeft getest samen met een IBM M1015. Kijken of die combo zuiniger is dan mijn huidige Asus H87I-Plus moederbord. Maar die geteste moederborden van Asrock hebben een slecht (lees: niet) ondersteunde netwerkkaart onder FreeNAS.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Wat geweldig zou zijn is als Intel of AMD hun southbridge-chip hadden ingezet als addon controller en zo tot 6 of 8 keer AHCI SATA/600 zouden aanbieden op bijvoorbeeld PCIe 2.0 x4 - de native interface van dergelijke southbridges (2GB/s full duplex). Dat zou een hele mooie controller kunnen worden.
Maar de markt is denk ik te klein hiervoor; zakelijke gebruikers wil je ook meer voor laten betalen en SAS is daar veel meer ingeburgerd.
Maar er is hoop: SATA Express zou ook voor hardeschijven gebruikt kunnen worden waarbij deze direct op de PCI-express interface worden aangesloten. Je kunt dan passief SATA Express poorten bijplaatsen omdat daar geen chip voor nodig is; een passieve converter van PCI-express x16 naar 16 keer SATA Express is dan bijvoorbeeld mogelijk. Zou zeker een uitkomst zijn en dan is het hele zaakje ook ultrazuinig omdat de 'controller' (technisch geen controller maar eigenlijk: host bridge adapter) zelf echt helemaal niets verbruikt.
1 x 4tb, 5 x 2 tb.
Nu begin ik plaatstekort te krijgen dus zou graag een aantal schijven vervangen.
Als ik deze guide goed gelezen heb:
http://www.howtogeek.com/...ile-system-zfs-for-linux/
Is het zeker mogelijk om bijvoorbeeld de 2 tb schijven eruit te halen vervangen door wd red 6tb schijven en enkel die in zfs te steken?
Specs van men server:
MemTotal: 7863144 kB
00:00.0 Host bridge: Intel Corporation Xeon E3-1200 v2/3rd Gen Core processor DRAM Controller (rev 09)
00:02.0 VGA compatible controller: Intel Corporation Xeon E3-1200 v2/3rd Gen Core processor Graphics Controller (rev 09)
00:14.0 USB controller: Intel Corporation 7 Series/C210 Series Chipset Family USB xHCI Host Controller (rev 04)
00:16.0 Communication controller: Intel Corporation 7 Series/C210 Series Chipset Family MEI Controller #1 (rev 04)
00:1a.0 USB controller: Intel Corporation 7 Series/C210 Series Chipset Family USB Enhanced Host Controller #2 (rev 04)
00:1b.0 Audio device: Intel Corporation 7 Series/C210 Series Chipset Family High Definition Audio Controller (rev 04)
00:1c.0 PCI bridge: Intel Corporation 7 Series/C210 Series Chipset Family PCI Express Root Port 1 (rev c4)
00:1c.4 PCI bridge: Intel Corporation 7 Series/C210 Series Chipset Family PCI Express Root Port 5 (rev c4)
00:1c.5 PCI bridge: Intel Corporation 7 Series/C210 Series Chipset Family PCI Express Root Port 6 (rev c4)
00:1d.0 USB controller: Intel Corporation 7 Series/C210 Series Chipset Family USB Enhanced Host Controller #1 (rev 04)
00:1e.0 PCI bridge: Intel Corporation 82801 PCI Bridge (rev a4)
00:1f.0 ISA bridge: Intel Corporation B75 Express Chipset LPC Controller (rev 04)
00:1f.2 SATA controller: Intel Corporation 7 Series/C210 Series Chipset Family 6-port SATA Controller [AHCI mode] (rev 04)
00:1f.3 SMBus: Intel Corporation 7 Series/C210 Series Chipset Family SMBus Controller (rev 04)
02:00.0 SATA controller: ASMedia Technology Inc. ASM1062 Serial ATA Controller (rev 01)
03:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller (rev 06)
Is er iets dat ik nog rekening mee moet houden? Is die guide nog up to date met de laatse vernieuwingen?
Merci
Zeker. De enige vraag is wat je met de data doet die nu op die schijven staat. Is dat al een ZFS vdev? Is het een mdadm-array? Is het überhaupt geen array?unrealbe schreef op woensdag 22 oktober 2014 @ 13:29:
Is het zeker mogelijk om bijvoorbeeld de 2 tb schijven eruit te halen vervangen door wd red 6tb schijven en enkel die in zfs te steken?
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
geen arrayPaul schreef op woensdag 22 oktober 2014 @ 15:01:
[...]
Zeker. De enige vraag is wat je met de data doet die nu op die schijven staat. Is dat al een ZFS vdev? Is het een mdadm-array? Is het überhaupt geen array?
Even niets...
Als je pool er eenmaal is kun je de data van de 2 TB schijfjes naar je nieuwe pool overzetten
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
De SABNZBD+ service in ZFSGuru blijft aangeven dat hij de watchfolder niet kan lezen:
"Kan /ZFS1/share/Downloads/DownloadNZB/pearl jam.nzb niet lezen"
Wat ik heb geprobeerd:
Resetten van de permissions in ZFSGuru via de advanced optie in Files - Permissions, daarna werken de bestanden die in de watchfolder staan. Maar zodra ik nieuwe toevoeg ontstaat het probleem weer.
Verder heb ik een verse installatie van Freebsd 11.0-001 gedaan via Root on ZFS, maar dit hielp ook niet.
Het lijkt er op dat iets de mappen weer locked maar ik ben even lost, hebben jullie suggesties?
Mocht het probleem daar ook bij gelden, dan ben ik wel benieuwd. In dat geval graag de permissies doorgeven. Zoals: ls -l /ZFS1/share/Downloads/DownloadNZB/ (let op: ls -l is met een kleine L dus geen i)
Heb nu 10.1-002 draaien en krijg daar weer hetzelfde probleem:
1
2
3
| ssh@zfsguru ~]$ ls -l /ZFS1/share/Downloads/DownloadNZB/ total 2051 -rw-rw---- 1 share share 2076449 Oct 28 18:04 Pearl Jam Ziggodome 2012.nzb.nzb |
Nadat ik de permission reset uitvoer, word de NZB file uit map gelezen. Dus is het mapje leeg
Zet ik er een nieuwe NZB in, kan SABNZBD t weer niet lezen:
1
| 2014-10-28 22:10:54,146 WAARSCHUWING: Kan /ZFS1/share/Downloads/DownloadNZB/pearl jam dvd.nzb niet lezen |
1
2
3
| [ssh@zfsguru ~]$ ls -l /ZFS1/share/Downloads/DownloadNZB/ total 3969 -rw-rw---- 1 share share 4025120 Oct 28 22:10 pearl jam dvd.nzb |
Heel apart dit
"There are two hard things in computer science: cache invalidation, naming things, and off-by-one errors."
Excuus dat klopt niet
[ Voor 44% gewijzigd door blobber op 28-10-2014 23:42 ]
To See A World In A Grain Of Sand, And A Heaven In A Wild Flower, Hold Infinity In The Palm Of Your Hand, And Eternity In An Hour
Oplossing: Access->Settings en zet File permissions op 666 Maximum Compatibility, en restart Samba of reboot. Try again.
[ Voor 4% gewijzigd door Remcor2000 op 29-10-2014 08:22 ]
CiPHER thanks voor de build
Helaas lukt me toch niet de LaSi tool te gebruiken blijf maar de volgende melding krijgen:
[root@zfsguru /home/ssh]# fetch http://dl.dropbox.com/u/18712538/LaSi/LaSi.sh
Certificate verification failed for /C=US/O=DigiCert Inc/OU=www.digicert.com/CN=DigiCert SHA2 High Assurance Server CA
34380830376:error:14090086:SSL routines:SSL3_GET_SERVER_CERTIFICATE:certificate verify failed:/tmpfs/2-source/secure/lib/libssl/../../../crypto/openssl/ssl/s3_clnt.c:1168:
fetch: http://dl.dropbox.com/u/18712538/LaSi/LaSi.sh: Authentication error
NVM, zit mooi ingebakken in de SABnzbplus
Thnx!!
NEXT
Traceback (most recent call last):
File "/super/zfsguru/services/10.0-002/sabnzbdplus/data/sickbeard/cherrypy/_cprequest.py", line 660, in respond
response.body = self.handler()
File "/super/zfsguru/services/10.0-002/sabnzbdplus/data/sickbeard/cherrypy/lib/encoding.py", line 193, in __call__
self.body = self.oldhandler(*args, **kwargs)
File "/super/zfsguru/services/10.0-002/sabnzbdplus/data/sickbeard/cherrypy/_cpdispatch.py", line 25, in __call__
return self.callable(*self.args, **self.kwargs)
File "/super/zfsguru/services/10.0-002/sabnzbdplus/data/sickbeard/sickbeard/webserve.py", line 2465, in setStatus
epObj.saveToDB()
File "/super/zfsguru/services/10.0-002/sabnzbdplus/data/sickbeard/sickbeard/tv.py", line 1378, in saveToDB
myDB.upsert("tv_episodes", newValueDict, controlValueDict)
File "/super/zfsguru/services/10.0-002/sabnzbdplus/data/sickbeard/sickbeard/db.py", line 167, in upsert
self.action(query, valueDict.values() + keyDict.values())
File "/super/zfsguru/services/10.0-002/sabnzbdplus/data/sickbeard/sickbeard/db.py", line 132, in action
sqlResult = self.connection.execute(query, args)
OperationalError: attempt to write a readonly database
krijg ik tijdens het plaatsen van afleveringen naar wanted in Sickbeard.
Zijn dit rechten op de map?
[ Voor 116% gewijzigd door wetsteyn op 29-10-2014 20:09 ]
Held! Dit was het inderdaad, dankjewel!Verwijderd schreef op woensdag 29 oktober 2014 @ 02:58:
Ah, die .nzb is dus iets wat je downloadt en via Samba op je pool zet, vervolgens probeert SAB erbij te komen. Ja dan is dat het probleem...
Oplossing: Access->Settings en zet File permissions op 666 Maximum Compatibility, en restart Samba of reboot. Try again.
Maar wil niet zeggen dat dat je issue met SAB of SickBeard oplost. Kan ook een permissie probleem zijn omdat hij klaagt over read-only database.
Je kunt eens uitvoeren op de command line (System -> Command Line):
ls -l /super/zfsguru/services/10.0-002/sabnzbdplus/data/sickbeard/sickbeard/db.py
En mij de output geven.
Sqlite schrijft direct naar een file waarvan de permissies kennelijk niet goed staan:wetsteyn schreef op woensdag 29 oktober 2014 @ 17:44:
sqlResult = self.connection.execute(query, args)
OperationalError: attempt to write a readonly database
1
2
3
| def __init__(self, filename="sickbeard.db", suffix=None, row_type=None): self.filename = filename self.connection = sqlite3.connect(dbFilename(filename), 20) |
Zoek sickbeard.db (vermoed ergens in /home, /etc of /usr, "find /etc | grep sickbeard.db" diezelfde /.../sabnzbdplus/data/sickbeard map) en controleer de permissies met ls -l.
[ Voor 4% gewijzigd door Murk op 30-10-2014 23:25 ]
"There are two hard things in computer science: cache invalidation, naming things, and off-by-one errors."
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
| SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 35 3 Spin_Up_Time 0x0027 178 176 021 Pre-fail Always - 6083 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 280 5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0 9 Power_On_Hours 0x0032 078 078 000 Old_age Always - 16161 10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0 11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 245 192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 229 193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 50 194 Temperature_Celsius 0x0022 118 090 000 Old_age Always - 32 196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 17 SMART Error Log Version: 1 No Errors Logged SMART Self-test log structure revision number 1 Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error # 1 Extended offline Completed: read failure 70% 16152 1556948368 # 2 Short offline Completed without error 00% 16128 - # 3 Extended offline Completed without error 00% 170 - # 4 Extended offline Interrupted (host reset) 50% 33 - # 5 Short offline Completed without error 00% 30 - # 6 Short offline Completed without error 00% 10 - # 7 Short offline Completed without error 00% 0 - |
Geen reallocated of pending sectors, maar wel Raw Read Errors en falende extended self test.
Is dit een gevalletje terugsturen naar WD en garantie claimen?
wetsteyn schreef op woensdag 29 oktober 2014 @ 17:44:
Sweet ZfsGuru werkt voor mij toch prettiger dan Freenasvooral met LaSi tool
CiPHER thanks voor de buildben er flink mee aan het proberen.
- Deze advertentie is geblokkeerd door Pi-Hole -
Met alle waarschijnlijkheid wel (of binnenkort). Je zou de disk mbv de Data Lifeguard Diagnostic'' van WD kunnen scannen en zien wat die software er van vindt (WD wil doorgaans deze uitslag ook zien). Probleem is dan wel dat je met een degraded array verder moet tot dat de vervanger er is (of je deze hebt aangeschaft).Durandal schreef op donderdag 30 oktober 2014 @ 23:33:
Mijn laatste resilver gisteren gaf 11 leesfouten op de pool van 10 WD REd 3TBs, waarna ik een extended self test heb gedraaid op alle disks. Alle disks waren ok, behalve die met die lees fout:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 35 3 Spin_Up_Time 0x0027 178 176 021 Pre-fail Always - 6083 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 280 5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0 9 Power_On_Hours 0x0032 078 078 000 Old_age Always - 16161 10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0 11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 245 192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 229 193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 50 194 Temperature_Celsius 0x0022 118 090 000 Old_age Always - 32 196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 17 SMART Error Log Version: 1 No Errors Logged SMART Self-test log structure revision number 1 Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error # 1 Extended offline Completed: read failure 70% 16152 1556948368 # 2 Short offline Completed without error 00% 16128 - # 3 Extended offline Completed without error 00% 170 - # 4 Extended offline Interrupted (host reset) 50% 33 - # 5 Short offline Completed without error 00% 30 - # 6 Short offline Completed without error 00% 10 - # 7 Short offline Completed without error 00% 0 -
Geen reallocated of pending sectors, maar wel Raw Read Errors en falende extended self test.
Is dit een gevalletje terugsturen naar WD en garantie claimen?
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Bedankt, had er eigenlijk nog niet aan gedacht dat WD een eigen diagnose tool heeft.Pantagruel schreef op vrijdag 31 oktober 2014 @ 09:13:
[...]
Met alle waarschijnlijkheid wel (of binnenkort). Je zou de disk mbv de Data Lifeguard Diagnostic'' van WD kunnen scannen en zien wat die software er van vindt (WD wil doorgaans deze uitslag ook zien).
Is die tool destructief voor de data?
De laatste keer dat ik een disk ingestuurd had, een jaar of zo geleden, kreeg ik eerst een vervanger thuis en had ik even de tijd om het origineel terug te sturen. Die keuze had je toen. Dat zit denk ik wel goed dus.Probleem is dan wel dat je met een degraded array verder moet tot dat de vervanger er is (of je deze hebt aangeschaft).
[ Voor 5% gewijzigd door Durandal op 31-10-2014 13:06 ]
Even niets...
Falende self test is 16 duizend uur geleden hè... je hebt de laatste 30 uur 3x een short test gedaan en 170 uur geleden een extended (lange) test die succesvol is afgerond.Durandal schreef op donderdag 30 oktober 2014 @ 23:33:
code:
1 2 3 4 5 6 7 8 9 SMART Self-test log structure revision number 1 Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error # 1 Extended offline Completed: read failure 70% 16152 1556948368 # 2 Short offline Completed without error 00% 16128 - # 3 Extended offline Completed without error 00% 170 - # 4 Extended offline Interrupted (host reset) 50% 33 - # 5 Short offline Completed without error 00% 30 - # 6 Short offline Completed without error 00% 10 - # 7 Short offline Completed without error 00% 0 -
Geen reallocated of pending sectors, maar wel Raw Read Errors en falende extended self test.
Is dit een gevalletje terugsturen naar WD en garantie claimen?
Je raw read error rate staat op de best mogelijke genormaliseerde waarde (100). Kortom, niets mis met de schijf. Bad sectors in het verleden heb je wel gehad; gezien de self-test van 16.000 uur geleden. Maar dat is niets nieuws en ook helemaal geen probleem voor ZFS. Kortom, nogal onzinnig om je schijf af te schrijven.
NB: voortaan SMART analyse verzoeken graag in het Check je SMART-topic, want heel specifiek met ZFS heeft dit natuurlijk niet te maken.
Ja, in ieder geval vorig jaar wel. Wel even je CC afschriften in de gaten houden want de hele procedure is een beetje wazig.FireDrunk schreef op vrijdag 31 oktober 2014 @ 13:16:
Dat is altijd bij WD toch, maar alleen als je je Creditcard info hebt opgegeven?
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.