Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 13-10 22:50

Pantagruel

Mijn 80486 was snel,....was!

analog_ schreef op zondag 28 april 2013 @ 06:10:
Ik denk dat ik een of andere vage limiet ben tegengekomen. Opstelling in het kort: debian wheezy storage machine met twee zfs ssd volumes, snelheid oneindig. Tweede storage machine met 5 disk raidz lezen en schrijven >300MB/s. Vervolgens het geheel via Infiniband met SRP doorgegeven aan ESXi 5.

5 disk raidz, ssd volumes en ram disk zijn allemaal even traag. Ter illustratie atto resultaten van de 5 disks raidz en RAM respectievelijk.

[afbeelding] [afbeelding]

Too much clicks;didn't open: beiden even traag :(

Onder OI/Nexenta zou het een stuk sneller moeten gaan maar zolang ik opensm niet kan compileren is dit hopeloos. Ideaal zou zijn als ik een IB switch met subnet manager ergens kan lenen voor een weekje zodat ik kan testen. Iemand overigens een goede plek voor IB gerelateerde toestanden? Het lijkt nogal verspreid te zijn over de verschillende forums (hardforum, nexenta , overclockers australia, zfsbuild, servethehome en zfsguru) in zeer specifieke threads.
Damn, 200 MB/sec heen en weer is inderdaad triest te noemen. Welke IB HCA en andere hardware gebruik je??

Ik heb in t verleden met IB en OI wat tests gedaan en liep toen tegen een Write plafond aan van ca. 500 MB/sec (posting). Dat was vanuit RAM disk dus duidelijk geen gebrek aan bandbreedte, een test op basis van Ubuntu linux en een SRP target liet duidelijk zien dat 1 GB/sec haalbaar moest zijn met de gebruikte hardware. (Meteen FireDrunk beantwoord ;) )

Voor OI/Solaris en Infiniband kun je het blog van Syoyo afstruinen. Ik heb zelf OpenSM nooit onder OI/SE gecompileerd, ben overgegaan op ZoL (Ubuntu ppa) en een SRP target, tot op heden nog geen onaangename verrassingen gehad.

ZFSguru (FreeBSD) doet geen SRP target als t om IB gaat, iSCSI werkt wel getuige de test resultaten op zfsbuild.com . Jammer genoeg hebben die heren nog steeds geen how-to/uitgebreide info staan hoe ze IB en iSCSI op ZFSguru geconfigureerd hebben.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Denk ik slim te zijn, en mijn half brakke 1TB schijfjes in RAID1 te vervangen door 3 500GB schijven in RAID Z1, blijkt dat ik mijn iSCSI volume te groot heb gemaakt om nog fatsoenlijk een snapshot te kunnen doen... Oeps?

Is er in zo'n geval nog een andere oplossing dan alles via iSCSI te kopiëren naar de nieuwe zpool? Op internet vind ik namelijk enkel zfs snapshot/zfs send | zfs receive oplossingen... Had ik beter mijn nieuwe disks in dezelfde zpool kunnen gooien?

Dit vraag ik omdat ik "binnenkort" deze RAID-Z1 wil vervangen door een RAID-Z2 van 4TB schijven en de data op het iSCSI volume blijft natuurlijk groeien :) Zit nu al op ruim 500GB, en dat kopiëren duurt helaas eventjes :-(

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Pantagruel schreef op zondag 28 april 2013 @ 13:59:
[...]


Damn, 200 MB/sec heen en weer is inderdaad triest te noemen. Welke IB HCA en andere hardware gebruik je??

Ik heb in t verleden met IB en OI wat tests gedaan en liep toen tegen een Write plafond aan van ca. 500 MB/sec (posting). Dat was vanuit RAM disk dus duidelijk geen gebrek aan bandbreedte, een test op basis van Ubuntu linux en een SRP target liet duidelijk zien dat 1 GB/sec haalbaar moest zijn met de gebruikte hardware. (Meteen FireDrunk beantwoord ;) )

Voor OI/Solaris en Infiniband kun je het blog van Syoyo afstruinen. Ik heb zelf OpenSM nooit onder OI/SE gecompileerd, ben overgegaan op ZoL (Ubuntu ppa) en een SRP target, tot op heden nog geen onaangename verrassingen gehad.

ZFSguru (FreeBSD) doet geen SRP target als t om IB gaat, iSCSI werkt wel getuige de test resultaten op zfsbuild.com . Jammer genoeg hebben die heren nog steeds geen how-to/uitgebreide info staan hoe ze IB en iSCSI op ZFSguru geconfigureerd hebben.
Mijn opstelling was zoals je beschreef, debian wheezy, zfs-on-linux, opensm en scst. Enfin, het enige verschil is dus Debian vs Ubuntu maar daar geloof ik niet zo in dat dat het is. Ik ga als eerste test de twee debians maar aan elkaar knopen en opnieuw testen. Moet nog uitzoeken hoe je IB SRP mount/oppakt in Debian. Ik ken het syoyo verhaal, helaas is niks uit te leren, hij schrijft vaag en onduidelijk. Ik ben relatief ver erin gelukt met compileren maar heb uiteindelijk opgegeven. Niemand op de andere fora heeft binaries gelekt :(

Ik gebruiker MHGH28-XTC/XSC kaarten, debians zijn geflashed tot nieuwste, ESXi niet omdat firmwares boven de 2.7 fouten geven. Dat is iets wat ik nog aan het aankaarten ben bij mellanox zelf. Oorspronkelijk waren het Voltaire 500Ex-d kaarten welke een effectief plafond op 1.2GB/s hebben. Ik weet zeker dat hij in 20Gbit mode draait, DDR IB is het allemaal.

Acties:
  • 0 Henk 'm!

  • savale
  • Registratie: Oktober 2000
  • Laatst online: 15-10 15:55
Ik probeer nu dit op te zetten:

FireDrunk in "Het grote ZFS topic"

Ik probeer dit in NAS4Free uit te voeren: dus een degraded RAID-Z te maken (vraag me af of dat lukt want kan maar 2 disks selecteren en niet nog een memory disk). Ik heb nu 2 ZFS formatted disks (1 van 1TB en de ander van 1.5TB) maar moet ik die 1.5TB dan eerst partitioneren? (2 partities: 1TB, 0.5TB)


edit: ok met zfs guru is het wel gelukt om een raid-z aan te maken. Hij geeft dit aan voor mijn pool:

pool0 28 RAID5 (single parity) 1.81T 347K 1.81T ONLINE

Ik had ergens verwacht dat ie wel aan zou geven dat er nu geen "backup" is omdat ik maar 2 disks gebruik, maar dat zie ik niet.
Verder ben ik er achter dat ik toch van te voren moet partitioneren om die 0,5TB nog te gebruiken voor een andere pool. (dit kan niet anders?)

[ Voor 53% gewijzigd door savale op 28-04-2013 18:52 ]


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Kan iemand mij vertellen hoe ik onder zfsguru een service in zijn geheel verwijderd. (dus niet alleen deinstalleren)
Ik kan niet meer in owncloud komen en wil een schone instal doen.

Acties:
  • 0 Henk 'm!

  • Jaap-Jan
  • Registratie: Februari 2001
  • Nu online
Je zou de database van Owncloud kunnen weggooien en opnieuw aanmaken.

| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett


Acties:
  • 0 Henk 'm!
savale schreef op zondag 28 april 2013 @ 17:31:
Ik probeer nu dit op te zetten:

FireDrunk in "Het grote ZFS topic"

Ik probeer dit in NAS4Free uit te voeren: dus een degraded RAID-Z te maken (vraag me af of dat lukt want kan maar 2 disks selecteren en niet nog een memory disk). Ik heb nu 2 ZFS formatted disks (1 van 1TB en de ander van 1.5TB) maar moet ik die 1.5TB dan eerst partitioneren? (2 partities: 1TB, 0.5TB)


edit: ok met zfs guru is het wel gelukt om een raid-z aan te maken. Hij geeft dit aan voor mijn pool:

pool0 28 RAID5 (single parity) 1.81T 347K 1.81T ONLINE

Ik had ergens verwacht dat ie wel aan zou geven dat er nu geen "backup" is omdat ik maar 2 disks gebruik, maar dat zie ik niet.
Verder ben ik er achter dat ik toch van te voren moet partitioneren om die 0,5TB nog te gebruiken voor een andere pool. (dit kan niet anders?)
Dat komt pas als je die memory disk weer uitzet, en dat moet je doen VOOR dat je data gaat kopieren, anders klapt je server...

Even niets...


Acties:
  • 0 Henk 'm!

  • savale
  • Registratie: Oktober 2000
  • Laatst online: 15-10 15:55
Thnx nog! Ik was vergeten de memory disk te formateren dus kon die niet gebruiken voor het aanmaken. Ik heb nu dit met 2 disks:

Total: 2.72T | Used: 906K | Free: 1.78T | State: DEGRADED

klopt helemaal volgens mij. Dan is het straks kwestie van die 3e disk erbij prikken

Acties:
  • 0 Henk 'm!
En even een zfs replace doen ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 13-10 22:50

Pantagruel

Mijn 80486 was snel,....was!

analog_ schreef op zondag 28 april 2013 @ 16:07:
[...]

Mijn opstelling was zoals je beschreef, debian wheezy, zfs-on-linux, opensm en scst. Enfin, het enige verschil is dus Debian vs Ubuntu maar daar geloof ik niet zo in dat dat het is. Ik ga als eerste test de twee debians maar aan elkaar knopen en opnieuw testen. Moet nog uitzoeken hoe je IB SRP mount/oppakt in Debian. Ik ken het syoyo verhaal, helaas is niks uit te leren, hij schrijft vaag en onduidelijk. Ik ben relatief ver erin gelukt met compileren maar heb uiteindelijk opgegeven. Niemand op de andere fora heeft binaries gelekt :(

Ik gebruiker MHGH28-XTC/XSC kaarten, debians zijn geflashed tot nieuwste, ESXi niet omdat firmwares boven de 2.7 fouten geven. Dat is iets wat ik nog aan het aankaarten ben bij mellanox zelf. Oorspronkelijk waren het Voltaire 500Ex-d kaarten welke een effectief plafond op 1.2GB/s hebben. Ik weet zeker dat hij in 20Gbit mode draait, DDR IB is het allemaal.
Het was me meer te doen om de gebruikte hardware, de IB HCA die je gebruikt is idd een DDR model en doet vlgs de datasheet van Mellanox 2.5 GT/sec (2.5 GT/s x 8 = 20 Gbps DDR voor de duidelijkheid).

Echt baanbrekende verschillen tussen Debian en Ubuntu verwacht ik op dat gebied niet echt. Er is een Infiniband how-to voor Debian, maar of deze bij de tijd is, is me onduidelijk.
Om Ubuntu met een OI SRP target te laten connecten was t voldoende om de ib_srp deamon een scan te laten runnen (ib_srpdm -C) op zoek naar SRP targets. In de logs/dmesg kun ja na lezen of de zoektocht succesvol is gebleken en welke info je moet gebruiken in de edits van de ib_srp config file. Daarna kun je de gevonden target lokaal als device inbinden alsof het een nieuw toegevoegde harddisk is.

[ Voor 12% gewijzigd door Pantagruel op 29-04-2013 10:43 . Reden: Ubuntu info ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Pantagruel schreef op maandag 29 april 2013 @ 10:12:
[...]


Het was me meer te doen om de gebruikte hardware, de IB HCA die je gebruikt is idd een DDR model en doet vlgs de datasheet van Mellanox 2.5 GT/sec (2.5 GT/s x 8 = 20 Gbps DDR voor de duidelijkheid).

Echt baanbrekende verschillen tussen Debian en Ubuntu verwacht ik op dat gebied niet echt. Er is een Infiniband how-to voor Debian, maar of deze bij de tijd is, is me onduidelijk.
Om Ubuntu met een OI SRP target te laten connecten was t voldoende om de ib_srp deamon een scan te laten runnen (ib_srpdm -C) op zoek naar SRP targets. In de logs/dmesg kun ja na lezen of de zoektocht succesvol is gebleken en welke info je moet gebruiken in de edits van de ib_srp config file. Daarna kun je de gevonden target lokaal als device inbinden alsof het een nieuw toegevoegde harddisk is.
Bedankt, dan weet ik in welke richting zoeken, scheelt weer wat google. Ik ben blijkbaar niet de enige met dit probleem mhgh28. Kabel heb ik al erin gestoken vanavond debian-debian testen.

Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 19:07
Ik kom er net achter dat er iets (gebeurd) is met een van mijn disks in mijn raidz2 10 disk zpool .

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
  pool: tank
 state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
        repaired.
  scan: scrub repaired 0 in 8h25m with 0 errors on Thu Nov  8 10:20:16 2012
config:

        NAME                                           STATE     READ WRITE CKSUM
        tank                                           DEGRADED     0     0     0
          raidz2-0                                     DEGRADED     0     0     0
            scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0061334  FAULTED      0   200     0  too many errors
            scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0074252  ONLINE       0     0     0
            scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0074906  ONLINE       0     0     0
            scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0075172  ONLINE       0     0     0
            scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0076274  ONLINE       0     0     0
            scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0078222  ONLINE       0     0     0
            scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0568807  ONLINE       0     0     0
            scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0580606  ONLINE       0     0     0
            scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0656559  ONLINE       0     0     0
            scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0658861  ONLINE       0     0     0

errors: No known data errors



code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
root@server:/tmp$ smartctl -a /dev/disk/by-id/scsi-SATA_WDC_WD30EFRX-68_WD-WMC1T0061334
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.5.0-23-generic] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF INFORMATION SECTION ===
Device Model:     WDC WD30EFRX-68AX9N0
LU WWN Device Id: 5 0014ee 00359c650
Firmware Version: 80.00A80
User Capacity:    3,000,592,982,016 bytes [3.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   9
ATA Standard is:  Exact ATA specification draft version not indicated
Local Time is:    Mon Apr 29 17:44:01 2013 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                                        was never started.
                                        Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (41280) seconds.
Offline data collection
capabilities:                    (0x7b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        ( 255) minutes.
Conveyance self-test routine
recommended polling time:        (   5) minutes.
SCT capabilities:              (0x70bd) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   199   179   021    Pre-fail  Always       -       5008
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       260
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   095   095   000    Old_age   Always       -       4205
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       223
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       148
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       111
194 Temperature_Celsius     0x0022   117   098   000    Old_age   Always       -       33
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%      4205         -
# 2  Extended offline    Completed without error       00%       181         -
# 3  Extended offline    Aborted by host               90%       173         -
# 4  Extended offline    Interrupted (host reset)      50%        44         -
# 5  Short offline       Completed without error       00%        41         -
# 6  Short offline       Completed without error       00%        21         -
# 7  Short offline       Completed without error       00%        11         -
# 8  Short offline       Completed without error       00%         0         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.


Een korte SMART zelftest geeft geen fouten aan.

Graag wat advies wat er gebeurd kan zijn en vooral wat nu te doen. Ik wil uiteraard mijn data niet in gevaar brengen dus eerst wat advies voor ik ga pielen ;)

(ZFS-onLinux Ubuntu 12.04, 10x 3TB WD Red)

Dank!

Acties:
  • 0 Henk 'm!

  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Uhm, er staat toch gewoon letterlijk wat je moet doen: disk WD-WMC1T0061334 vervangen...

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 20:25
Waking_The_Dead schreef op dinsdag 30 april 2013 @ 09:43:
Uhm, er staat toch gewoon letterlijk wat je moet doen: disk WD-WMC1T0061334 vervangen...
En niet te verkeerde los trekken .....

Acties:
  • 0 Henk 'm!
Q schreef op dinsdag 30 april 2013 @ 11:04:
[...]


En niet te verkeerde los trekken .....
Mwoah, hij mag er nog eentje lostrekken, en nog meer zelfs ook, moet alleen even resilveren daarna :+ .

Serienummertje nakijken!!!

Ook nog maar eens ff een scrub gestart en moet het dringend (na mijn rebuild van zfsguru) nog eens in cron gooien dat ie iedere 2 weken een scrubje draait.

Qua scrub-snelheid niks te klagen :+ .

Het enige rare is, sinds een tijdje (ongeveer nadat of tijdens een GIGANTISCHE sprint van downloads binnen een VM die gestockeerd staat op mijn pool) is mijn performance echt belachelijk fel omlaag gegaan. Ik heb de indruk dat synced writes bijzonder traag gaan. Ik heb dan mijn ZIL die op een VMDK op M4 staat even verwijderd maar dan zakt de performance nog wat meer in. Er staan dan ook nog wel enkele "idle" machines te draaien.

Als ik dd's doe op de pool zelf gaat alles prima, maar vanaf de VM niet. Writes gaan traag, reads gaan prima...

Ik heb er even met FireDrunk over gediscussierd, en ik ga nu mijn M4 even volledig trimmen, kijken of dat wat uithaalt...

  pool: hulk
 state: ONLINE
  scan: scrub in progress since Tue Apr 30 11:41:07 2013
        607G scanned out of 8.44T at 518M/s, 4h24m to go
        0 repaired, 7.02% done
config:

        NAME          STATE     READ WRITE CKSUM
        hulk          ONLINE       0     0     0
          raidz1-0    ONLINE       0     0     0
            gpt/bay1  ONLINE       0     0     0
            gpt/bay2  ONLINE       0     0     0
            gpt/bay3  ONLINE       0     0     0
            gpt/bay4  ONLINE       0     0     0
            gpt/bay5  ONLINE       0     0     0
        logs
          gpt/ZIL     ONLINE       0     0     0
        cache
          gpt/L2ARC   ONLINE       0     0     0

[ Voor 81% gewijzigd door HyperBart op 30-04-2013 14:11 ]


Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 19:07
Waking_The_Dead schreef op dinsdag 30 april 2013 @ 09:43:
Uhm, er staat toch gewoon letterlijk wat je moet doen: disk WD-WMC1T0061334 vervangen...
Ik heb daarna niet voor niets een SMART test gedaan op die disk. Zoals ik zei kwamen daar geen fouten uit.
Waarom dan vervangen; wat is er gebeurd?

Acties:
  • 0 Henk 'm!

  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
Durandal schreef op maandag 29 april 2013 @ 17:52:
Ik kom er net achter dat er iets (gebeurd) is met een van mijn disks in mijn raidz2 10 disk zpool .
...
Graag wat advies wat er gebeurd kan zijn en vooral wat nu te doen. Ik wil uiteraard mijn data niet in gevaar brengen dus eerst wat advies voor ik ga pielen ;)
neem even een kijkje in dmesg (als je nog niet opnieuw opgestart hebt) daar kan je meestal zien watvoor soort errors dat dan zijn, je hebt eigenlijk maar een paar mogenlijkhede: schijf, sata channel, mem/proc/mb, of iets geks tijdelijks :P

Je hebt een raidz2, dus je kan gewoon resilver starten op die schijf en kijken wat er gebeurt, als je geen vervangende schijf hebt.
HyperBart schreef op dinsdag 30 april 2013 @ 11:53:
[...]

Mwoah, hij mag er nog eentje lostrekken, en nog meer zelfs ook, moet alleen even resilveren daarna :+ .

Serienummertje nakijken!!!
Als je echt niet weet welke schijf elke is, is dat inderdaad de netste manier, serienummer opschijven ui logs, netjes afsluiten, en dan verwijderen.
Ook nog maar eens ff een scrub gestart en moet het dringend (na mijn rebuild van zfsguru) nog eens in cron gooien dat ie iedere 2 weken een scrubje draait.
Elke 2 weken lijkt mij wel wat veel, bij mij duurt een scrub ongeveer 12 uur ('s nachts als hij verder niks te doen heeft), dus dat zou betekenen dat je elke 1/50 van de tijd aan het scrubben bent en veel sneller door je disk heen gaa. Ik lees schijf niet echt veel naar mijn NAS elke 2 weken, maar er staat wel veel op, dus scrub duurt best lang. En als je een RAIDZ2 hebt, lijkt het mij helemaal niet zo'n probleem.

(ik scrub elke 2 maanden)

Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 19:07
Voordat ik opnieuw opgestart heb gaat niet werken. Ik heb mijn server opnieuw geinstalleerd en heb de hele pool los gehad en die dmesg is al weg. Maar niettemin goede tip. Ik ga de fout clearen en nog wat data heen en weer gooien en dmesg bekijken. Misschien is het een kabeltje.

[ Voor 3% gewijzigd door Durandal op 30-04-2013 23:59 ]


Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 20:22
Heeft iemand hier ervaring met een SLOG op RAM disk (md)? Een fatsoenlijke UPS met decent afsluitscript welke de RAM disk wegschrijft voor het afsluiten van het systeem lijkt mij betrouwbaarder als een SSD zonder ultracap/powerfailsafe. Bovendien slijten de SSD's ook nog eens flink.

Acties:
  • 0 Henk 'm!
Dan kan je toch net zo goed ZIL uitzetten?
En een betrouwbare SSD (Intel 320 / Crucial M500) is goedkoper dan een UPS?

[ Voor 47% gewijzigd door FireDrunk op 01-05-2013 14:35 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Snow_King
  • Registratie: April 2001
  • Laatst online: 14-10 15:04

Snow_King

Konijn is stoer!

base_ schreef op woensdag 01 mei 2013 @ 14:24:
Heeft iemand hier ervaring met een SLOG op RAM disk (md)? Een fatsoenlijke UPS met decent afsluitscript welke de RAM disk wegschrijft voor het afsluiten van het systeem lijkt mij betrouwbaarder als een SSD zonder ultracap/powerfailsafe. Bovendien slijten de SSD's ook nog eens flink.
Een goede SSD is écht niet zo maar kapot als ZIL.

Als je verder echt cool spul wil moet je kijken naar de ZeusIOps van STEC, alleen kosten die voor 8GB al snel 2k ex btw.

Acties:
  • 0 Henk 'm!
Het zullen vast goede SSD's zijn, maar ik ben niet echt impressed door de snelheden... 36k Random IOPS is niet noemenswaardig veel...

Een 840 Pro doet er bijna 90k.

http://nl.hardware.info/r...ele-series-getest-iometer

Even niets...


Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 20:22
UPS heb ik al, en ZIL uitzetten is niet bepaald bevorderlijk voor de performance?? Heb al diverse andere ZIL opties opgezocht maar helaas zijn betaalbare RAM disks met battery backup bijna niet te krijgen (b.v. Acard ANS-9010 of Gigabyte iRAM). ZeusRam/DDRDrive zijn helaas te duur voor mijn toepassing.

edit: @firedrunk: ik zoek een SLOG device om de performance te verbeteren, in principe kan iedere ramdisk met (battery/flash/hdd) retention hiervoor geschikt zijn, ik wil ZIL niet uitschakelen.

[ Voor 24% gewijzigd door base_ op 01-05-2013 15:17 ]


Acties:
  • 0 Henk 'm!
Hoezo zou dat slechter voor de performance zijn dan ZIL op SLOG zetten?

Even niets...


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

ik vraag me af, zou zfs voordeel hebben op een NAS?

Ik heb een thecus 4200 gekregen, en ga der 4x 3tb disks in rammen, hierna of raid10 of zfs .. het is om een ISCSI LUN aan te bieden .. zou dit verschil uitmaken ?

Tja vanalles


Acties:
  • 0 Henk 'm!
Als dat ding een eigen OS heeft (wat 99% van die NASsen heeft) kan je er geen ZFS op zetten, en is het niet echt moeilijk kiezen...

Als je alleen antwoord wil op je vraag of ZFS beter is dan een NAS, moet je de topicstart even goed lezen :P

Even niets...


Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 20:22
FireDrunk schreef op woensdag 01 mei 2013 @ 15:05:
Het zullen vast goede SSD's zijn, maar ik ben niet echt impressed door de snelheden... 36k Random IOPS is niet noemenswaardig veel...

Een 840 Pro doet er bijna 90k.

http://nl.hardware.info/r...ele-series-getest-iometer
Dit betreft comprimeerbare data, die 840pro 512GB valt terug naar 8,2k read en 20k write IOPS indien niet qeued 4k vs 4k64thrd?? (details) Een ramdisk verslaat een SSD echt keihard als het om random (uncompressed) sustained IO writes gaat, devices als die ZeusRam/DDRDrive zijn specifiek voor dit soort taken gemaakt maar gezien de niche markt voor dergelijke producten nogal duur. Bovendien slijt een SSD, RAM slijt niet. Overigens is het idee om de battery backed up cache van een hardware raid te gebruiken voor een SLOG zelfs ook een interessante oplossing imho. Aangezien veel SSD's vaak ook een ingebouwd buffer RAM/write cache hebben vraag ik me ook af hoeveel er werkelijk weggeschreven wordt naar de flash van de SSD (ik neem aan dat indien data daadwerkelijk opgeslagen is en weer uit de SLOG mag voordat het van de RAM buffer van een SLOG SSD naar de flash van die SSD weggeschreven is dit niet meer daadwerkelijk naar de SSD weggescheven wordt?) Ik kan ook nergens vinden hoe groot de write cache van die 840pro is.

[ Voor 5% gewijzigd door base_ op 02-05-2013 01:59 ]


Acties:
  • 0 Henk 'm!
Ook al heeft het ding een write cache (wat HDD's ook gewoon hebben) luisteren ze toch nog gewoon naar een SYNC write? Dus je host kan nog steeds zeggen, "Ey, schrijf dit weg, en ik wil je niet horen tot het echt klaar is!".

Juist voor filesystem updates wil je dat, want als op dat moment de disk losgekoppeld wordt, heb je een probleem...

Op hardforum is er iemand geweest die dat getest heeft met MP3tjes renamen, word wel naar gelinkt in het topic van Mux over zijn Battery Backup voor SSD's.




Last login: Thu May  2 08:08:46 2013 from 192.168.1.250
FreeBSD 10.0-CURRENT (NASKERNEL) #0 r249301: Thu May  2 08:35:39 CEST 2013

* FireDrunk feels like a badass 8)

[ Voor 16% gewijzigd door FireDrunk op 02-05-2013 09:14 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • savale
  • Registratie: Oktober 2000
  • Laatst online: 15-10 15:55
Met alle hulp hier heb ik mijn data veilig op mijn raid-z weten te krijgen. De replace van de memory disk door de fysieke disk koste 5 uurtjes om te resilveren.
Ik heb nu een 3TB raid-z pool die voor 95% vol zit.
Ik gebruik trouwens nas4free. De read / write performance over samba is wel prima over 1 Gbit (~70MB/s write / ~90MB/s read), maar ik merk alleen dat het browsen nogal traag gaat (vanuit windows 7). Het listen van een directory of het opzetten van de transfer duurt ongeveer 5 tot 10 seconden. Het is geen ramp, maar zou leuk zijn als ik dat nog even beter krijg. Iemand ideeen?

Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 20:22
FireDrunk schreef op donderdag 02 mei 2013 @ 08:01:
Ook al heeft het ding een write cache (wat HDD's ook gewoon hebben) luisteren ze toch nog gewoon naar een SYNC write? Dus je host kan nog steeds zeggen, "Ey, schrijf dit weg, en ik wil je niet horen tot het echt klaar is!".
Hoeveel IOPS haalt een SSD dan met sync writes?

Acties:
  • 0 Henk 'm!
Evenveel als singlethreaded performance vaak. (dus de 20k waar jij het over had).
Als je meerdere pools hebt, en je maakt meerdere ZIL partities op 1 SSD, kan het overal dus wel meer worden.

Je moet elke ZIL/SLOG als 1 thread zien.

(Meerdere ZIL partities gekoppeld aan 1 pool heeft geen zin)

[ Voor 11% gewijzigd door FireDrunk op 02-05-2013 10:32 ]

Even niets...


Acties:
  • 0 Henk 'm!
HyperBart schreef op dinsdag 30 april 2013 @ 11:53:
[...]

Het enige rare is, sinds een tijdje (ongeveer nadat of tijdens een GIGANTISCHE sprint van downloads binnen een VM die gestockeerd staat op mijn pool) is mijn performance echt belachelijk fel omlaag gegaan. Ik heb de indruk dat synced writes bijzonder traag gaan. Ik heb dan mijn ZIL die op een VMDK op M4 staat even verwijderd maar dan zakt de performance nog wat meer in. Er staan dan ook nog wel enkele "idle" machines te draaien.

Als ik dd's doe op de pool zelf gaat alles prima, maar vanaf de VM niet. Writes gaan traag, reads gaan prima...

Ik heb er even met FireDrunk over gediscussierd, en ik ga nu mijn M4 even volledig trimmen, kijken of dat wat uithaalt...
Iemand hier nog wat meer inzicht in? CiPHER? Ik heb ondertussen mijn M4 even buiten werking gezet voor ZIL (wel nog L2ARC) en ik heb een aparte, eerste generatie Intel SSD van 80GB aan mijn M1015 gehangen. Eerst even getrimmed en dan er aan gehangen (50GB benut en 30GB ongepartitioneerd gelaten).

Schrijfsnelheden zijn nog altijd belabberd vanuit een Ubuntu VM... Ik twijfel alleen of ik dit altijd heb gehad of alleen vanaf een bepaald moment...

bart@Pyro2:~/test$ dd of=test.file3 if=/dev/zero bs=1M count=2048
2048+0 records in
2048+0 records out
2147483648 bytes (2.1 GB) copied, 82.7301 s, 26.0 MB/s



Een write (en read for that matter) op ZFSguru zelf gaat prima (ook niet gigantisch, misschien kan ik nog wel wat perf tunen):


[root@zfsguru /hulk/test]# dd if=/dev/zero of=test.file bs=1M count=20480
20480+0 records in
20480+0 records out
21474836480 bytes transferred in 76.759956 secs (279766138 bytes/sec)

[root@zfsguru /hulk/test]# dd if=/dev/zero of=test.file bs=1M count=40960
40960+0 records in
40960+0 records out
42949672960 bytes transferred in 193.874380 secs (221533515 bytes/sec)

[root@zfsguru /hulk/test]# dd if=test.file of=/dev/null
83886080+0 records in
83886080+0 records out
42949672960 bytes transferred in 242.741306 secs (176935989 bytes/sec)


Ook wel raar om te zien dat writes sneller gaan dan reads.

Kan ik nog iets van performance tuning doen? Op dit moment heb ik volgende parameters:

[root@zfsguru /home/ssh]# cat /boot/loader.conf | more
## other tuning
kern.maxfiles="950000"
# fix for error 'swap zone exhausted, increase kern.maxswzone'
kern.maxswzone="512m"
# fix for ESXi users (only use if you have problems booting or finding disks)
hw.pci.enable_msix="0"
hw.pci.enable_msi="0"
# fix for AOC-SAT2-MV8 (Marvell) controllers
hw.hptrr.attach_generic="0"
# fix for USB Root-on-ZFS that do not shutdown properly
hw.usb.no_shutdown_wait=1
# quicker boot time by shortening boot menu countdown
autoboot_delay="2"
# delay booting to allow some devices to settle (needed for some systems)
#kern.cam.boot_delay="10000"
# disable id labels
kern.geom.label.gptid.enable="0"
kern.geom.label.ufsid.enable="0"
# disable legacy device mappings (ada->ad)
kern.cam.ada.legacy_aliases="0"

## mandatory kernel modules (REQUIRED)
zfs_load="YES"
geom_uzip_load="YES"

## recommended kernel modules
# ahci (TRIM capable) driver
ahci_load="YES"
# package filter firewall
pf_load="YES"
# asynchronous I/O kernel module
aio_load="YES"

## para-virtualization support
# feel free to disable if this system is not going to be virtualized
virtio_load="YES"
virtio_pci_load="YES"
virtio_blk_load="YES"
virtio_balloon_load="YES"
if_vtnet_load="YES"

## optional kernel modules
# silicon image driver
siis_load="YES"
# mps: MPT Fusion 2 LSI SAS 6Gbps controller driver
# should be enabled in kernel
#mps_load="YES"
# padlock: VIA CPU-accelerated AES engine
#padlock_load="YES"
# aesni: Intel Core AES engine
aesni_load="YES"
# following may be used in the future
#tmpfs_load="YES"
#geom_md_load="YES"
#nullfs_load="YES"
#unionfs_load="YES"

hw.pci.do_power_nodriver="3"

vmxnet3_load="YES"



Setting Value
Installed memory 16 GiB
Usable memory 15.3 GiB
Kernel memory 15.5 GiB (on 64-bit platforms this can exceed your physical RAM)
Maximum kernel memory 307.2 GiB (on 64-bit platforms this must exceed your physical RAM)
Available kernel memory 3.3 GiB
ARC minimum 1.8 GiB ( 11.7% of kernel memory )
ARC maximum 14.5 GiB ( 93.5% of kernel memory )


Voor de rest staat er bij ZFS tuning in de webinterface niets aangevinkt... Bij advanced volgende dingen op YES:

zfs_load
geom_uzip_load
ahci_load
pf_load
aio_load
virtio_load
virtio_pci_load
virtio_blk_load
virtio_balloon_load
if_vtnet_load
siis_load
aesni_load
vmxnet3_load

hw.pci.do_power_nodriver = 3
kern.maxfiles = 950000
kern.maxswzone = 512m

Ik heb ook even mijn ZIL verwijderd en dan een write gedaan vanuit de Ubuntu VM:

bart@Pyro2:~/test$ dd if=/dev/zero of=test.file4 bs=1M count=100
100+0 records in
100+0 records out
104857600 bytes (105 MB) copied, 18.8895 s, 5.6 MB/s
bart@Pyro2:~/test$ dd if=/dev/zero of=test.file4 bs=1M count=100
100+0 records in
100+0 records out
104857600 bytes (105 MB) copied, 42.4137 s, 2.5 MB/s


Nog erger dus :+

Correct me if I am wrong, maar deze crontab, zou in principe toch iedere 2 weken op zondag om 1h00 's nachts een scrub moeten starten, of niet?

[root@zfsguru /home/ssh]# crontab -l
0 1 * * sun/2 /sbin/zpool scrub hulk


Ik kwam vandaag aan, en was wat aan het nakijken en zag dat er een scrub was gestart, terwijl die van gisteren 100% zeker voltooid was, dus deze moet automagisch in gang getrapt zijn...

[ Voor 47% gewijzigd door HyperBart op 02-05-2013 13:07 ]


Acties:
  • 0 Henk 'm!

  • jadjong
  • Registratie: Juli 2001
  • Niet online
echo zfs_nocacheflush/W0t1 | mdb -kw
Met deze setting ga ik van 30MB/s naar 90MB/s op een 1TB mirror met M4 arc/zil combi.

Acties:
  • 0 Henk 'm!
Kompaan schreef op dinsdag 30 april 2013 @ 22:44:
Elke 2 weken lijkt mij wel wat veel, bij mij duurt een scrub ongeveer 12 uur ('s nachts als hij verder niks te doen heeft), dus dat zou betekenen dat je elke 1/50 van de tijd aan het scrubben bent en veel sneller door je disk heen gaa. Ik lees schijf niet echt veel naar mijn NAS elke 2 weken, maar er staat wel veel op, dus scrub duurt best lang. En als je een RAIDZ2 hebt, lijkt het mij helemaal niet zo'n probleem.
Ongeacht of je nu Z2 of Z hebt, scrubben staat daar los van. Het hangt wel wat meer af van wat voor soort disks je gebruikt (consumer vs enterprise). Op de meeste fora wordt aangeraden (vanuit Oracle zelfs) dat consumer disks iedere week gescrubbed worden en enterprise grades iedere maand. Iedere 2 weken lijkt me dus een prima periode, en als je het een beetje plant op een rustige weekendnacht en dag, dan is er niks aan het handje. Mijn laatste scrub is voltooid op 5 uur tijd dacht ik met 8.63TB alloc en 4.99TB free...
One of the most significant features of the ZFS filesystem is scrubbing. This is where the filesystem checks itself for errors and attempts to heal any errors that it finds. It’s generally a good idea to scrub consumer-grade drives once a week, and enterprise-grade drives once a month.

If you have consumer-quality drives, consider a weekly scrubbing schedule.
http://www.sotechdesign.com.au/zfs-basics-zpool-scrubbing/
http://forums.freenas.org...6538&viewfull=1#post16538
http://www.google.com/url...bv.45921128,d.ZWU&cad=rja

Acties:
  • 0 Henk 'm!
HyperBart schreef op donderdag 02 mei 2013 @ 13:01:
Ongeacht of je nu Z2 of Z hebt, scrubben staat daar los van. Het hangt wel wat meer af van wat voor soort disks je gebruikt (consumer vs enterprise). Op de meeste fora wordt aangeraden (vanuit Oracle zelfs) dat consumer disks iedere week gescrubbed worden en enterprise grades iedere maand. Iedere 2 weken lijkt me dus een prima periode, en als je het een beetje plant op een rustige weekendnacht en dag, dan is er niks aan het handje. Mijn laatste scrub is voltooid op 5 uur tijd dacht ik met 8.63TB alloc en 4.99TB free...
Nou, daar ben ik het niet helemaal mee eens. Bij RAIDZ2 moeten er natuurlijk 2 checksums gecontroleerd worden, en bij RAIDZ maar 1. Dus als je CPU strak staat is een Scrub bij RAIDZ2 wel degelijk langzamer.

In principe ben je natuurlijk vaker afhankelijk van je disks dan je CPU, maar bij RAIDZ2 zal een scrub wel iets zwaarder voor je CPU zijn gok ik zo...

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op donderdag 02 mei 2013 @ 13:04:
[...]


Nou, daar ben ik het niet helemaal mee eens. Bij RAIDZ2 moeten er natuurlijk 2 checksums gecontroleerd worden, en bij RAIDZ maar 1. Dus als je CPU strak staat is een Scrub bij RAIDZ2 wel degelijk langzamer.

In principe ben je natuurlijk vaker afhankelijk van je disks dan je CPU, maar bij RAIDZ2 zal een scrub wel iets zwaarder voor je CPU zijn gok ik zo...
Ik had het niet over snelheid ten opzichte van je redundantie-niveau, maar eerder het aantal keer dat je het moet doen tov je redundantie en/of grade van je disks. En in mijn ogen maakt Z2 of 2 dan relatief weinig uit, want een URE kom je even snel tegen, statistisch gezien zelfs sneller, maar je hebt natuurlijk dubbel redundant en dat maakt de kans op hard falen van je array veel kleiner dan met RAIDZ...

Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 20:22
Zijn de Crucial M500 en de Intel 320 op dit moment de enige consumer-grade (lees: betaalbare) SSD's met powerfail safe caps/oplossing?

Acties:
  • 0 Henk 'm!
Ik denk dat hier een of andere obscure Tweaker (ooooooooh VuurDronken) nog wel 2 van die 320's in de aanbieding heeft. Het is dat ik mezelf wat moet inhouden of ik nam ze over :P

Acties:
  • 0 Henk 'm!
FreeBSD 10.0 installeren is leuk, maar je sloopt wel ZFSguru trouwens :)

Ik heb recompile problemen met php5-filter en php5-session, even uitzoeken waarom...

Even niets...


Acties:
  • 0 Henk 'm!

  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
base_ schreef op donderdag 02 mei 2013 @ 13:53:
Zijn de Crucial M500 en de Intel 320 op dit moment de enige consumer-grade (lees: betaalbare) SSD's met powerfail safe caps/oplossing?
Ik heb een Crucial M500 mSATA en die heeft inderdaad power caps :)

Acties:
  • 0 Henk 'm!
FireDrunk schreef op donderdag 02 mei 2013 @ 17:15:
FreeBSD 10.0 installeren is leuk, maar je sloopt wel ZFSguru trouwens :)

Ik heb recompile problemen met php5-filter en php5-session, even uitzoeken waarom...
Ah, er is een vaag php5-pcre requirement conflict, waardoor pcre als dependency beschreven staat terwijl het tegenwoordig in php5-core zit... Tegelijkertijd naar het nieuwe pkg systeem geswitcht.

Ging allemaal niet goed, dus ik dacht, even /var/db/pkg clearen...

Niet goed dus... Dat moet je dus NOOIT doen... :+

Nu kan ik niet veel meer, en moet ik ZFSguru herinstalleren ;)

Weer wat geleerd :D

Even niets...


Acties:
  • 0 Henk 'm!

  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
FireDrunk schreef op donderdag 02 mei 2013 @ 18:04:
[...]


Ah, er is een vaag php5-pcre requirement conflict, waardoor pcre als dependency beschreven staat terwijl het tegenwoordig in php5-core zit... Tegelijkertijd naar het nieuwe pkg systeem geswitcht.

Ging allemaal niet goed, dus ik dacht, even /var/db/pkg clearen...

Niet goed dus... Dat moet je dus NOOIT doen... :+

Nu kan ik niet veel meer, en moet ik ZFSguru herinstalleren ;)

Weer wat geleerd :D
Had je geen snapshots gemaakt van /var?

Acties:
  • 0 Henk 'm!
Nee, wel van de hele root pool, maar dat snapshot is al best oud ;)

Geeft niet zoveel, gewoon ff reinstallen :)

[root@NAS /home/ssh]# zfs list -r -t snapshot -o name,creation rootpool
NAME                    CREATION
rootpool@pre_freebsd10  Mon Apr  8 13:55 2013

[ Voor 42% gewijzigd door FireDrunk op 02-05-2013 18:53 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 20:22
FireDrunk schreef op donderdag 02 mei 2013 @ 18:04:
[...]
Ah, er is een vaag php5-pcre requirement conflict, waardoor pcre als dependency beschreven staat terwijl het tegenwoordig in php5-core zit... Tegelijkertijd naar het nieuwe pkg systeem geswitcht.
/usr/src/UPDATING lezen he ;)
Gebruik je packages of ports? portmaster is iig al een hele vooruitgang t.o.v. make instal en portupgrade is deprecated geloof ik.
Ging allemaal niet goed, dus ik dacht, even /var/db/pkg clearen...
pkgdb -F ?

Acties:
  • 0 Henk 'm!
Intussen is VirtualBox ook al stuk (verkeerde kernel modules), en werkt NFS niet meer.
Ik zal eens kijken of dat commando werkt.

Niet meer dus als je pkgng gebruikt. (FreeBSD 10.0 :) )

en pkg check geeft heeeeel veel foutmeldingen...

[ Voor 49% gewijzigd door FireDrunk op 02-05-2013 20:34 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

FireDrunk schreef op donderdag 02 mei 2013 @ 18:04:
Ah, er is een vaag php5-pcre requirement conflict, waardoor pcre als dependency beschreven staat terwijl het tegenwoordig in php5-core zit... Tegelijkertijd naar het nieuwe pkg systeem geswitcht.

Ging allemaal niet goed, dus ik dacht, even /var/db/pkg clearen...

Niet goed dus... Dat moet je dus NOOIT doen... :+

Nu kan ik niet veel meer, en moet ik ZFSguru herinstalleren ;)

Weer wat geleerd :D
Damn... dan liep je echt ver achter met je ports :X

De Packages Database kan je weer laten aanmaken trouwens... duurt effe maar dan heb je wat :P

* nero355 ooit dezelfde fuck up gemaakt heeft O-)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Kan iemand me zo vertellen welke PCI-E x1 kaart met 1 Sata aansluiting goed onder freebsd werkt ?
Ik heb nog een areca ARC-1200 die ik wel in jbod kan zetten, maar die wordt volgens mij niet standaard door freebsd ondersteund. Het is voor een DVD rom drive, dus ik moet er van kunnen booten.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
nero355 schreef op donderdag 02 mei 2013 @ 21:58:
[...]

Damn... dan liep je echt ver achter met je ports :X

De Packages Database kan je weer laten aanmaken trouwens... duurt effe maar dan heb je wat :P

* nero355 ooit dezelfde fuck up gemaakt heeft O-)
IK liep niet achter... ZFSGuru liep achter ;)

Met welk commando regenereerde je die db? pkgdb -F, maar ik heb pkgng aan gezet, dus ik moest pkg check gebruiken.

Het lijkt nu weer te werken... even kijken of ik PHP weer aan de gang krijg :)

[ Voor 15% gewijzigd door FireDrunk op 03-05-2013 09:21 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Weet iemand of het mogelijk is om met een applicatie op ZFSguru meldingen door te geven naar 'Notify My Android' ?
Ik wil namelijk dat wanneer mijn processor of hd boven een ingestelde temperatuur kom ik een notificatie krijg.

Acties:
  • 0 Henk 'm!
Is toch gewoon een kwestie van een bash scriptje schrijven wat een URL aanroept?

Even niets...


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
FireDrunk schreef op vrijdag 03 mei 2013 @ 14:36:
Is toch gewoon een kwestie van een bash scriptje schrijven wat een URL aanroept?
ok, is nieuw voor mij. Zou je mij willen helpen via DM?

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 10-10 09:53
Of het ergens plaatsen (ZFSguru forum bijvoorbeeld), hebben anderen er misschien ook wat aan. ;)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Dadona schreef op vrijdag 03 mei 2013 @ 15:04:
Of het ergens plaatsen (ZFSguru forum bijvoorbeeld), hebben anderen er misschien ook wat aan. ;)
Ik ging er eigenlijk een beetje vanuit dat dat voor vele standaard kost is :P
Blij dat er meer zijn die dit niet dagelijks doen :*)
Maar goed idee dan!

Acties:
  • 0 Henk 'm!
Nee, standard is het niet. Je moet eerst kijken welke monitoring tool je wil gebruiken.
Als je dat weet, moet je een custom rule maken dat hij een commando uitvoert bij een bepaalde threshold.
Zabbix en Nagios kunnen dat wel volgens mij.

Dan schrijf je een klein bash scriptje wat de GET URL van NotifyMyAndroid aanroept, die chmod je met +x en laat je aanroepen door Nagios of Zabbix.

Tenminste, dat is denk ik het makkelijkst..

Of je moet zelf een deamon schrijven die in een while loop de CPU temperatuur uitleest.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:51

Compizfox

Bait for wenchmarks

FireDrunk schreef op vrijdag 03 mei 2013 @ 09:09:
[...]

IK liep niet achter... ZFSGuru liep achter ;)
Je kunt gewoon zelf je ports updaten met
portsnap fetch update
en
portmaster -a
;)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
FireDrunk schreef op vrijdag 03 mei 2013 @ 15:56:
Nee, standard is het niet. Je moet eerst kijken welke monitoring tool je wil gebruiken.
Als je dat weet, moet je een custom rule maken dat hij een commando uitvoert bij een bepaalde threshold.
Zabbix en Nagios kunnen dat wel volgens mij.

Dan schrijf je een klein bash scriptje wat de GET URL van NotifyMyAndroid aanroept, die chmod je met +x en laat je aanroepen door Nagios of Zabbix.

Tenminste, dat is denk ik het makkelijkst..

Of je moet zelf een deamon schrijven die in een while loop de CPU temperatuur uitleest.
Ok ik ga eens wat dingen proberen thnx
Waarschijnlijk kom ik er nog op terug ;)

Acties:
  • 0 Henk 'm!
Compizfox schreef op vrijdag 03 mei 2013 @ 20:45:
[...]

Je kunt gewoon zelf je ports updaten met
portsnap fetch update
en
portmaster -a
;)
Weet ik, dat heb ik ook gedaan... Heb zelfs een nieuwe kernel gecompiled, en een nieuwe world gecompiled...

Daarna geswitched naar het nieuwe PKG systeem, maar omdat er een vage dependency change zit in PHP ging het allemaal niet helemaal soepel meer...

Daarna nog problemen met SQLite3... Dus nu maar opnieuw begonnen ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Geckx schreef op donderdag 28 maart 2013 @ 20:21:
[...]


En hoe gaat dat precies in zijn werk om dit in te stellen?

Ik heb voor zfsguru MySQL geinstalleerd en PureFTPd, maar die laatste wil niet starten.


[...]


Terwijl de service van MySql wel gewoon aanstaat.
Hey, is dit nog gelukt bij jou? Ik ben namelijk precies met hetzelfde bezig.

Acties:
  • 0 Henk 'm!
Ik weet echt niet wat er aan de hand is met mijn setup, maar ik kom echt wazig trage resultaten tegen met mijn ZFS pool. Ik heb een aantal testen uitgevoerd met mijn hardware:

Kitlist:
  • Crucial M4 128GB
  • Hitachi 3TB Deskstar 7200RPM
  • Intel 80GB SSD SSDSA2MH080G1 80GB
Ik heb al tijden een ZFS pool in RAIDZ en daarop draaien enkele VM's, ik heb nooit problemen gemerkt of ervaren... (wat niet wil zeggen dat ze er niet waren). Maar recent merk ik het echt omdat downloadsnelheden heel fel fluctueerden en mijn queue ophoopte...

ZFSguru is gevirtualiseerd onder ESXi 5 en draait prima. Als ik dd's doe naar mijn pool krijg ik ook prima resultaten (zie hierboven). De machine in kwestie heeft ook toegang tot een SSD (weliswaar via VMDK maar dat de performance degradatie ten opzichte van native SSD is echt verwaarloosbaar). Dezelfde SSD wordt ook gebruikt voor L2ARC, ook via VMDK en daar zijn de throughputs ook prima op ZFSguru.

Als ik een NFS share van ZFSguru mount vanuit een Ubuntu machine zijn de snelheden prima
Als ik het NFS filesysteem synced mount en writes of reads doe naar die share zijn de snelheden prima, niks aan de hand
Als ik het NFS filesysteem asynced mount en writes of reads doe naar die share zijn de snelheden prima, niks aan de hand
Als ik via ESXi, die IEDERE write commandeert om synced te zijn, een NFS share laat mounten en ik schrijf vanuit een VM naar een VMDK die op de share gaat, gaat het echt traag.

Het toevoegen van een SSD als ZIL of het verwijderen ervan haalt niets uit. Als ik synced writes op mijn filesystem uitzet, dan gaat het wel allemaal supersnel.

Ik heb al eens een herinstallatie van ZFSguru gedaan, zonder resultaat. Ik heb ook al eens bovenstaande Intel SSD aan mijn M1015 gehangen en die ingesteld als ZIL maar dat haalde niets uit. Om problemen met mijn pool zelf uit te sluiten heb ik ook eens de Intel SSD aangeboden via NFS aan ESXi, daar kwamen betere resultaten uit (20MB/s vs 5MB/s) maar ook dat is absoluut veel te traag.

Het enige wat me nu nog rest is een herinstallatie van ESXi... Iemand voor de rest nog tips, CiPHER?

Acties:
  • 0 Henk 'm!

  • jadjong
  • Registratie: Juli 2001
  • Niet online
HyperBart schreef op maandag 06 mei 2013 @ 21:24:

Het enige wat me nu nog rest is een herinstallatie van ESXi... Iemand voor de rest nog tips, CiPHER?
jadjong schreef op donderdag 02 mei 2013 @ 13:00:
echo zfs_nocacheflush/W0t1 | mdb -kw
Met deze setting ga ik van 30MB/s naar 90MB/s op een 1TB mirror met M4 arc/zil combi.
Dit is met solaris, misschien dat je met BSD een iets andere zin ervan moet bakken.

Acties:
  • 0 Henk 'm!
jadjong schreef op donderdag 02 mei 2013 @ 13:00:
echo zfs_nocacheflush/W0t1 | mdb -kw
Met deze setting ga ik van 30MB/s naar 90MB/s op een 1TB mirror met M4 arc/zil combi.
Ligt dat nu aan mij, of is dat *eigenlijk* ook niet relatief/redelijk traag?

Acties:
  • 0 Henk 'm!
Nocacheflush is toch gewoon hetzelfde als synced writes uitzetten?

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
FireDrunk schreef op maandag 06 mei 2013 @ 23:05:
Nocacheflush is toch gewoon hetzelfde als synced writes uitzetten?
Nee, dit zijn verschillende mechanismen. Synced writes voor ZFS gelden voor data writes. Origineel betekent een sync write dat direct hierna een FLUSH BUFFER commando volgt. Binnen ZFS betekent een sync write dat de volgorde van writes wordt gerespecteerd. Om een interview met een ZFS developer (Jeff Bonwick maybe?) te quoten: '98% of the time, this is what you want'. Ofwel het is nog steeds stiekem niet wat je zegt dat je doet. Want je geeft nog steeds gelijk een I/O complete terug aan de applicatie, wat dus niet betekent dat de write al op fysieke disk staat.

Binnen BSD kun je buffer flush uitschakelen met:
echo "vfs.zfs.cache_flush_disable=0" >> /boot/loader.conf
(dit raad ik overigens sterk af!)

Je kunt beter kijken of sync writes disablen het gewenste effect geeft:
zfs set sync=disabled tank/dataset
en daarna weer enablen:
zfs set sync=standard tank/dataset
(dit is veilig in gebruik; ZFS is altijd consistent ook met sync=disabled; hooguit applicatie filesystems die inconsistent worden na een crash)

Verder leesvoer:NB: het woord 'cache' in dit verband is ongelukkig gekozen; het is geen cache maar een buffer. Het verschil is subtiel. In de ATA standaard wordt overigens ook over cache gesproken; omdat de DRAM buffercache voornamelijk als cache wordt gebruikt; maar eigenlijk is dit incorrect; het gaat hier om write buffering. Omdat een cache-mechanisme veelal voor zowel caching als buffering wordt gebruikt, spreekt men ook wel over buffercache. Grofweg dient een cache voor het sneller opvragen van de data dan de originele locatie (denk aan CPU L1/L2/L3 cache wat gewoon een pure cache is voor RAM geheugen). Buffering is om twee mechanismen niet op elkaar te laten wachten, maar als tussenstation te dienen wat data kan opsparen en zodoende beide mechanismen optimaal te laten werken; denk aan TCP buffering. Ook write-back is een pure buffer, maar wordt ook als cache gebruikt als diezelfde data vervolgens wordt opgevraagd. Dus write-back is om die reden technisch een buffercache ook al ligt de nadruk op buffering ipv caching.

Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Nog extra leesvoer:Mijn hardware voor mijn server is bijna binnen. Nu lees ik dit en begin me een klein beetje zorgen te maken over het gebruik van ESXi en ZFS. Wil namelijk via ESXi meerder OS'je draaien waarvan een ZFSguru welke shares (NFS/SAMBA) beschikbaar maakt binnen ESXi (iSWITCH) en natuurlijk buiten mijn ESXi in het netwerk.

Wat zijn de ervaringen van mede tweakers op dit gebeid? Ben heel nieuwsgierig.

Acties:
  • 0 Henk 'm!
Tja, ESXi wil 100% sync, en met een reden... Als je ooit een power failure hebt, en je hebt sync niet aan staan, kan het zo maar zijn dat je 10-20 (afhankelijk van de hoeveelheid VM's die je hebt) corrupte VMDK's hebt.

Dat wil je dus absoluut niet...

Als ik sync aan heb, en ik gebruik een paar VM's tegelijk, haal ik nog maar 5MB/s sequentieel zonder ZIL. Met ZIL is dat een stuk hoger, maar exacte getallen heb ik even niet bij de hand.

Als je maar 1-5 VM's wil voor de test, zou ik me er niet zo druk over maken, ga je echt een ESXi cluster maken of echt veel VM's op 1 server draaien, moet je zeker goed nadenken wat je wil.

@CiPHER, Ik heb die thread even gelezen, en het is wel belangrijk dat mensen hem helemaal lezen, want er worden vrij snel wat aannames gedaan.

Veel mensen zien dat cache_flush_disable heel goed helpt voor performance, en zonder corruptie.
Maar als je een stukje verder leest, zeggen ze inderdaad zoals jij al aanhaalde dat cache_flush_disable gevaarlijk is omdat het out-of-order volatile writes niet goed afhandeld.

Even met kanttekening vermelden dus :)

[ Voor 26% gewijzigd door FireDrunk op 07-05-2013 09:25 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
FireDrunk schreef op dinsdag 07 mei 2013 @ 09:10:
Tja, ESXi wil 100% sync, en met een reden... Als je ooit een power failure hebt, en je hebt sync niet aan staan, kan het zo maar zijn dat je 10-20 (afhankelijk van de hoeveelheid VM's die je hebt) corrupte VMDK's hebt.

Dat wil je dus absoluut niet...

Als ik sync aan heb, en ik gebruik een paar VM's tegelijk, haal ik nog maar 5MB/s sequentieel zonder ZIL. Met ZIL is dat een stuk hoger, maar exacte getallen heb ik even niet bij de hand.

Als je maar 1-5 VM's wil voor de test, zou ik me er niet zo druk over maken, ga je echt een ESXi cluster maken of echt veel VM's op 1 server draaien, moet je zeker goed nadenken wat je wil.
Wat ik nu in mijn hoofd heb is het volgende:
- 2 keer hdd in raid 1 met mijn VM's er op (twee keer debian/pfsence/ZFSguru)
- 10 keer hdd voor mijn ZFS (deze zijn alleen beschikbaar voor ZFSguru, welke ze beschikbaar maakt via NFS/SAMBA)

Binnen mijn ESXi wil ik natuurlijk zo hoogmogelijk snelheiden halen naar mijn ZFS toe en dit wil ook ook binnen mijn netwerk. Is deze aanpak dan wel handig?

[ Voor 0% gewijzigd door Neptunus op 07-05-2013 09:27 . Reden: Typo ]


Acties:
  • 0 Henk 'm!
Uh, dat ligt er aan of je synchronous data wil.

Wat je natuurlijk kan doen is meerdere filesystems maken, 1 waar je de VM's zelf op zet en waar je de SYNC property op standard laat staan. En je kan een /data filesystem maken, waarop de VM's iets doen.
Daar kan je eventueel SYNC uitzetten.

Als je goede backups maakt, raak je nooit de VM's zelf kwijt, en kan je eventueel in een worst-case-scenario nog dingen van backup terugzetten.

Met een simpele ZIL kom je al een heel eind hoor. Dan ga je al van een paar MB/s naar een 30-70 MB/s.
Met SYNC uit, trek je gewoon Gigabit vol.

Even ter vergelijking, als je denkt dat 30-70MB/s voor Virtual machines traag is:

Ik heb het beheer gedaan van een ESXi farm van 32 ESXi hosts, en onze NetApp filer deed overdag 'maar' ~ 70MB/s gemiddeld. Op drukke momenten deed het ding 100MB/s.

Dus staar je niet blind op die getallen.

[ Voor 20% gewijzigd door FireDrunk op 07-05-2013 09:33 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
FireDrunk schreef op dinsdag 07 mei 2013 @ 09:31:
Dus staar je niet blind op die getallen.
Bedankt voor je reactie. Ga maar eens spelen met verschillende setup's en kijken wat handig is. Ben benieuwt. Zal mijn ervaringen nog wel eens posten zodat andere tweakers er misschien ook iets aan hebben.

Acties:
  • 0 Henk 'm!
Kleine tip, waar ik zelf wel tegenaan liep. Als je het downloaden en uitpakken van Usenet niet door ZFSguru laat doen, dan kan je inderdaad beter downloaden naar een volume zonder SYNC.

Juist PAR2 operaties zijn niet echt leuk via NFS op een SYNC filesystem... Dat gaat niet zo snel ;)

tegenwoordig heb ik SabNZBd maar op ZFSguru gezet, en alle andere services (Sickbeard, CouchPotato, Headphones etc) in een losse VM.

Even niets...


Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Super. Jij hebt aardig wat ervaring op dit gebeid lees ik al. Hoezou jij mijn systeem opzetten qua ESXi en VM's.

Hardware die in bestelling is:
- supermicro X9SRL-F
- 64 GB ECC ram
- Intel Xeon Processor E5-1620
- 2x IBM M1015
- 2x Intel 320 ssd
- 2x 2TB hdd (idee was VM's)
- 10x 2TB hdd voor ZFS
- 2x onboard ETH aansluiting
- 4x ETH aansluiting met Intel Quad card
- Cisco 300 serie switch

Idee qua VM was volgende:
- pfSence met 1x ETH voor binnenkomend internet verkeer en 1 interne ETH via iSWITCH in ESXi naar andere VM's
- ZFSguru voor de ZFS met 10x 2TB hdd ook op iSWICH in ESXi
- andere VM's op op iSWICH in ESXi
- en 2/3/4 ETH (Intel Quad card) aansluitingen via ESXi naar de Cisco 300 serie switch (Link Aggregation), niet om bandbreedte naar een PC te verhogen maar juist om bandbreedte naar verschillende PC's in netwerk van zelfde snelheid te kunnen voorzien. BV. twee machines die beide 1 GB ETH vo gebruiken.

Ben benieuwt hoe jij het zou opzetten!

[ Voor 0% gewijzigd door Neptunus op 07-05-2013 13:01 . Reden: Toegevoegt: - 2x IBM M1015 ]


Acties:
  • 0 Henk 'm!
Holy crap, je gaat wel even uitpakken... :+

Je denkwijze is volgens mij prima. Enige wat ik mis is op welke controller je dit alles gaat aansluiten? :)

12 disks + 2 SSD's is 14 devices :)

offtopic:
Ik heb ook nog intel 320's in de aanbieding :P

[ Voor 15% gewijzigd door FireDrunk op 07-05-2013 12:48 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • thof
  • Registratie: Oktober 2008
  • Nu online

thof

FP ProMod
Neptunus schreef op dinsdag 07 mei 2013 @ 12:23:
[...]


Super. Jij hebt aardig wat ervaring op dit gebeid lees ik al. Hoezou jij mijn systeem opzetten qua ESXi en VM's.

Hardware die in bestelling is:
- supermicro X9SRL-F
- 64 GB ECC ram
- Intel Xeon Processor E5-1620
- 2x Intel 320 ssd
- 2x 2TB hdd (idee was VM's)
- 10x 2TB hdd voor ZFS
- 2x onboard ETH aansluiting
- 4x ETH aansluiting met Intel Quad card
- Cisco 300 serie switch

Idee qua VM was volgende:
- pfSence met 1x ETH voor binnenkomend internet verkeer en 1 interne ETH via iSWITCH in ESXi naar andere VM's
- ZFSguru voor de ZFS met 10x 2TB hdd ook op iSWICH in ESXi
- andere VM's op op iSWICH in ESXi
- en 2/3/4 ETH (Intel Quad card) aansluitingen via ESXi naar de Cisco 300 serie switch (Link Aggregation), niet om bandbreedte naar een PC te verhogen maar juist om bandbreedte naar verschillende PC's in netwerk van zelfde snelheid te kunnen voorzien. BV. twee machines die beide 1 GB ETH vo gebruiken.

Ben benieuwt hoe jij het zou opzetten!
Toevallig was ik naar een min of meer vergelijkbare setup aan het kijken, moet nog even kijken of het budget het gaat toelaten... Nou heb ik nog geen ervaring met ZFS en ESXI en daarom ben ik dus ook wel benieuwd hoe dit het beste aangepakt zou moeten worden om toch een goede performance en ook betrouwbaarheid te behalen. Bij mijn setup was het sowieso het idee om de VM's op een SSD pool te zetten en bulk data op en Disk-pool (die kan dan veel in spindown).

Hieronder schets ik wat opties, ik weet niet of ze juist zijn: ik denk hardop :+. Denken jullie mee?

Optie 1: 2 NFS exports
1: Bulk storage, async write (Disk-pool)
2: Voor VM's, synced write (SSD-pool)
Dit is een simpele manier, maar als ik het goed begrijp dan gaat dit performance issues opleveren voor de VM's omdat deze allemaal als een gek sync-writes lopen uit te voeren.

Optie 2:NFS export per VM + export voor data
1: Bulk storage, async write (Disk-pool)
2: Voor VM 1, synced write (SSD-pool)
3: Voor VM 2, synced write (SSD-pool)
4: Voor VM 3, synced write (SSD-pool)
(...)
Wat minder flexibele manier, ik weet ook niet of ESXI het leuk vind als je op deze manier steeds storage toevoegd. De gedachte gang hierachter is dat er slechts sync-writes ontstaan per VM, zodat de VM's elkaar niet in de weg zitten.

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


Acties:
  • 0 Henk 'm!
Die 2e optie levert exact evenveel IOPS op je pool op, en de synced writes zitten elkaar net zoveel in de weg. De disks eronder moeten toch exact dezelfde IO's leveren? Of dat nou op 1 Filesystem staat, of op meerdere, maakt dan niets uit dunkt me...

Ik zou voor Optie 1 gaan met een ZIL, dan hoef je sync ook niet uit te zetten.

En die bulk storage, wat is dat dan? Databases? want dan kan je spindown al vergeten...

[ Voor 10% gewijzigd door FireDrunk op 07-05-2013 13:00 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
FireDrunk schreef op dinsdag 07 mei 2013 @ 12:45:
Holy crap, je gaat wel even uitpakken... :+

Je denkwijze is volgens mij prima. Enige wat ik mis is op welke controller je dit alles gaat aansluiten? :)

12 disks + 2 SSD's is 14 devices :)

offtopic:
Ik heb ook nog intel 320's in de aanbieding :P
Aan mijn post het volgende toegevoegt.
- 2x IBM M1015

Kan je me mailen voor de SSD's en kosten?

Acties:
  • 0 Henk 'm!

  • thof
  • Registratie: Oktober 2008
  • Nu online

thof

FP ProMod
Bulk storage zijn voornamelijk multimedia, geen databases. Ik dacht dat het sync write verhaal vooral speelde op NFS niveau, wat voor problemen zou zorgen. Die 5MB/s sequentieel die eerder aangehaald werd lijkt mij namelijk wel erg laag om meerdere VM's te draaien. Blijkbaar zit het toch iets anders in elkaar en moet ik mij nog wat verder inlezen :).

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


Acties:
  • 0 Henk 'm!
NFS is niets anders dan een primitief doorgeef luik. Enige nadeel is, is dat alle NFS metadata commando's (zoals: Open File, Sluit File, Wijzig attributen, yada, yada) SYNC writes zijn. Dat is leuk, maar van nature doet NFS redelijk vaak een commit volgens mij, en daardoor krijg je relatief veel SYNC writes ten opzichte van een 'normale' NTFS partitie.

Even niets...


Acties:
  • 0 Henk 'm!
Alle gekheid op een stokje: als ik een ZIL toevoeg dan zou mijn performance al omhoog moeten gaan, period. Waarom dat nu niet gebeurt: geen idee. Het lijkt me in ieder geval niet normaal...

Ik ben nog altijd op zoek naar een manier om een soort van dd in synced mode te doen om ESXi volledig uit te sluiten.

Acties:
  • 0 Henk 'm!
zfs set sync=always hulk/data
dd if=/dev/zero of=/hulk/data/testje.000 bs=1M count=10024

Zoiets?

Of:

bonnie++ -d /datapool/data/temp/bonnietest -b -s 32768 -b -u 1000

[ Voor 29% gewijzigd door FireDrunk op 07-05-2013 14:40 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Intel X520-DA2 werkt zonder issues direct in ZFSGuru :)
Simpele direct attach kabel van 60 euro ertussen en 10GE werkt als een speer.
Ik heb nu copy speed van mijn win 7 PC van 235 Mbyte/sec via samba. De windows PC is niet al te snel qua i/o met een HW raid-5 van 5x1 TB.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
Probeer eens 2 RAM drives :D Ben beniewd!

Even niets...


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
van ramdrive van win7 pc naar raidz2 volume zie ik tussen de 300 en 500 mbyte/sec gaan.
Laatste getal is 367 Mbyte/sec

Dat is dan een 2.7 GB iso file, de ramdrive is maar 4 GB, en de copy snelheid met windows is een beetje onduidelijk..

mtu is 1500 bytes, het is een point to point verbinding, dus ik zou hem wellicht op 9000 kunnen zetten ?

[ Voor 18% gewijzigd door jacovn op 07-05-2013 16:43 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
jacovn schreef op dinsdag 07 mei 2013 @ 16:37:

mtu is 1500 bytes, het is een point to point verbinding, dus ik zou hem wellicht op 9000 kunnen zetten ?
Jep, als beide machine jumbo frames aankunnen.

Acties:
  • 0 Henk 'm!

  • jadjong
  • Registratie: Juli 2001
  • Niet online
Neptunus schreef op dinsdag 07 mei 2013 @ 12:23:
[...]

Ben benieuwt hoe jij het zou opzetten!
Precies zo. Heb een soortgelijk systeem en dat draait al maanden. Zorg dat je de ZFS VM genoeg geheugen geeft. Ik dacht met 6 disks genoeg te hebben aan 8GB, maar nu dat ding 20GB heeft is snelheid bijna verdubbeld. (reads van 700MB/s door arc en l2arc <3 ) Enige nadeel is het all-in-one principe, wanneer ik een bios-update of vmware-update doe werkt niets meer in huis. :P Voordeel is dat onderlinge connectie tussen vm's redelijk snel is, zonder dat je moet investeren in 10GbE of Infiniband spul.

Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Goed om te weten, ik heb genoeg geheugen 64GB totaal. Dat moet handig te verdelen zijn. Ik heb 10 HDD van 2TB voor de ZFS opstelling. Heb als eens opzoek gegaan naar vuistregels om de hoeveelheid geheugen te bepalen. Helaas niet echt wat kunnen vinden. Jij hebt dat zo te lezen wel. Nu zeg ik: share ze met ons :P :9

Acties:
  • 0 Henk 'm!
De enterprise regel is 1GB per 1TB bovenop reguliere OS/Applicatie requirements.
Ik zou zeggen begin met benchmarken van 16GB en 32GB en als het geen verschil maakt, pak je 16GB.
Dat zou afdoende moeten zijn.

Test ook niet alleen met een lege pool, maar ook met een halfvolle (of hoe ver je hem kan vullen) pool.

Als je L2ARC en Deduplicatie aan zet, moet je ook nog extra ram rekenen. (Vooral Dedup is erg geheugen hongerig)

[ Voor 15% gewijzigd door FireDrunk op 07-05-2013 17:45 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Neptunus schreef op dinsdag 07 mei 2013 @ 17:00:
[...]


Jep, als beide machine jumbo frames aankunnen.
De win7 pc op 9014 en de zfs kant op 9000 gezet.
Iets hogere transfer rate lijkt het, nu rond de 240 mbyte/sec voor een blu ray rip.

Het is sneller dan naar de 120 gb intel ssd boot disc in de win 7 pc :)

[ Voor 11% gewijzigd door jacovn op 07-05-2013 19:35 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
Ik heb nu ondertussen ESXi geherinstalleerd met de laatste versie (zonder tuning of aanpassingen, gewoon vanilla). Verder heb ik mijn M4 nu dedicated aan mijn M1015 gehangen en als ZIL ingesteld.

De resultaten zijn nog altijd bedroevend vanuit een VM op ESXi op een NFS-share... 5MB/s.

Als ik de M4 als een aparte pool en er een FS op aanmaak en ik stel in dat alles synced moet gaan op dat FS en ik doe een DD op ZFSGURU zelf dan krijg ik snelheden van om en bij de 85MB/s....

EDIT: ik begin nu te denken dat mijn SSD te traag is :X :? . Ik heb een full memory backed disk aangemaakt van 4GB en deze even GPT geformatteerd en aan mijn pool gehangen als ZIL...

bart@Pyro3:~/test$ dd if=/dev/zero of=test.file bs=1M count=5000
5000+0 records in
5000+0 records out
5242880000 bytes (5.2 GB) copied, 20.2704 s, 259 MB/s


Dat gaat dus wel vooruit, en nog geen klein beetje, want dit zijn allemaal synced writes vanuit ESXi...

EDIT2: Bovenstaande snelheden haal ik ondertussen ook al niet meer, zit nu rond de 80 à 90MB/s

[ Voor 36% gewijzigd door HyperBart op 08-05-2013 00:12 ]


Acties:
  • 0 Henk 'm!
80MB/s synced is zo slecht nog niet hoor... bedenk je goed dat die synced writes single threaded zijn. Je moet het dus vergelijken met de 4k resultaten van AS-SSD.

Als ik vanavond tijd over heb zal ik mijn 320's eens als ZIL inzetten en benchmarken vanuit ESXi.

[ Voor 23% gewijzigd door FireDrunk op 08-05-2013 08:03 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 20:22
Seagate heeft nu ook power failsafe consumenten SSD's http://tweakers.net/nieuw...ste-consumenten-ssds.html (alleen de pro's geloof ik en voor mij nooit meer seagate.)

Acties:
  • 0 Henk 'm!
En voor mij nooit meer Seagate terwijl dit hun eerste SSD is? Hoezo bevooroordeeld? :)

Tering,

http://www.storagereview....pro_enterprise_ssd_review

Dat ding is een partij snel... Kan zich qua pieken bijna meten met de 840 Pro, en houdt het langer en beter uit in server workloads...

EN het ding heeft Power Caps... EN hij rent rondjes om de M500...

Ik zeg dat ding is ideaal voor ZFS :D

[ Voor 65% gewijzigd door FireDrunk op 08-05-2013 10:25 ]

Even niets...


Acties:
  • 0 Henk 'm!
Ik denk dat we, afgaand op spec's alleen, een nieuwe konings-SSD hebben voor ZIL/L2ARC:

http://www.storagereview....pro_enterprise_ssd_review

:)

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:51

Compizfox

Bait for wenchmarks

Nog geen prijzen bekend zeker? Hopelijk brengen ze een 32/64 GB versie uit, dat is wel fijn dan idd als L2ARC of SLOG :)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!
Capacities: 100GB(ST100FP0021), 120GB (ST120FP0021), 200GB(ST200FP0021), 240GB (ST240FP0021), 400GB(ST400FP0021) and 480GB (ST480FP0021)
Lezen is moeilijk ;)

Even niets...


Acties:
  • 0 Henk 'm!
Neen, maar prijzen worden aangegeven aan 1,4 EUR / GB.

Acties:
  • 0 Henk 'm!
140-150,- voor 100GB is wel aan de hoge kant idd... Dat is ruim duurder dan een Intel 320.

Zijn wel 8-10x zo snel, maar goed...

Even niets...


Acties:
  • 0 Henk 'm!
Vandaag nog even wat verder zitten testen, writes zijn relatief traag, maar wat me wel opvalt is dat wanneer ik aan het writen ben dat ZFS ook heel wat zit te lezen...

Dit is een iostat terwijl ik vanuit een VM een write aan het doen was naar een VMDK op NFS op ZFS:

                 capacity     operations    bandwidth
pool          alloc   free   read  write   read  write
------------  -----  -----  -----  -----  -----  -----
hulk          8.89T  4.73T     72  1.50K  9.03M   153M
  raidz1      8.89T  4.73T     72  1.36K  9.03M   143M
    gpt/bay1      -      -     71    345  2.29M  29.2M
    gpt/bay2      -      -     72    366  2.26M  30.8M
    gpt/bay3      -      -     72    364  2.32M  30.9M
    gpt/bay4      -      -     40    363  1.27M  30.8M
    gpt/bay5      -      -     31    401  1.05M  35.9M
logs              -      -      -      -      -      -
  gpt/MEM      926M  3.06G      0    138      0  9.15M
cache             -      -      -      -      -      -
  gpt/L2ARC   40.0G   112K      0    330      0  39.3M
------------  -----  -----  -----  -----  -----  -----

                 capacity     operations    bandwidth
pool          alloc   free   read  write   read  write
------------  -----  -----  -----  -----  -----  -----
hulk          8.89T  4.73T    371    720  45.7M  46.7M
  raidz1      8.89T  4.73T    371      0  45.7M      0
    gpt/bay1      -      -    352      0  11.0M      0
    gpt/bay2      -      -    348      0  10.8M      0
    gpt/bay3      -      -    360      0  11.2M      0
    gpt/bay4      -      -    210      0  6.47M      0
    gpt/bay5      -      -    202      0  6.25M      0
logs              -      -      -      -      -      -
  gpt/MEM      926M  3.06G      0    720      0  46.7M
cache             -      -      -      -      -      -
  gpt/L2ARC   40.0G    16K     65    326  8.17M  39.3M
------------  -----  -----  -----  -----  -----  -----

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 10-10 09:53
FireDrunk schreef op woensdag 08 mei 2013 @ 10:41:
140-150,- voor 100GB is wel aan de hoge kant idd... Dat is ruim duurder dan een Intel 320.

Zijn wel 8-10x zo snel, maar goed...
Maar inmidddels is er ook de Crucial M500...

De CSL/OT kroeg !

Pagina: 1 ... 72 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.