• Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:53

Compizfox

Bait for wenchmarks

Ik las dat de performance nogal tegenvalt vergeleken met ESXi. Ik zit te twijfelen...

Ik lees goede verhalen over de Sil3512 en SIL3114. Maar die is zo te zien ook PCI only.

[ Voor 3% gewijzigd door Compizfox op 03-01-2013 19:56 ]

Gewoon een heel grote verzameling snoertjes

Ik heb nog wel een LSI 1068 (3081-R) liggen.. :)

Even niets...


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:53

Compizfox

Bait for wenchmarks

Deze dus? pricewatch: LSI LSI SAS3081E-R-SGL

Niet helemaal wat ik zoek. Ik zoek een goedkoop (< €20) SATA-kaartje met 2 aansluitingen voor de datastores voor ESXi.
Dat is echter nog een hele opgave.

Gewoon een heel grote verzameling snoertjes


  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Compizfox schreef op donderdag 03 januari 2013 @ 19:31:
Ik las dat de performance nogal tegenvalt vergeleken met ESXi. Ik zit te twijfelen...

Ik lees goede verhalen over de Sil3512 en SIL3114. Maar die is zo te zien ook PCI only.
http://www.siliconimage.com/products/product.aspx?pid=32

Werd vroeger onboard gebruikt na de 3114 generatie om de limiet van de PCI bus te ontwijken. Ik snap alleen niet waar de 4x SATA versie is gebleven... was zowel een 3124 PCIe als 3132/3134 PCIe versie van geloof ik... Ik zie alleen een PCI-X versie op hun site met 4x SATA300 :/

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:53

Compizfox

Bait for wenchmarks

Goed, ik heb maar m'n ZFSGuru install gedowngrade naar FreeBSD 9.0-RELEASE.

Physical RDM werkt nu.

Ik kan nu dus ook meer SMART-data zien:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
smartctl -a /dev/da3
smartctl 5.42 2011-10-20 r3458 [FreeBSD 9.0-RELEASE amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF INFORMATION SECTION ===
Model Family:     SAMSUNG SpinPoint F1 DT
Device Model:     SAMSUNG HD753LJ
Serial Number:    S13UJ1KQ217886
LU WWN Device Id: 5 0000f0 00b128768
Firmware Version: 1AA01108
User Capacity:    750,156,374,016 bytes [750 GB]
Sector Size:      512 bytes logical/physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   8
ATA Standard is:  ATA-8-ACS revision 3b
Local Time is:    Thu Jan  3 20:22:15 2013 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART STATUS RETURN: incomplete response, ATA output registers missing
SMART overall-health self-assessment test result: PASSED
Warning: This result is based on an Attribute check.

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                                        was never started.
                                        Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (10602) seconds.
Offline data collection
capabilities:                    (0x7b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        ( 178) minutes.
Conveyance self-test routine
recommended polling time:        (  19) minutes.
SCT capabilities:              (0x003f) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   099   099   051    Pre-fail  Always       -       938
  3 Spin_Up_Time            0x0007   077   077   011    Pre-fail  Always       -       7860
  4 Start_Stop_Count        0x0032   096   096   000    Old_age   Always       -       3731
  5 Reallocated_Sector_Ct   0x0033   056   056   010    Pre-fail  Always       -       1931
  7 Seek_Error_Rate         0x000f   100   100   051    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0025   100   100   015    Pre-fail  Offline      -       0
  9 Power_On_Hours          0x0032   099   099   000    Old_age   Always       -       5619
 10 Spin_Retry_Count        0x0033   100   100   051    Pre-fail  Always       -       0
 11 Calibration_Retry_Count 0x0012   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   096   096   000    Old_age   Always       -       3568
 13 Read_Soft_Error_Rate    0x000e   099   099   000    Old_age   Always       -       938
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       19
184 End-to-End_Error        0x0033   100   100   099    Pre-fail  Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       938
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   076   065   000    Old_age   Always       -       24 (Min/Max 22/26)
194 Temperature_Celsius     0x0022   073   062   000    Old_age   Always       -       27 (Min/Max 22/27)
195 Hardware_ECC_Recovered  0x001a   100   100   000    Old_age   Always       -       10311998
196 Reallocated_Event_Count 0x0032   078   078   000    Old_age   Always       -       906
197 Current_Pending_Sector  0x0012   100   095   000    Old_age   Always       -       3
198 Offline_Uncorrectable   0x0030   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   100   100   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x000a   100   100   000    Old_age   Always       -       0
201 Soft_Read_Error_Rate    0x000a   099   096   000    Old_age   Always       -       7

SMART Error Log Version: 1
ATA Error Count: 886 (device log contains only the most recent five errors)
        CR = Command Register [HEX]
        FR = Features Register [HEX]
        SC = Sector Count Register [HEX]
        SN = Sector Number Register [HEX]
        CL = Cylinder Low Register [HEX]
        CH = Cylinder High Register [HEX]
        DH = Device/Head Register [HEX]
        DC = Device Command Register [HEX]
        ER = Error register [HEX]
        ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 886 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 6d 9d a0 ec  Error: UNC at LBA = 0x0ca09d6d = 211852653

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  c8 00 00 f6 9c a0 ec 00   9d+03:17:22.300  READ DMA
  c8 00 00 f6 9b a0 ec 00   9d+03:17:22.300  READ DMA
  c8 00 00 f6 9a a0 ec 00   9d+03:17:22.290  READ DMA
  c8 00 00 f6 99 a0 ec 00   9d+03:17:22.290  READ DMA
  c8 00 00 86 42 a0 ec 00   9d+03:17:22.290  READ DMA

Error 885 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ed 04 98 ec  Error: UNC at LBA = 0x0c9804ed = 211289325

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  c8 00 80 ea 04 98 ec 00   9d+03:17:09.110  READ DMA
  c8 00 00 6a 16 98 ec 00   9d+03:17:09.110  READ DMA
  c8 00 80 6a 24 98 ec 00   9d+03:17:09.050  READ DMA
  c8 00 00 6a 15 98 ec 00   9d+03:17:09.020  READ DMA
  ca 00 10 10 0a 00 e0 00   9d+03:17:09.020  WRITE DMA

Error 884 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 6d 12 98 ec  Error: UNC at LBA = 0x0c98126d = 211292781

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  c8 00 00 ea 11 98 ec 00   9d+03:17:07.860  READ DMA
  c8 00 00 ea 10 98 ec 00   9d+03:17:07.860  READ DMA
  c8 00 00 ea 0f 98 ec 00   9d+03:17:07.850  READ DMA
  ca 00 10 10 0a 00 e0 00   9d+03:17:07.850  WRITE DMA
  c8 00 10 10 0a 00 e0 00   9d+03:17:07.810  READ DMA

Error 883 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ed 04 98 ec  Error: UNC at LBA = 0x0c9804ed = 211289325

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  c8 00 00 ea 04 98 ec 00   9d+03:17:06.710  READ DMA
  c8 00 00 ea 0c 98 ec 00   9d+03:17:06.710  READ DMA
  c8 00 00 ea 06 98 ec 00   9d+03:17:06.700  READ DMA
  c8 00 00 e0 fb 97 ec 00   9d+03:17:06.700  READ DMA
  c8 00 00 ea 09 98 ec 00   9d+03:17:06.700  READ DMA

Error 882 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ed f8 97 ec  Error: UNC at LBA = 0x0c97f8ed = 211286253

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  c8 00 00 e0 f8 97 ec 00   8d+06:44:52.340  READ DMA
  c8 00 00 e0 f7 97 ec 00   8d+06:44:52.340  READ DMA
  c8 00 00 e0 f6 97 ec 00   8d+06:44:52.340  READ DMA
  c8 00 00 e0 f5 97 ec 00   8d+06:44:52.340  READ DMA
  c8 00 00 6a 83 97 ec 00   8d+06:44:52.340  READ DMA

SMART Self-test log structure revision number 0
Warning: ATA Specification requires self-test log structure revision number = 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]


Note: selective self-test log revision number (0) not 1 implies that no selective self-test has ever been run
SMART Selective self-test log data structure revision number 0
Note: revision number not 1 implies that no selective self-test has ever been run
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Gewoon een heel grote verzameling snoertjes

3 current pending sectors terwijl je net een zero write had gedaan...
Klinkt als een stervende schijf...

Even niets...


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:53

Compizfox

Bait for wenchmarks

Ondertussen heeft ie ze reallocated.

Maar het is dus op geen manier een 'overblijfsel' van die virtual RDM's die ik had? Het kan niet anders dan dat het echt een fysiek kapotte disk is?

Gewoon een heel grote verzameling snoertjes

Een bad sector is een bad sector... Of het nou via RDM is of niet...

Even niets...


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:53

Compizfox

Bait for wenchmarks

Goed, die disk moet vervangen worden dus.

Ben iig blij dat ZFS er nu 'van op de hoogte' is (wat met virtual RDM niet het geval was). Bedankt voor jullie hulp!

Gewoon een heel grote verzameling snoertjes


  • Jonny55
  • Registratie: Maart 2012
  • Laatst online: 15-01-2021
enthernal schreef op donderdag 03 januari 2013 @ 08:48:
om via VNC verbinding te maken moet je je virtuele machine een naam in de vorm van 'testmachine;5900' geven, enkel dan kan je er via VNC aan. Dat staat er overigens ergens bij, maar zou inderdaad in wat grotere lettertjes mogen ;)
Dat is inderdaad makkelijker gezegd dan gedaan, maar hoe bedoel je de host naam wijzigen? deze kan niet aanpassen.
ik heb all van alles geprobeerd namen, ip-adressen blijkbaar zie iets over het hoofd
als ik op net kijk, lees ik er allemaal vrij weinig over met zfsgru geen duidelijk uitleg, zal wel iets duidelijker mogen of is allemaal nog vrij beta?
heb voor de duidelijkheid maar even print screen gemaakt met de set-up:

Afbeeldingslocatie: http://s13.postimage.org/ux5ik5hmf/Knipsel.jpg
Afbeeldingslocatie: http://s7.postimage.org/ypu2wo3az/VM1.jpg

[ Voor 5% gewijzigd door Jonny55 op 04-01-2013 01:14 ]


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:53

Compizfox

Bait for wenchmarks

Virtualbox werkte toch met RDP?

Gewoon een heel grote verzameling snoertjes


  • fluppie007
  • Registratie: April 2005
  • Laatst online: 19-12 17:20
Jonny55, gewoon je VM renamen naar test;5900

[ Voor 13% gewijzigd door fluppie007 op 04-01-2013 02:04 ]


  • B2
  • Registratie: April 2000
  • Laatst online: 16:44

B2

wa' seggie?

Op dit moment gebruik ik ZFSGuru als een vm op een kvm hypervisor. Schijven op een M1015 en middels VT-d doorgegeven. Er draaien ook nog wat andere vm's. Werkt allemaal prima maar het verbruik is te hoog. 49W in idle. Mijn vorige server deed 18W.

Nu wil ik gaan kijken of ik de services op 1 host kan krijgen, en FreeBSD gaan gebruiken. ZFS is namelijk een must en ik heb geen zin om ZoL te gaan gebruiken. Wat is aan te bevelen, een vanilla FreeBSD installatie en daar ZFSGuru webinterface werkend opmaken, of heeft ZFSGuru nog wel zoveel overvan FreeBSD dat daar handmatig de overige services zelf opgezet kunnen worden : pf, mysql, lighttpd, Sabnzbd, sickbeard, couchpotato.
Die kan je allemaal gewoon op de ZFSguru systeem images installeren.
FreeBSD is trouwens niet zo zuinig als linux...

[ Voor 26% gewijzigd door FireDrunk op 04-01-2013 08:54 ]

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Jonny55 schreef op vrijdag 04 januari 2013 @ 01:10:
[...]
Dat is inderdaad makkelijker gezegd dan gedaan, maar hoe bedoel je de host naam wijzigen? deze kan niet aanpassen.
ik heb all van alles geprobeerd namen, ip-adressen blijkbaar zie iets over het hoofd
als ik op net kijk, lees ik er allemaal vrij weinig over met zfsgru geen duidelijk uitleg, zal wel iets duidelijker mogen of is allemaal nog vrij beta?
Simpelweg een VM kiezen, settings van de VM wijzigen en de eerste tab die je te zien krijgt (letterlijk), daar moet je de naam even aanpassen in bijvoorbeeld 'test;5900'.

De CSL/OT kroeg !


  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 21-12 16:08
Even snel een vraagje,

Momenteel heb ik een aantal Nexenta systemen met commerciele licenties draaien, echter moet ik binnenkort mijn storage gaan uitbreiden door de snelle groei binnen mijn bedrijf. Na opvragen van prijzen voor extra/hogere licenties lijkt het me dat Nexenta een beetje teveel vraagt, ik zou iets meer dan 50k enkel aan licenties moeten ophoesten om de uitbreiding voor elkaar te krijgen.

Heeft iemand een alternatief voor een HA setup (bij voorkeur active - active) met ZFS storage? (betalend is geen probleem zolang het binnen de perken blijft)

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
ItsValium schreef op vrijdag 04 januari 2013 @ 11:16:
Even snel een vraagje,

Momenteel heb ik een aantal Nexenta systemen met commerciele licenties draaien, echter moet ik binnenkort mijn storage gaan uitbreiden door de snelle groei binnen mijn bedrijf. Na opvragen van prijzen voor extra/hogere licenties lijkt het me dat Nexenta een beetje teveel vraagt, ik zou iets meer dan 50k enkel aan licenties moeten ophoesten om de uitbreiding voor elkaar te krijgen.

Heeft iemand een alternatief voor een HA setup (bij voorkeur active - active) met ZFS storage? (betalend is geen probleem zolang het binnen de perken blijft)
Wij zijn (als storage leverancier) om dezelfde reden steeds minder met Nexenta, en steeds meer met OpenIndiana aan het doen.
Ik ben bezig geweest om een HA setup te maken dmv pacemaker/heartbeat (bekend van linux clusters). Dit werkt in principe, maar de "resource agents" zijn niet allemaal (of allemaal niet :P ) beschikbaar op OI, ik ben bezig geweest met een zpool import/export resource agent, maar niet genoeg tijd om daar echt voortgang in te maken.
Verder hebben we wel omgevingen draaen waarbij we shared storage hebben, en handmatig zpools kunnen importeren / exporteren om zo bij calamiteiten te kunnen switchen van server. En dat is enorm schaalbaar te maken met SAS-switching technologie :9

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.

Je bedoelt, je maakt dual port / dual controller / dual server setups, en importeerd on-the-fly ZFS pools?

Klinkt cool :D

Even niets...


  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
FireDrunk schreef op vrijdag 04 januari 2013 @ 12:09:
Je bedoelt, je maakt dual port / dual controller / dual server setups, en importeerd on-the-fly ZFS pools?

Klinkt cool :D
Een beetje dit idee:
Afbeeldingslocatie: http://www.scsita.org/serial-storage-wire/images/SAS-goes-distance-fig2.png

Die SAS-switches kun ook nog cascaden, en je maakt er 1 heel groot direct-attached storage netwerk van. En voor beheer kun je dan op de sas-switches nog gebruik maken van zonering, daarmee kun je helemaal bepalen welke hosts welke JBOD, of zelfs welke disks ze wel/niet zien.

Videootje van LSI
YouTube: LSI SAS6160 Switch - Installation of a 6Gb/s SAS Switch in a Rack Enviroment

Klinkt mooi allemaal he? Maar je merkt wel dat dit allemaal nog best nieuw is, en nog heel weinig bekend is over betrouwbaarheid in grote omgevingen. Ook de firmware van die switches is nog niet 100% af ....

Edit:
Dat hoeft dus ook niet allemaal dual-ported spul te zijn. Je switch zorgt ervoor dat verschillende machines bij de juiste storage komen, dus het is niet nodig om van elke server naar elke diskarray te bekabelen

[ Voor 9% gewijzigd door u_nix_we_all op 04-01-2013 12:47 ]

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.

Maar, wat maakt het uit of de servers redundant uitvoerd ipv de storage?
Kosten?

Want qua configuratie lijkt dit mij net zo ingewikkeld en heeft het (theoretisch gezien) net zoveel kans van falen als minder servers met meer disk arrays, of mis ik iets?

Even niets...


  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
FireDrunk schreef op vrijdag 04 januari 2013 @ 13:00:
Maar, wat maakt het uit of de servers redundant uitvoerd ipv de storage?
Kosten?

Want qua configuratie lijkt dit mij net zo ingewikkeld en heeft het (theoretisch gezien) net zoveel kans van falen als minder servers met meer disk arrays, of mis ik iets?
Dit ie echt iets voor hele grote omgevingen, 100TB+ , waar sowieso met meerdere servers gewerkt wordt, ivm verdeling van de load. Als je met 2 servers voldoende capaciteit hebt kun je het ook zonder switches en met dual-ported JBOD's doen idd, maar dan moet je server bij een storing op de andere server de dubbele capaciteit hebben om nog de performance te halen.
Als je 4 servers hebt en er valt er 1 uit, moeten de drie anderen 33% harder werken. Dus als het echt groot wordt gaat het zinvol worden om de load over meer servers te verdelen. En dan is een sas-switch een oplossing met veel lagere latency dan de gangbare FC/iSCSI methoden.

Voor het principe van een shared-storage cluster maakt het eigenlijk niet zoveel uit. Je maakt een groep met resources aan, hierin zitten je zpool en je shares, en deze kun je op meerdere servers (maar 1 tegelijk) actief hebben.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 21-12 16:08
Die sas switching klinkt interessant, kan je een ruw prijsindicatie geven? (Desnoods via DM om hier niet al te veel in dit topic te gaan vervuilen)

[ Voor 33% gewijzigd door ItsValium op 04-01-2013 13:16 ]


  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
ItsValium schreef op vrijdag 04 januari 2013 @ 13:16:
Die sas switching klinkt interessant, kan je een ruw prijsindicatie geven? (Desnoods via DM om hier niet al te veel in dit topic te gaan vervuilen)
Mwoa, topic vervuiling is hier geloof ik standaard :+
Ik heb nog niemand gehoord over een slowchat van 1 pagina lang over een sata controller voor ESX, LOL

Ca $3000 voor een 16 poorts switch (1 poort is 4 x 6 Gbps sas)

Edit:
Je mag me uiteraard wel een DM sturen als je op zoek bent naar een storagepartner om eens naar mogelijke oplossingen te kijken.

[ Voor 11% gewijzigd door u_nix_we_all op 04-01-2013 13:30 ]

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 21-12 16:08
Na wat verder gelezen te hebben over die sas switches bedenk ik me net dat ik misschien wel de volledige behoefte aan storage server zou kunnen weglaten, en via zo'n switch al mijn virtualisatienodes rechtstreeks met een hoop diskarrays laten praten. Hoewel dan de redundancy en dergelijke niet te configureren valt, of vergis ik me?
Zo werkt het niet volgens mij hoor... Servers kunnen niet allemaal gebruik maken van dezelfde disks op het zelfde moment.

Even niets...


  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 21-12 16:08
Na wat verder gelezen te hebben, viel mijn 'euro' ook, dit is dus onmogelijk.

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
FireDrunk schreef op vrijdag 04 januari 2013 @ 13:40:
Zo werkt het niet volgens mij hoor... Servers kunnen niet allemaal gebruik maken van dezelfde disks op het zelfde moment.
Klopt, een zpool kan maar op 1 server tegelijk geimporteerd zijn. Dat is dan ook de uitdaging bij het schrijven van resource-agent scripts. Je wilt ten alle tijden voorkomen dat 2 servers van elkaar niet weten dat een bepaalde pool al geimporteerd is (split-brain ellende).
(Je kunt overigens wel (en dat weet niet iedereen) een zpool die ergens geimporteerd is, tegelijkertijd READ-ONLY importeren :P )
Je zult dus met aanmaken van zpools er rekening mee moeten houden dat als je je load wilt verdelen, je meerdere kleine zpools moet gebruiken


Edit:
ItsValium schreef op vrijdag 04 januari 2013 @ 13:29:
Na wat verder gelezen te hebben over die sas switches bedenk ik me net dat ik misschien wel de volledige behoefte aan storage server zou kunnen weglaten, en via zo'n switch al mijn virtualisatienodes rechtstreeks met een hoop diskarrays laten praten. Hoewel dan de redundancy en dergelijke niet te configureren valt, of vergis ik me?
Theoretisch is dat wel mogelijk IMHO, je zou zelfs zonering in de sas-switches kunnen doen zodat elke node alleen zijn "eigen" disks ziet, maar dat lijkt me niet handig voor provisioning, beheer van je storage, redundancy moet per node geregeld worden, en je hebt geen ZFS !

[ Voor 31% gewijzigd door u_nix_we_all op 04-01-2013 13:50 ]

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 21-12 16:08
u_nix_we_all, dank voor de nuttige info, nog even iets wat ik me al tijden afvraag,

In plaats van een HA te bouwen, zou het niet makkelijker en stukken goedkoper zijn om twee onafhankelijke storage bakken naast elkaar te zetten, elk met hun disks en een zpool (wel gelijke grootte en config om problemen te voorkomen) op gescheiden netwerken en de virtualisatienodes via twee aparte netwerkkaarten dan een datastore laten mounten van elk van de bakken, en die dan in de vm's in raid 1 te plaatsen? Als één bak eruit gaat, dan kan de VM zelf na het herstellen ervan de data weer syncroniseren zou dit toch redelijk moeten lukken?

[ Voor 9% gewijzigd door ItsValium op 04-01-2013 13:53 ]

Kan je dan niet 1 write server, en meerdere read servers opzetten? Aangezien in de meeste omgevingen er veel meer gelezen word dan geschreven?

Even niets...


  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
ItsValium schreef op vrijdag 04 januari 2013 @ 13:52:
u_nix_we_all, dank voor de nuttige info, nog even iets wat ik me al tijden afvraag,

In plaats van een HA te bouwen, zou het niet makkelijker en stukken goedkoper zijn om twee onafhankelijke storage bakken naast elkaar te zetten, elk met hun disks en een zpool (wel gelijke grootte en config om problemen te voorkomen) op gescheiden netwerken en de virtualisatienodes via twee aparte netwerkkaarten dan een datastore laten mounten van elk van de bakken, en die dan in de vm's in raid 1 te plaatsen? Als één bak eruit gaat, dan kan de VM zelf na het herstellen ervan de data weer syncroniseren zou dit toch redelijk moeten lukken?
Hangt er een beetje vanaf. Als je virualisatienodes mbv iSCSI naar je storage gaat moet je dus over iSCSI mirroren, ik denk dat je dan niet blij gaat worden als er eens een resync gedaan moet worden.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.

Over het onderwerp: Virtualisatie / RDM onder KVM heb ik net het volgende gevonden:

Best practice: Use block devices for VM storage
A guest operating system that uses block devices for local mass storage typically performs better than a guest operating system that uses disk image files. The guest operating system that uses block devices achieves lower-latency and higher throughput.

Bron: http://publib.boulder.ibm...Fliaat%2Fliaatbpblock.htm
A guest operating system that uses block devices performs better because of the number of software layers through which it passes. When an I/O request is targeted to the local storage of a guest operating system, the I/O request must pass through the file system and I/O subsystem of the guest operating system. Then, qemu-kvm moves the I/O request from the guest operating system and the hypervisor handles the I/O request. Next, the hypervisor completes the I/O request in the same way the hypervisor completes an I/O request for other processes running within the Linux operating system.
Dat betekend dus dat physical disk passthrough onder KVM ZFS compatible zou moeten zijn.
Misschien maar eens proberen :D

KVM geinstalleerd op een test bakje, disks doorgegeven via de QEMU AHCI SATA controller, en dat werkt tot nu toe prima. Er is ook gewoon van te booten (in tegenstelling tot VT-d devices in ESXi en volgens mij geld datzelfde voor RDM)

Qua netwerk performance heeft FreeBSD eindelijk weer eens goed aan de weg getimmert :D

[root@zfsguru /home/ssh]# iperf -c 192.168.1.114 -P 2
------------------------------------------------------------
Client connecting to 192.168.1.114, TCP port 5001
TCP window size: 32.5 KByte (default)
------------------------------------------------------------
[  4] local 192.168.1.139 port 32740 connected with 192.168.1.114 port 5001
[  3] local 192.168.1.139 port 52163 connected with 192.168.1.114 port 5001
[ ID] Interval       Transfer     Bandwidth
[  4]  0.0-10.0 sec  5.35 GBytes  4.59 Gbits/sec
[  3]  0.0-10.0 sec  5.26 GBytes  4.52 Gbits/sec
[SUM]  0.0-10.0 sec  10.6 GBytes  9.11 Gbits/sec


Of toch niet :+
Afbeeldingslocatie: http://i50.tinypic.com/2v2i6mt.png

[ Voor 28% gewijzigd door FireDrunk op 04-01-2013 18:21 ]

Even niets...


  • B2
  • Registratie: April 2000
  • Laatst online: 16:44

B2

wa' seggie?

FireDrunk schreef op vrijdag 04 januari 2013 @ 08:44:
Die kan je allemaal gewoon op de ZFSguru systeem images installeren.
FreeBSD is trouwens niet zo zuinig als linux...
Vanavond even ZFSguruop mijn oude server gezet. 24-25W, maar dat is nog zonder tweaks. Ik zie namelijk dat FreeBSD 9.1 ook ondersteuning heeft voor de KMS-based intel driver. Morgen even drm.i915.enable_rc6=7 toevoegen aan de loader.conf en kijken of dat nog wat scheelt.

PF kon ik trouwens niet starten vanuit de webinterface..

Andere opties die ik nog ga proberen zijn ZFS on Linux op Fedora 17.

[ Voor 5% gewijzigd door B2 op 04-01-2013 22:56 ]


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:53

Compizfox

Bait for wenchmarks

Ik vroeg me af in hoeverre het noodzakelijk is dat je identieke schijven binnen 1 pool hebt. Ik snap dat de performance gelimiteerd wordt door de traagste schijf, maar maakt het uit als je 2 identieke, en 1 snellere schijf hebt?

Ik heb dus die pool van 3x 750 GB, waarvan 1 schijf FUBAR is/gaat zijn.
Ivm mijn slechte ervaring met het kopen van tweedehands disks wil ik dus eigenlijk niet nog een Samsung HD753LJ als vervanging tweedehands kopen.

Nieuw zijn er echter ook geen schijven van 750 GB, 7200 rpm te koop.

Zou het dus voor mijn pool uitmaken als ik een 1 TB disk erbij gooi die even snel is (of sneller) dan de disks die ik er nu in heb?

Gewoon een heel grote verzameling snoertjes


  • B2
  • Registratie: April 2000
  • Laatst online: 16:44

B2

wa' seggie?

B2 schreef op vrijdag 04 januari 2013 @ 22:53:
[...]


Vanavond even ZFSguruop mijn oude server gezet. 24-25W, maar dat is nog zonder tweaks. Ik zie namelijk dat FreeBSD 9.1 ook ondersteuning heeft voor de KMS-based intel driver. Morgen even drm.i915.enable_rc6=7 toevoegen aan de loader.conf en kijken of dat nog wat scheelt.

PF kon ik trouwens niet starten vanuit de webinterface..

Andere opties die ik nog ga proberen zijn ZFS on Linux op Fedora 17.
Hm, weinig met ZFS te maken, maar de IBM M1015 kaart pakt gewoon 13W... Mijn combi van Xeon E3-1230 en X9SCM-F en 2 latjes van 8GB ECC geheugen doet 26-28W, met de M1015 kaart erbij zit ik gelijk op 39-41W.

Het starten van PF in de ZFSguru webinterface geeft trouwens een fout, is dat met een reden? Ik heb nog geen configuratie in een pf.conf file oid gezet.
13W Dat is wel veel... Heb je ASPM aan staan in je BIOS? Voor mijn gevoel verstookt die van mij veel minder.

Maar ik zal het nog eens meten als ik tijd heb.

Even niets...


  • groen-geel
  • Registratie: April 2009
  • Laatst online: 20-11 21:09
Klopt, volgens de lsisas9210-8i_product_brief.pdf vreet die m1015 13.5Watt aan energie.

Ook leuk is dat de MTBF >2M uur is - in tegenstelling tot veel andere lsi kaarten.
Is dat niet de TDP? Want ik lees overal dat de kaart ongeveer 7W doet (ook hier op het forum).

TDP != verbruik. Als er geen power management opties gebruikt worden, verbruikt de kaart misschien wel gewoon 13W (max) en als er wel maximaal power savings gebruikt word 7W.

Kan me niet voorstellen dat het ding 5W verschil heeft per persoon.

Even niets...


  • B2
  • Registratie: April 2000
  • Laatst online: 16:44

B2

wa' seggie?

FireDrunk schreef op zaterdag 05 januari 2013 @ 12:42:
13W Dat is wel veel... Heb je ASPM aan staan in je BIOS? Voor mijn gevoel verstookt die van mij veel minder.

Maar ik zal het nog eens meten als ik tijd heb.
Gisteravond even nagekeken, ASPM stond op disabled, nu op auto. Geen verschil. Zou het er mee te maken kunnen hebben dat ik de kaart via VT-d doorgeef aan ZFSGuru?

Op een andere bak heb ik trouwens nu ZFS on Linux met Fedora 17 gezet. Ik verwacht daar flink minder qua verbruik te scoren. Daarna kijken of dat ook lukt met de X9SCM-F en xeon combi. Zou jammer zijn als ik dat niet zou gebruiken :)

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 07:52
nog steeds een probleem met sabnzbd... Maar ik kan het probleem bijna vinden ;)

wat is er gebeurd:
ZFSguru beta 8 opnieuw geinstalleerd.
Samba shares aangemaakt van mijn data
Sabnzbd geinstalleerd, versie 6.
Sabnzbd geconfigureerd en gecontrolleerd of het programma werkt, ja dit werkt naar behoren (overigens nog geen download aangezet).
In "processor usage" zie ik de 8 processen van Sabnzbd
Samba share aangemaakt om services te benaderen (BootZFS/zfsguru/services/9.1-004 = "Services")
Reboot
In "processor usage" zie ik maar 1 proces van Sabnzbd, namelijk Sabnzbd (hoofdprogramma) en zfsguru geeft aan dat het proces gedeeltelijk gestart is.
Reboot (dag later)
In "processor usage" zie ik maar 1 proces van Sabnzbd, namelijk Sabnzbd (hoofdprogramma) en zfsguru geeft aan dat het proces gedeeltelijk gestart is.

Na een week + een paar downloads (die klaar waren op het moment) nogmaals gereboot en in "processor usage" is het proces helemaal verdwenen.
In die week tijd kon ik het hoofdprogramma niet meer opstarten via internet explorer en zelfs zfsguru intern kon er niet meer bij. Wat sabnzbd wel deed was downloaden. Alles werkte op de achtergrond zonder een mogelijkheid te hebben om iets te veranderen. Wat er in die week wel een paar keer gebeurd is, is dat het IP adres van ZFSguru gewisseld is.

Mijn vraag, hoe zet je dit IP adres vast op ZFSguru? Ik vrees dat dit namelijk het probleem is in sabnzbd.
Of is het beter dit via de router te beheren?

Verwijderd

Topicstarter
Dan heb je een slechte router die je computers elke keer een nieuw IP geeft. Dat hoort absoluut niet, met DHCP kun je elke keer weer hetzelfde IP adres verkrijgen. DHCP servers die dat niet doen zijn gewoon slecht en primitief. Soms moet je het MAC adres opgeven voor vaste DHCP regels.

In de toekomst kun je ZFSguru gemakkelijk als DHCP server laten fungeren. Weer iets wat je modem niet meer kan verknallen. Tot die tijd kun je in /etc/rc.conf je IP adres statisch configureren. Maar dat is enkel omdat je geen normaal functionerende DHCP server hebt.
Routers die geen DHCP -> MAC binding kennen zijn niet per definitie slecht. Of wil je dat dat ding aan het einde van zijn leases geen IP adressen meer uitdeelt? Misschien is de router van EnerQI wel bij het einde van zijn leases :)

Ik heb zelf DD-WRT en die onthoud het inderdaad wel.

Het is wel vrij normaal dat goedkope routers geen schrijfbare ruimte hebben om die data in op te slaan.
Duurdere routers hebben daar NVRAM voor.

Mocht er DD-WRT voor jouw router beschikbaar zijn, kan ik dat van harte aanraden :)

[ Voor 6% gewijzigd door FireDrunk op 06-01-2013 11:46 ]

Even niets...


  • de echte flush
  • Registratie: September 2007
  • Laatst online: 24-12 20:07
"ATA_CAM option is enabled in kernel.
Please use camcontrol instead."

Kan iemand mij uitleggen wat het verschil is tussen ATA_CAM en camcontrol? Van Google wordt ik niet echt wijzer. Heeft het (nadelige) gevolgen als ik dit wijzig, en vooral dan hoe wijzig ik dit :)
(emebedded Nas4free 9.1.0.1 rev 531)

(Het probleem dat mijn disk random wegvalt is er nog steeds. zie ook hier: http://gathering.tweakers...message/39366263#39366263. Ik dacht dat dit er misschien mee te maken kon hebben. Kan waarschijnlijk geen "goede" disk naar WD terug sturen. Al begin ik toch te denken dat het een probleem is met de disk (hardware/firmware). Maar WD tools vind natuurlijk niks...)

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Ik heb na veel zoeken eigenlijk nog niet gevonden of er onder bsd ook een procedure is om een nieuwe hdd goed te test voor hem in gebruik te nemen. De testserver met nas4free was heel snel klaar met de hdd's. Die kwamen uit mijn unraid server, en hadden reiserfs file systemen.

Voor mijn nieuwe opzet heb ik een aantal hdd's gekocht om genoeg ruimte te hebben, en ook aan dezelfde 10 hdd's te komen voor een raidz2.

Bij unraid is er een pre-clear script wat smarts waardes leest, de hele disk vol 0-en schrijft, deze leest en checked en vervolgens weer de smarts waardes bekijkt en vergelijkt met de 1e smarts check.

Is er een soortgelijk iets, of is dat alleen handmatig te doen (zelf een script maken is vrees ik een brug te ver voor mij)

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

@De echte flush,

camcontrol is de 'opvolger' van ataidle. ataidle werkte zelf via de /dev/ada* apparaten, camcontrol gaat via de kernel. Om verwarring te voorkomen, hebben ze ataidle obsolete gemaakt (volgens mij vanaf FreeBSD 8.2).

@jacovn,

Smart waardes uitlezen kan met smartctl (of via de webinterface als je ZFSguru gebruikt).
Disk volschrijven met 0-en kan met dd.

*** GEVAARLIJK ***
dd if=/dev/zero of=/dev/ada[insert-nummer-van-disk] bs=32M


Wel even zorgen dat de disk niet in gebruik is.

[ Voor 3% gewijzigd door FireDrunk op 06-01-2013 12:58 ]

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Ik heb nu nas4free als test geinstalleerd, en daar wel een scherm gevonden waar ik smarts aan kan zetten, maar ik kreeg geen waardes terug. Dat moet dan waarschijnlijk via de command line.

Is wat dat betreft zfsguru beter om te gebruiken ?
Het is moeilijk om te kiezen tussen nas4free en zfsguru omdat ik niet echt thuis ben in de materie.

Ik wil alleen mijn blu ray rips opslaan, en met mijn dune afspelen. Niets meer..

Dus os installeren, en dan eerst alle hdd's maar met de hand controleren.
Kan ze ook onder unraid preclearen, en dan in bsd.zfs gaan gebruiken natuurlijk. Dan heb ik er geen omkijken naar.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
jacovn schreef op zondag 06 januari 2013 @ 13:05:
Ik heb nu nas4free als test geinstalleerd, en daar wel een scherm gevonden waar ik smarts aan kan zetten, maar ik kreeg geen waardes terug.


Kijk even vanaf 5:04 in het filmpje daar kan je zien hij je bij de smart resultaten kan komen in nas4free. :)

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Thx, die video heb ik wel ooit bekeken, maar het was niet blijven hangen... Zal wel de spanning zijn, ik wordt vader deze week.
Nas4free werkte wel direct voor me, alleen even tijd nodig gehad om wat van zfs te begrijpen.
Performance ook wel ok met 60 mbyte/sec naar een atom d525 systeem (cpu op 80%)

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:53

Compizfox

Bait for wenchmarks

FireDrunk schreef op zondag 06 januari 2013 @ 11:45:
Routers die geen DHCP -> MAC binding kennen zijn niet per definitie slecht. Of wil je dat dat ding aan het einde van zijn leases geen IP adressen meer uitdeelt? Misschien is de router van EnerQI wel bij het einde van zijn leases :)

Ik heb zelf DD-WRT en die onthoud het inderdaad wel.

Het is wel vrij normaal dat goedkope routers geen schrijfbare ruimte hebben om die data in op te slaan.
Duurdere routers hebben daar NVRAM voor.

Mocht er DD-WRT voor jouw router beschikbaar zijn, kan ik dat van harte aanraden :)
Ik zou eerder OpenWRT aanraden, dat is echt een verademing boven DD-WRT :) Mits je een beetje met SSH kan werken dan :)
Sommige routers (waaronder de OpenWRT en DD-WRT firmware) hebben ook static DHCP. Dat houdt in dat je zelf kunt aangeven welk IP de router aan een MAC-adres moet geven.

Zo is mijn default DHCP-range 192.168.2.100-192.168.2.254, maar krijgt mijn server het ip 192.168.2.5 uitgedeeld.

Gewoon een heel grote verzameling snoertjes


  • sloth
  • Registratie: Januari 2010
  • Niet online
jacovn schreef op zondag 06 januari 2013 @ 13:05:
Ik heb nu nas4free als test geinstalleerd, en daar wel een scherm gevonden waar ik smarts aan kan zetten, maar ik kreeg geen waardes terug. Dat moet dan waarschijnlijk via de command line.

Is wat dat betreft zfsguru beter om te gebruiken ?
Het is moeilijk om te kiezen tussen nas4free en zfsguru omdat ik niet echt thuis ben in de materie.

Ik wil alleen mijn blu ray rips opslaan, en met mijn dune afspelen. Niets meer..

Dus os installeren, en dan eerst alle hdd's maar met de hand controleren.
Kan ze ook onder unraid preclearen, en dan in bsd.zfs gaan gebruiken natuurlijk. Dan heb ik er geen omkijken naar.
Je moet eerst S.M.A.R.T. aanzetten voor elke hdd die je wil monitoren. Vervolgens kan je de bij Diagnostics - Information de smart waarden raadplegen.
Ook heeft N4F een functie waarbij je een mailtje krijgt als de smart waarden veranderen, bv door een slechte sector. Hier moet ik me wel nog wat verder in gaan verdiepen i.c.m. spindown, om te vermijden dat m'n hdd's te veel upspinnen.

[ Voor 3% gewijzigd door sloth op 06-01-2013 14:16 ]


  • de echte flush
  • Registratie: September 2007
  • Laatst online: 24-12 20:07
FireDrunk schreef op zondag 06 januari 2013 @ 12:57:
@De echte flush,

camcontrol is de 'opvolger' van ataidle. ataidle werkte zelf via de /dev/ada* apparaten, camcontrol gaat via de kernel. Om verwarring te voorkomen, hebben ze ataidle obsolete gemaakt (volgens mij vanaf FreeBSD 8.2).
Aha bedankt FireDrunk. Als ik het goed begrijp zou ik camcontrol nu niet gebruiken? Hoe wijzig ik de kernel dat ie wel camcontrol gaat gebruiken?
"ATA_CAM option is enabled in kernel. Please use camcontrol instead." (of kan ik deze melding gewoon negeren?)

Verwijderd

Topicstarter
Wat camcontrol voor het SCSI/CAM systeem betekende, betekende atacontrol voor ATA devices. In FreeBSD zijn ATA en SCSI nu verenigd onder één 'backend' ofwel CAM. In vorige releases was ATA nog onaangetast en moest je ATA_CAM kernel optie enablen om de toen-nog-niet-default ATA-over-CAM backend in te schakelen. Gevolg van ATA-on-CAM is wel dat je atacontrol niet meer werkt denk ik, waardoor ataidle dus ook niet meer werkt. Je kunt wel camcontrol gebruiken, die vergelijkbare functionaliteit biedt.

Van wat ik begrijp is het nieuwe systeem veel deftiger en biedt één systeem aan voor zowel SCSI/SAS als ATA-gebaseerde disks.
jacovn schreef op zondag 06 januari 2013 @ 12:31:
Ik heb na veel zoeken eigenlijk nog niet gevonden of er onder bsd ook een procedure is om een nieuwe hdd goed te test voor hem in gebruik te nemen.
Probeer de ZFSguru advanced disk benchmark eens. Die kan meerdere dagen testen als je dat wilt. Bovendien krijg je mooie grafiekjes over verschillende ZFS configuraties en hun prestaties.

[ Voor 11% gewijzigd door Verwijderd op 06-01-2013 21:04 ]

Ik heb de maker van de spindown utility een mail gestuurd of hij een optie wil toevoegen zodat je kan zien of een disk al in spindown is of niet. De huidige methode van ZFSguru is via SMART, en dat is volgens mij niet aan te raden om meer dan zoveel keer per uur op te vragen, ik heb nogal eens gehoord dat het veelvuldig opvragen van SMART gegevens tot een crashende controller of disk leidde.

Ik wil graag grafiekjes maken met de data van de utility, zodat je in de web interface kan zien hoe lang en hoe vaak je disks standby gaan.

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Hmm, dat zijn niet de berichten waar ik blij van kan worden. Kun je iets specifieker zijn over de "nogal eens gehoord"... Het zou maken dat ik mijn script moet stoppen op een schijf waar ik de headpark niet van uit kan schakelen.

De CSL/OT kroeg !

Exacte getallen heb ik niet, maar er is een tijd een bug geweest (of is die er nog?) dat als je smartmontools continue smart waardes liet monitoren je controller in lockup ging.

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Hmm, stelt mij voor de keuze, headpark van een WD schijf waar wdidle niet voor werkt en waar apm ontbreekt gewoon z'n gang laten gaan of toch het script... Naar.

De CSL/OT kroeg !

Als je er tot nu toe geen last van hebt gehad, gewoon blijven draaien. Als je het teveel deed, had je er al wel last van gehad. En het kan goed dat de problemen al opgelost zijn.

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Wat dat betreft, wat cijfertjes. Twee schijven krijgen hier van mij iedere 7 seconde een vraag naar de LCC (...| grep Load_Cycle_Count). En dit gebeurt al voor meer dan twee maanden, waarvan in ieder geval een volle onafgebroken.

De CSL/OT kroeg !

Dan zal jij er wel geen last van hebben :+

Even niets...


Verwijderd

Topicstarter
FireDrunk schreef op zondag 06 januari 2013 @ 21:17:
Exacte getallen heb ik niet, maar er is een tijd een bug geweest (of is die er nog?) dat als je smartmontools continue smart waardes liet monitoren je controller in lockup ging.
Dit is een bug in de LSI 1068E controller, ofwel de eerste generatie 3Gbps LSI HBA controllers. Hij komt ook onder andere platforms voor zoals Linux, met name wanneer 'smartd' wordt gedraaid. Zolang je zelf queried via smartctl zou er geen probleem zijn. Ik heb er met mijn LSI 1068E geen last van gehad, maar hoorde wel mensen die problemen hadden toen ze smartd hadden ingeschakeld. Die zou SMART-requests snel achter elkaar sturen, ofzoiets, wat een hardware bug triggered.

De methode om te controleren of een disk in spindown is, is ook geen SMART request, enkel een 'raw' request via atacontrol command (wat nu camcontrol <command> moet zijn) wat checkt of de disk in spindown is ja of nee.

Wellicht kun je in de source kijken van smartmontools welk command precies wordt gebruikt, en deze direct via camcontrol uitvoeren ipv via smartmontools.
Met smartctl -r IOCTL -n STANDBY -A /dev/da0 kan dat ook al.
Maar of dat nou erg duidelijk is :+

Voor nu werkt (voor scripting / monitoring):

smartctl -A -n standby /dev/da1 > /dev/null; echo $?

geeft 2 als disk standby is, en 0 als hij draait.

[ Voor 44% gewijzigd door FireDrunk op 06-01-2013 21:59 ]

Even niets...

Grmbl grmbl gvd

Heb op dezelfde ESXi als waar mijn ZFSguru machine op draait op een Ubuntu VM een share van ZFSguru gemounted... Performance is echt ruk, geen vmxnet3 of whatever op ZFSguru, Ubuntu weet ik niet...

Moet maar eens kijken hoe de pool performed als ik van mijn laptop naar de pool schrijf...

[ Voor 10% gewijzigd door HyperBart op 07-01-2013 08:29 ]


  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
HyperBart schreef op maandag 07 januari 2013 @ 08:26:
Grmbl grmbl gvd

Heb op dezelfde ESXi als waar mijn ZFSguru machine op draait op een Ubuntu VM een share van ZFSguru gemounted... Performance is echt ruk, geen vmxnet3 of whatever op ZFSguru, Ubuntu weet ik niet...

Moet maar eens kijken hoe de pool performed als ik van mijn laptop naar de pool schrijf...
de vmware-tools kun je toch uit de ports halen.

  • B2
  • Registratie: April 2000
  • Laatst online: 16:44

B2

wa' seggie?

Ik ben nu bezig met ZFS on Linux op Fedora 17. Op zich heb ik het prima werken, maar het mounten van de pools/filesystems tijdens boot wil nog niet lukken. Is een dingetje met systemd. Ik zag dat iemand hier wel een fork voor heeft gemaakt, maar daar lijkt geen actieve ontwikkeling meer in te zitten.

Er zit trouwens 5 tot 6 W verschil tussen Fedora 17 en ZFSGuru. Die M1015 kaart krijg ik trouwens niet lager dan 12-13W. En heet dat die chipset wordt...
Ubuntu ondersteunt zowel VMXNET3 als PVSCSI.
FreeBSD ondersteunt alleen VMXNET3. Die moet je wel even met de hand compilen, want vmware tools installeert die niet automatisch volgens mij.

Heet? Hier is het ding handwarm...

[ Voor 9% gewijzigd door FireDrunk op 07-01-2013 09:26 ]

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op maandag 07 januari 2013 @ 09:26:
Ubuntu ondersteunt zowel VMXNET3 als PVSCSI.
FreeBSD ondersteunt alleen VMXNET3. Die moet je wel even met de hand compilen, want vmware tools installeert die niet automatisch volgens mij.

Heet? Hier is het ding handwarm...
Idd, gebruik op eigen risico ;) linkje naar de info hoe te doen.

Sluit me aan bij FireDrunk, de chip op de M1015 is handwarm en heb er geen fan op gericht staan.

[ Voor 10% gewijzigd door Pantagruel op 07-01-2013 09:31 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

Ik gebruik liever VirtIO... Jammer dat VMware dat nog niet implementeert... Dat zou toch eens nice zijn :P

Even niets...


  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
Waarom draait hier iedereen esxi en geen Xenserver?

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
Geen idee. Heb weinig kaas gegeten van virutalisatie maar zeker in deze thread lijkt iedereen esxi te gebruiken en ik vroeg me af of dat een bepaalde reden heeft. Killer feature dat xen niet heeft oid

  • B2
  • Registratie: April 2000
  • Laatst online: 16:44

B2

wa' seggie?

FireDrunk schreef op maandag 07 januari 2013 @ 09:26:
Heet? Hier is het ding handwarm...
Hm vreemd zeg, ik heb er twee, allebei in verschillende machines, maar bij allebei ligt het verbruik boven de 12W. En beide zijn echt niet handwarm :)
matty___ schreef op maandag 07 januari 2013 @ 10:00:
[...]

Geen idee. Heb weinig kaas gegeten van virutalisatie maar zeker in deze thread lijkt iedereen esxi te gebruiken en ik vroeg me af of dat een bepaalde reden heeft. Killer feature dat xen niet heeft oid
Ah, je bedoeld het dus meer vragenderwijs... Je opmerking klonk namelijk erg verwijtend...

Waarom ESXi? Omdat het makkelijk is, veel features bevat die andere platformen niet hebben, en omdat het gewoon snel is.

ESXi met een SSD gaat echt héél rap.

Features die ESXi heeft die leuk zijn: Memory overcommitment, CPU overcommitment, VM DirectPath, VMDK Reclaim, shared VMDK's, PVSCSI, VMXNET3, installeren op een USB Stick, automatische uitrol met UDA.

En ik vergeet er vast een hoop.

Even niets...


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:53

Compizfox

Bait for wenchmarks

FireDrunk schreef op maandag 07 januari 2013 @ 09:26:
Ubuntu ondersteunt zowel VMXNET3 als PVSCSI.
FreeBSD ondersteunt alleen VMXNET3. Die moet je wel even met de hand compilen, want vmware tools installeert die niet automatisch volgens mij.

Heet? Hier is het ding handwarm...
Jawel, gewoon vmware-tools mounten vanuit de VSphere client, de disk mounten onder FreeBSD, de source even in /usr/src/ zetten, en bij het installeren van vmware-tools build hij dan automatisch de kernel module voor vmxnet3. Moet je dus wel die kernel source hebben.

Gewoon een heel grote verzameling snoertjes

Die handleiding van Pantagruel werkt ook ;)

Even niets...


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:53

Compizfox

Bait for wenchmarks

Dat probleem zal wel gefixed zijn in ESXi 5.1 dan, want bij mij werkten de drivers uit de vmware-tools zonder die patch prima.
(Getest op FreeBSD 9 en 9.1)

Gewoon een heel grote verzameling snoertjes

matty___ schreef op maandag 07 januari 2013 @ 08:51:
[...]

de vmware-tools kun je toch uit de ports halen.
Ik snap niet wat vmware tools met die bagger performance te maken hebben? Ik haal met E1000 nog niet eens 5MB/s over Samba...

  • Jaap-Jan
  • Registratie: Februari 2001
  • Laatst online: 16:17
HyperBart schreef op maandag 07 januari 2013 @ 12:24:
[...]

Ik snap niet wat vmware tools met die bagger performance te maken hebben? Ik haal met E1000 nog niet eens 5MB/s over Samba...
Misschien omdat je nu een generieke ethernetdriver gebruikt, in plaats van een geoptimaliseerde VMWare driver?

| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett

Jaap-Jan schreef op maandag 07 januari 2013 @ 12:34:
[...]
Misschien omdat je nu een generieke ethernetdriver gebruikt, in plaats van een geoptimaliseerde VMWare driver?
Lijkt mij zeer sterk dat de E1000 adapter van VMware onder Ubuntu ZO ondermaats presteert... 8)7 Heb al verschillende virtuele machines op basis van Ubuntu gehad en nooit die problemen gehad... OK, VMXnet 3 is altijd wat performanter, maar 5MB/s is om bij te huilen.

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
HyperBart schreef op maandag 07 januari 2013 @ 12:37:
[...]

Lijkt mij zeer sterk dat de E1000 adapter van VMware onder Ubuntu ZO ondermaats presteert... 8)7 Heb al verschillende virtuele machines op basis van Ubuntu gehad en nooit die problemen gehad... OK, VMXnet 3 is altijd wat performanter, maar 5MB/s is om bij te huilen.
draai je freebsd of linux? Grote kans dat de linux driver beter geoptimaliseerd is voor vmware.
E1000 onder elk OS haalt ook gewoon >90MB/s. Kost alleen iets meer CPU t.o.v. VMXNET3.

5MB/s klinkt meer als duplex mismatch (hoewel dat tegenwoordig bijna niet meer kan) of rotte drivers, of een collision probleem ofzo.

Wireshark er al eens tegenaan gegooid?

Even niets...


  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
B2 schreef op maandag 07 januari 2013 @ 10:19:
[...]


Hm vreemd zeg, ik heb er twee, allebei in verschillende machines, maar bij allebei ligt het verbruik boven de 12W. En beide zijn echt niet handwarm :)
Ik weet het verbruik niet van de M1015 maar bij mij is ie ook behoorlijk warm en heb ik er een apart fan voor. Heeft het verschil misschien iets te maken met de IT firmware? Ik begrijp dat er verschillende versies zijn, een waar je niets meer van de M1015 ziet tijdens het booten en eentje waar je wel nog de M1015 krijgt te zien (en die heb ik).

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w

iRReeL schreef op maandag 07 januari 2013 @ 13:41:
[...]
een waar je niets meer van de M1015 ziet tijdens het booten en eentje waar je wel nog de M1015 krijgt te zien (en die heb ik).
Firmware met BIOS en zonder BIOS Firmware zonder BIOS en met BIOS

[ Voor 6% gewijzigd door HyperBart op 07-01-2013 13:49 ]

Anders gezegd, alleen Firmware actief, of ook een BIOS actief.
Ze gaan beide in een ander stukje NVRAM :)

Zonder BIOS werkt de kaart prima, maar kan je er niet van booten.

Is geen verschil in versie, alleen in manier van flashen.

Even niets...


  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
ok zal dus ook niets te maken hebben met het vebruik / hitte..

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


  • B2
  • Registratie: April 2000
  • Laatst online: 16:44

B2

wa' seggie?

iRReeL schreef op maandag 07 januari 2013 @ 14:10:
ok zal dus ook niets te maken hebben met het vebruik / hitte..
Inderdaad, want ik heb de IT-mode versie zonder bios.
Ik zal thuis nog eens checken als ik tijd heb, moet toch nog een keer de kast openmaken, want ik moet mijn SSD's vervangen :)

Even niets...


  • Geckx
  • Registratie: November 2008
  • Laatst online: 00:18
1. Ik had een vraagje ivm met de gnome graphics shell voor ZFSguru.

Hiermee wat zitten experimenteren en alles prime kunnen installeren. Maar ik geraak er niet uit hoe ik mij als user kan 'authenticaten' . Ik zou namelijk graag een foutief gedownload pakketje willen verwijderen. Maar aangezien ik enkel kan bekijken en niks aanpassen is de optie om te verwijderen greyed out.

Het gaat om de apache webserver. In de webconfig geeft hij bij de installatie de fout dat de grootte niet overeenkomt. En via commands verwijderen ben ik ook niet helemaal zeker hoe en wat dusja...

2. Ook zit ik met een vraag m.b.t. de Owncloud service.
Ik zou graag een deel van de opslag overal online ter beschikking hebben via WAN.
Maar owncloud installeert op de ssd pool bij het OS. Logisch, maar ik vind nergens een optie om de gelinkte storage aan te passen naar mijn storage pool. Ik ben dus beperkt tot 9Gb die nog vrij is op de SSD en dat is ook helemaal niet de bedoeling om deze vol te zetten.

Of is er een betere manier om dit te bewerkstelligen. Kan ik bijvoorbeeld delen van mijn pool via internet sharen en andere blijven enkel lokaal?

Voorbeeld: (mijn pool heet 'storage')

storage/audio
storage/documents

Deze sharen en dan andere zoals storage/foto en storage/movies niet sharen?


EDIT:
3. Is er ook geen manier om die tempfs te verbergen, telkens iemand naar de server gaat staat naast mapje storage ook die tempfs er. Op zich niet storend, maar als die onzichtbaar zou zijn is altijd leuk. Eveneens hetzelfde met 'storage/share'.

[ Voor 8% gewijzigd door Geckx op 07-01-2013 16:49 ]


Verwijderd

Topicstarter
@Geckx:

1. Je kunt met SSH inloggen en dan de download in de /<pool>/zfsguru/downloads directory verwijderen. Hij kan ook in /tmp/ staan afhankelijk van welke ZFSguru versie je hebt gebruikt. Merk ook op dat Apache en MySQL services nog niet 'af' zijn. Het installeert de packages, maar je moet zelf alles configureren.

2. Owncloud zou je moeten configgen naar je grote data pool en niet enkel op je SSD. Maar ik zal zelf eens klooien want ik weet niet helemaal hoe Owncloud werkt. :P

3. Je kunt de tmpfs Samba-share verbergen door hem te verwijderen. Je hebt hem niet nodig. Dus gewoon verwijderen in Services->Internal->Samba. Merk op dat in de opkomende beta9 versie het delen met Samba en NFS sterk is verbeterd. De 'share' filesystem die standaard wordt aangemaakt, kun je gerust verwijderen. Erop klikken en onderaan zie je destroy filesystem.

Verwijderd

Topicstarter
Duurt allemaal iets langer, eerst komt de 9.1-005 systeemversie en nieuwe services, daarna de beta9 web-interface. De features worden elke keer uitgebreid. Maar moet wel zeggen dat ZFSguru er wel een boost bij krijgt. Het delen van bestanden is toch een kernfeature van een NAS OS en in ZFSguru was dat allemaal behoorlijk gedateerd en verwaarloosd. Dat wordt nu rechtgezet.

Eerst zou het alleen een Samba rewrite zijn, nu komt daar ook meer bij, waaronder NFS. Ik hoop alleen wel dat hij eens gereleased wordt, want de Samba functionaliteit is zo goed als af en al bruikbaar. Zou jammer zijn als mensen er nog weken op moeten wachten. Persoonlijk denk ik dat 10 dagen een redelijke gok is, maar ik ben vaak te optimistisch met dat soort schattingen. Bovendien heb ik het niet in eigen hand. :P

Maar er zitten nieuwe dingen aan te komen. Over een paar dagen zou Jason alvast met een aankondiging komen. Een 'state of the union'. :P
Mijn spindown grafieken beginnen ook vorm te krijgen, misschien iets voor beta10? :+

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Is een intel x25m van 80 GB ook nog goed te gebruken als L2ARC drive ?
Die heb ik nog liggen van mijn pc waar ik een 180 GB in gezet heb.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

Ik snap het niet, een kant geeft aan dat de bandbreedte "goed" is:

[ssh@zfsguru /home/ssh]$ iperf -c 192.168.4.25 -P 1 -i 5 -p 5999 -f B -t 60 -T 1
------------------------------------------------------------
Client connecting to 192.168.4.25, TCP port 5999
TCP window size: 33304 Byte (default)
------------------------------------------------------------
[  3] local 192.168.4.250 port 58420 connected with 192.168.4.25 port 5999
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0- 5.0 sec  3467902976 Bytes  693580595 Bytes/sec
[  3]  5.0-10.0 sec  3537764352 Bytes  707552870 Bytes/sec
[  3] 10.0-15.0 sec  3522560000 Bytes  704512000 Bytes/sec
[  3] 15.0-20.0 sec  3553361920 Bytes  710672384 Bytes/sec
[  3] 20.0-25.0 sec  3557294080 Bytes  711458816 Bytes/sec
[  3] 25.0-30.0 sec  3512074240 Bytes  702414848 Bytes/sec
[  3] 30.0-35.0 sec  3524657152 Bytes  704931430 Bytes/sec
[  3] 35.0-40.0 sec  3519414272 Bytes  703882854 Bytes/sec
[  3] 40.0-45.0 sec  3545235456 Bytes  709047091 Bytes/sec
[  3] 45.0-50.0 sec  3493986304 Bytes  698797261 Bytes/sec
[  3] 50.0-55.0 sec  3518889984 Bytes  703777997 Bytes/sec
[  3] 55.0-60.0 sec  3478519808 Bytes  695703962 Bytes/sec
[  3]  0.0-60.0 sec  42236903424 Bytes  703850039 Bytes/sec


En Pyro2 (mijn Ubuntu VM):

bart@Pyro2:~/Downloads/incomplete$ iperf -s -P 2 -i 5 -p 5999 -f k
------------------------------------------------------------
Server listening on TCP port 5999
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
[  4] local 192.168.4.25 port 5999 connected with 192.168.4.250 port 58420
[ ID] Interval       Transfer     Bandwidth
[  4]  0.0- 5.0 sec  3386152 KBytes  5547872 Kbits/sec
[  4]  5.0-10.0 sec  3454934 KBytes  5660563 Kbits/sec
[  4] 10.0-15.0 sec  3439996 KBytes  5636089 Kbits/sec
[  4] 15.0-20.0 sec  3469889 KBytes  5685066 Kbits/sec
[  4] 20.0-25.0 sec  3473923 KBytes  5691676 Kbits/sec
[  4] 25.0-30.0 sec  3429738 KBytes  5619283 Kbits/sec
[  4] 30.0-35.0 sec  3441972 KBytes  5639328 Kbits/sec
[  4] 35.0-40.0 sec  3437016 KBytes  5631207 Kbits/sec
[  4] 40.0-45.0 sec  3461990 KBytes  5672124 Kbits/sec
[  4] 45.0-50.0 sec  3412160 KBytes  5590482 Kbits/sec
[  4] 50.0-55.0 sec  3436490 KBytes  5630345 Kbits/sec
[  4] 55.0-60.0 sec  3397019 KBytes  5565676 Kbits/sec
[  4]  0.0-60.0 sec  41246976 KBytes  5628998 Kbits/sec


Ik dacht dat die twee "kanten" van iperf gelijk moesten zijn qua throughput?
jacovn schreef op maandag 07 januari 2013 @ 20:54:
Is een intel x25m van 80 GB ook nog goed te gebruken als L2ARC drive ?
Die heb ik nog liggen van mijn pc waar ik een 180 GB in gezet heb.
Ja hoor, ik heb er hier zelfs 2 (1 voor ZIL, en 1 voor L2ARC) worden wel binnenkort vervangen door Intel 320's vanwege de stroombeveiliging (heb geen UPS).
HyperBart schreef op maandag 07 januari 2013 @ 21:04:
Ik snap het niet, een kant geeft aan dat de bandbreedte "goed" is:

[ssh@zfsguru /home/ssh]$ iperf -c 192.168.4.25 -P 1 -i 5 -p 5999 -f B -t 60 -T 1
------------------------------------------------------------
Client connecting to 192.168.4.25, TCP port 5999
TCP window size: 33304 Byte (default)
------------------------------------------------------------
[  3] local 192.168.4.250 port 58420 connected with 192.168.4.25 port 5999
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0- 5.0 sec  3467902976 Bytes  693580595 Bytes/sec
[  3]  5.0-10.0 sec  3537764352 Bytes  707552870 Bytes/sec
[  3] 10.0-15.0 sec  3522560000 Bytes  704512000 Bytes/sec
[  3] 15.0-20.0 sec  3553361920 Bytes  710672384 Bytes/sec
[  3] 20.0-25.0 sec  3557294080 Bytes  711458816 Bytes/sec
[  3] 25.0-30.0 sec  3512074240 Bytes  702414848 Bytes/sec
[  3] 30.0-35.0 sec  3524657152 Bytes  704931430 Bytes/sec
[  3] 35.0-40.0 sec  3519414272 Bytes  703882854 Bytes/sec
[  3] 40.0-45.0 sec  3545235456 Bytes  709047091 Bytes/sec
[  3] 45.0-50.0 sec  3493986304 Bytes  698797261 Bytes/sec
[  3] 50.0-55.0 sec  3518889984 Bytes  703777997 Bytes/sec
[  3] 55.0-60.0 sec  3478519808 Bytes  695703962 Bytes/sec
[  3]  0.0-60.0 sec  42236903424 Bytes  703850039 Bytes/sec


En Pyro2 (mijn Ubuntu VM):

bart@Pyro2:~/Downloads/incomplete$ iperf -s -P 2 -i 5 -p 5999 -f k
------------------------------------------------------------
Server listening on TCP port 5999
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
[  4] local 192.168.4.25 port 5999 connected with 192.168.4.250 port 58420
[ ID] Interval       Transfer     Bandwidth
[  4]  0.0- 5.0 sec  3386152 KBytes  5547872 Kbits/sec
[  4]  5.0-10.0 sec  3454934 KBytes  5660563 Kbits/sec
[  4] 10.0-15.0 sec  3439996 KBytes  5636089 Kbits/sec
[  4] 15.0-20.0 sec  3469889 KBytes  5685066 Kbits/sec
[  4] 20.0-25.0 sec  3473923 KBytes  5691676 Kbits/sec
[  4] 25.0-30.0 sec  3429738 KBytes  5619283 Kbits/sec
[  4] 30.0-35.0 sec  3441972 KBytes  5639328 Kbits/sec
[  4] 35.0-40.0 sec  3437016 KBytes  5631207 Kbits/sec
[  4] 40.0-45.0 sec  3461990 KBytes  5672124 Kbits/sec
[  4] 45.0-50.0 sec  3412160 KBytes  5590482 Kbits/sec
[  4] 50.0-55.0 sec  3436490 KBytes  5630345 Kbits/sec
[  4] 55.0-60.0 sec  3397019 KBytes  5565676 Kbits/sec
[  4]  0.0-60.0 sec  41246976 KBytes  5628998 Kbits/sec


Ik dacht dat die twee "kanten" van iperf gelijk moesten zijn qua throughput?
Waarom? Ontvangen kost misschien wel minder CPU bij de een, dan bij de ander. :)
Heeft denk ik vooral met de virtualisatie laag te maken.

Even niets...

ZFSguru 0.2.0-beta8 (9.1-004) pool benchmark
Pool            : hulk (13.6T, 47% full)
Test size       : 64 GiB
normal read	: 488 MB/s
normal write	: 403 MB/s
I/O bandwidth	: 30 GB/s


Valt dus best wel goed mee :)

Ik denk dat die belabberde snelheid van gisteren kwam doordat ik een move aan het doen was van verschillende kleine bestandjes...

Nu eens over Samba een dd doen naar de gemounte'de share.

EDIT:

bart@Pyro2:~$ dd if=/dev/zero of=nas_temp/test.file bs=1M count=500
500+0 records in
500+0 records out
524288000 bytes (524 MB) copied, 1.22683 s, 427 MB/s
bart@Pyro2:~$ dd if=/dev/zero of=nas_temp/test.file bs=1M count=1024
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB) copied, 3.06679 s, 350 MB/s
bart@Pyro2:~$ dd if=/dev/zero of=nas_temp/test.file bs=1M count=2048
2048+0 records in
2048+0 records out
2147483648 bytes (2.1 GB) copied, 6.52352 s, 329 MB/s
bart@Pyro2:~$ dd if=/dev/zero of=nas_temp/test.file bs=1M count=10240
10240+0 records in
10240+0 records out
10737418240 bytes (11 GB) copied, 32.5321 s, 330 MB/s


Dafuq :? . Die snelheid ligt hoger dan de throughput van mijn NIC...

[ Voor 47% gewijzigd door HyperBart op 07-01-2013 21:24 ]


  • Jonny55
  • Registratie: Maart 2012
  • Laatst online: 15-01-2021
Kan iemand mijn bevestigen (voor dat ik bestel) op de ASRock B75 Pro3-M zitten twee Asmedia controllers op, werken deze probleemloos met ZFSguru of andere ZFS freebsd bestuurssystemen?
kon het niet zo snel niet vinden!

[ Voor 5% gewijzigd door Jonny55 op 07-01-2013 21:23 ]


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:53

Compizfox

Bait for wenchmarks

Zolang het gewoon AHCI is moet het werken.

Gewoon een heel grote verzameling snoertjes


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
FireDrunk schreef op maandag 07 januari 2013 @ 21:12:
[...]

Ja hoor, ik heb er hier zelfs 2 (1 voor ZIL, en 1 voor L2ARC) worden wel binnenkort vervangen door Intel 320's vanwege de stroombeveiligi
Al de types die genoemd worden:samsung 830, intel 320 zijn moeilijker leverbaar,en vervangen voor goedkopere opvolgers die minder zijn. Dit lijkt geen vooruitgang...

Eerst maar de x25 testen. Ik weet ook niet of,ik een dedicated zil nodig ga hebben voor een file server voor blu ray rips..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

@HyperBart, dat gaat over je localhost interface... En die is (bijna) onbeperkt snel.

@Jacovn, nee ZIL is een beetje overdreven voor alleen een film filesystem :)

[ Voor 57% gewijzigd door FireDrunk op 07-01-2013 21:34 ]

Even niets...

FireDrunk schreef op maandag 07 januari 2013 @ 21:33:
@HyperBart, dat gaat over je localhost interface... En die is (bijna) onbeperkt snel.

@Jacovn, nee ZIL is een beetje overdreven voor alleen een film filesystem :)
Maar die SMB share is gemounted over een IP-verbinding van mijn LAN, niet over een localhost interface. Ik geloof je graag, maar ik vind het maar raar :+ .
Pagina: 1 ... 57 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.