Gewoon een heel grote verzameling snoertjes
Even niets...
Niet helemaal wat ik zoek. Ik zoek een goedkoop (< €20) SATA-kaartje met 2 aansluitingen voor de datastores voor ESXi.
Dat is echter nog een hele opgave.
Gewoon een heel grote verzameling snoertjes
http://www.siliconimage.com/products/product.aspx?pid=32Compizfox schreef op donderdag 03 januari 2013 @ 19:31:
Ik las dat de performance nogal tegenvalt vergeleken met ESXi. Ik zit te twijfelen...
Ik lees goede verhalen over de Sil3512 en SIL3114. Maar die is zo te zien ook PCI only.
Werd vroeger onboard gebruikt na de 3114 generatie om de limiet van de PCI bus te ontwijken. Ik snap alleen niet waar de 4x SATA versie is gebleven... was zowel een 3124 PCIe als 3132/3134 PCIe versie van geloof ik... Ik zie alleen een PCI-X versie op hun site met 4x SATA300
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Physical RDM werkt nu.
Ik kan nu dus ook meer SMART-data zien:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
| smartctl -a /dev/da3
smartctl 5.42 2011-10-20 r3458 [FreeBSD 9.0-RELEASE amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net
=== START OF INFORMATION SECTION ===
Model Family: SAMSUNG SpinPoint F1 DT
Device Model: SAMSUNG HD753LJ
Serial Number: S13UJ1KQ217886
LU WWN Device Id: 5 0000f0 00b128768
Firmware Version: 1AA01108
User Capacity: 750,156,374,016 bytes [750 GB]
Sector Size: 512 bytes logical/physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: 8
ATA Standard is: ATA-8-ACS revision 3b
Local Time is: Thu Jan 3 20:22:15 2013 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART STATUS RETURN: incomplete response, ATA output registers missing
SMART overall-health self-assessment test result: PASSED
Warning: This result is based on an Attribute check.
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (10602) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 178) minutes.
Conveyance self-test routine
recommended polling time: ( 19) minutes.
SCT capabilities: (0x003f) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 099 099 051 Pre-fail Always - 938
3 Spin_Up_Time 0x0007 077 077 011 Pre-fail Always - 7860
4 Start_Stop_Count 0x0032 096 096 000 Old_age Always - 3731
5 Reallocated_Sector_Ct 0x0033 056 056 010 Pre-fail Always - 1931
7 Seek_Error_Rate 0x000f 100 100 051 Pre-fail Always - 0
8 Seek_Time_Performance 0x0025 100 100 015 Pre-fail Offline - 0
9 Power_On_Hours 0x0032 099 099 000 Old_age Always - 5619
10 Spin_Retry_Count 0x0033 100 100 051 Pre-fail Always - 0
11 Calibration_Retry_Count 0x0012 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 096 096 000 Old_age Always - 3568
13 Read_Soft_Error_Rate 0x000e 099 099 000 Old_age Always - 938
183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 19
184 End-to-End_Error 0x0033 100 100 099 Pre-fail Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 938
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 076 065 000 Old_age Always - 24 (Min/Max 22/26)
194 Temperature_Celsius 0x0022 073 062 000 Old_age Always - 27 (Min/Max 22/27)
195 Hardware_ECC_Recovered 0x001a 100 100 000 Old_age Always - 10311998
196 Reallocated_Event_Count 0x0032 078 078 000 Old_age Always - 906
197 Current_Pending_Sector 0x0012 100 095 000 Old_age Always - 3
198 Offline_Uncorrectable 0x0030 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 100 100 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x000a 100 100 000 Old_age Always - 0
201 Soft_Read_Error_Rate 0x000a 099 096 000 Old_age Always - 7
SMART Error Log Version: 1
ATA Error Count: 886 (device log contains only the most recent five errors)
CR = Command Register [HEX]
FR = Features Register [HEX]
SC = Sector Count Register [HEX]
SN = Sector Number Register [HEX]
CL = Cylinder Low Register [HEX]
CH = Cylinder High Register [HEX]
DH = Device/Head Register [HEX]
DC = Device Command Register [HEX]
ER = Error register [HEX]
ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
Error 886 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 6d 9d a0 ec Error: UNC at LBA = 0x0ca09d6d = 211852653
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
c8 00 00 f6 9c a0 ec 00 9d+03:17:22.300 READ DMA
c8 00 00 f6 9b a0 ec 00 9d+03:17:22.300 READ DMA
c8 00 00 f6 9a a0 ec 00 9d+03:17:22.290 READ DMA
c8 00 00 f6 99 a0 ec 00 9d+03:17:22.290 READ DMA
c8 00 00 86 42 a0 ec 00 9d+03:17:22.290 READ DMA
Error 885 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 ed 04 98 ec Error: UNC at LBA = 0x0c9804ed = 211289325
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
c8 00 80 ea 04 98 ec 00 9d+03:17:09.110 READ DMA
c8 00 00 6a 16 98 ec 00 9d+03:17:09.110 READ DMA
c8 00 80 6a 24 98 ec 00 9d+03:17:09.050 READ DMA
c8 00 00 6a 15 98 ec 00 9d+03:17:09.020 READ DMA
ca 00 10 10 0a 00 e0 00 9d+03:17:09.020 WRITE DMA
Error 884 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 6d 12 98 ec Error: UNC at LBA = 0x0c98126d = 211292781
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
c8 00 00 ea 11 98 ec 00 9d+03:17:07.860 READ DMA
c8 00 00 ea 10 98 ec 00 9d+03:17:07.860 READ DMA
c8 00 00 ea 0f 98 ec 00 9d+03:17:07.850 READ DMA
ca 00 10 10 0a 00 e0 00 9d+03:17:07.850 WRITE DMA
c8 00 10 10 0a 00 e0 00 9d+03:17:07.810 READ DMA
Error 883 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 ed 04 98 ec Error: UNC at LBA = 0x0c9804ed = 211289325
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
c8 00 00 ea 04 98 ec 00 9d+03:17:06.710 READ DMA
c8 00 00 ea 0c 98 ec 00 9d+03:17:06.710 READ DMA
c8 00 00 ea 06 98 ec 00 9d+03:17:06.700 READ DMA
c8 00 00 e0 fb 97 ec 00 9d+03:17:06.700 READ DMA
c8 00 00 ea 09 98 ec 00 9d+03:17:06.700 READ DMA
Error 882 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 ed f8 97 ec Error: UNC at LBA = 0x0c97f8ed = 211286253
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
c8 00 00 e0 f8 97 ec 00 8d+06:44:52.340 READ DMA
c8 00 00 e0 f7 97 ec 00 8d+06:44:52.340 READ DMA
c8 00 00 e0 f6 97 ec 00 8d+06:44:52.340 READ DMA
c8 00 00 e0 f5 97 ec 00 8d+06:44:52.340 READ DMA
c8 00 00 6a 83 97 ec 00 8d+06:44:52.340 READ DMA
SMART Self-test log structure revision number 0
Warning: ATA Specification requires self-test log structure revision number = 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
Note: selective self-test log revision number (0) not 1 implies that no selective self-test has ever been run
SMART Selective self-test log data structure revision number 0
Note: revision number not 1 implies that no selective self-test has ever been run
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay. |
Gewoon een heel grote verzameling snoertjes
Klinkt als een stervende schijf...
Even niets...
Maar het is dus op geen manier een 'overblijfsel' van die virtual RDM's die ik had? Het kan niet anders dan dat het echt een fysiek kapotte disk is?
Gewoon een heel grote verzameling snoertjes
Even niets...
Ben iig blij dat ZFS er nu 'van op de hoogte' is (wat met virtual RDM niet het geval was). Bedankt voor jullie hulp!
Gewoon een heel grote verzameling snoertjes
Dat is inderdaad makkelijker gezegd dan gedaan, maar hoe bedoel je de host naam wijzigen? deze kan niet aanpassen.enthernal schreef op donderdag 03 januari 2013 @ 08:48:
om via VNC verbinding te maken moet je je virtuele machine een naam in de vorm van 'testmachine;5900' geven, enkel dan kan je er via VNC aan. Dat staat er overigens ergens bij, maar zou inderdaad in wat grotere lettertjes mogen
ik heb all van alles geprobeerd namen, ip-adressen blijkbaar zie iets over het hoofd
als ik op net kijk, lees ik er allemaal vrij weinig over met zfsgru geen duidelijk uitleg, zal wel iets duidelijker mogen of is allemaal nog vrij beta?
heb voor de duidelijkheid maar even print screen gemaakt met de set-up:

[ Voor 5% gewijzigd door Jonny55 op 04-01-2013 01:14 ]
Gewoon een heel grote verzameling snoertjes
[ Voor 13% gewijzigd door fluppie007 op 04-01-2013 02:04 ]
Nu wil ik gaan kijken of ik de services op 1 host kan krijgen, en FreeBSD gaan gebruiken. ZFS is namelijk een must en ik heb geen zin om ZoL te gaan gebruiken. Wat is aan te bevelen, een vanilla FreeBSD installatie en daar ZFSGuru webinterface werkend opmaken, of heeft ZFSGuru nog wel zoveel overvan FreeBSD dat daar handmatig de overige services zelf opgezet kunnen worden : pf, mysql, lighttpd, Sabnzbd, sickbeard, couchpotato.
FreeBSD is trouwens niet zo zuinig als linux...
[ Voor 26% gewijzigd door FireDrunk op 04-01-2013 08:54 ]
Even niets...
Simpelweg een VM kiezen, settings van de VM wijzigen en de eerste tab die je te zien krijgt (letterlijk), daar moet je de naam even aanpassen in bijvoorbeeld 'test;5900'.Jonny55 schreef op vrijdag 04 januari 2013 @ 01:10:
[...]
Dat is inderdaad makkelijker gezegd dan gedaan, maar hoe bedoel je de host naam wijzigen? deze kan niet aanpassen.
ik heb all van alles geprobeerd namen, ip-adressen blijkbaar zie iets over het hoofd
als ik op net kijk, lees ik er allemaal vrij weinig over met zfsgru geen duidelijk uitleg, zal wel iets duidelijker mogen of is allemaal nog vrij beta?
Momenteel heb ik een aantal Nexenta systemen met commerciele licenties draaien, echter moet ik binnenkort mijn storage gaan uitbreiden door de snelle groei binnen mijn bedrijf. Na opvragen van prijzen voor extra/hogere licenties lijkt het me dat Nexenta een beetje teveel vraagt, ik zou iets meer dan 50k enkel aan licenties moeten ophoesten om de uitbreiding voor elkaar te krijgen.
Heeft iemand een alternatief voor een HA setup (bij voorkeur active - active) met ZFS storage? (betalend is geen probleem zolang het binnen de perken blijft)
Wij zijn (als storage leverancier) om dezelfde reden steeds minder met Nexenta, en steeds meer met OpenIndiana aan het doen.ItsValium schreef op vrijdag 04 januari 2013 @ 11:16:
Even snel een vraagje,
Momenteel heb ik een aantal Nexenta systemen met commerciele licenties draaien, echter moet ik binnenkort mijn storage gaan uitbreiden door de snelle groei binnen mijn bedrijf. Na opvragen van prijzen voor extra/hogere licenties lijkt het me dat Nexenta een beetje teveel vraagt, ik zou iets meer dan 50k enkel aan licenties moeten ophoesten om de uitbreiding voor elkaar te krijgen.
Heeft iemand een alternatief voor een HA setup (bij voorkeur active - active) met ZFS storage? (betalend is geen probleem zolang het binnen de perken blijft)
Ik ben bezig geweest om een HA setup te maken dmv pacemaker/heartbeat (bekend van linux clusters). Dit werkt in principe, maar de "resource agents" zijn niet allemaal (of allemaal niet
Verder hebben we wel omgevingen draaen waarbij we shared storage hebben, en handmatig zpools kunnen importeren / exporteren om zo bij calamiteiten te kunnen switchen van server. En dat is enorm schaalbaar te maken met SAS-switching technologie
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Klinkt cool
Even niets...
Een beetje dit idee:FireDrunk schreef op vrijdag 04 januari 2013 @ 12:09:
Je bedoelt, je maakt dual port / dual controller / dual server setups, en importeerd on-the-fly ZFS pools?
Klinkt cool

Die SAS-switches kun ook nog cascaden, en je maakt er 1 heel groot direct-attached storage netwerk van. En voor beheer kun je dan op de sas-switches nog gebruik maken van zonering, daarmee kun je helemaal bepalen welke hosts welke JBOD, of zelfs welke disks ze wel/niet zien.
Videootje van LSI
YouTube: LSI SAS6160 Switch - Installation of a 6Gb/s SAS Switch in a Rack Enviroment
Klinkt mooi allemaal he? Maar je merkt wel dat dit allemaal nog best nieuw is, en nog heel weinig bekend is over betrouwbaarheid in grote omgevingen. Ook de firmware van die switches is nog niet 100% af ....
Edit:
Dat hoeft dus ook niet allemaal dual-ported spul te zijn. Je switch zorgt ervoor dat verschillende machines bij de juiste storage komen, dus het is niet nodig om van elke server naar elke diskarray te bekabelen
[ Voor 9% gewijzigd door u_nix_we_all op 04-01-2013 12:47 ]
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Kosten?
Want qua configuratie lijkt dit mij net zo ingewikkeld en heeft het (theoretisch gezien) net zoveel kans van falen als minder servers met meer disk arrays, of mis ik iets?
Even niets...
Dit ie echt iets voor hele grote omgevingen, 100TB+ , waar sowieso met meerdere servers gewerkt wordt, ivm verdeling van de load. Als je met 2 servers voldoende capaciteit hebt kun je het ook zonder switches en met dual-ported JBOD's doen idd, maar dan moet je server bij een storing op de andere server de dubbele capaciteit hebben om nog de performance te halen.FireDrunk schreef op vrijdag 04 januari 2013 @ 13:00:
Maar, wat maakt het uit of de servers redundant uitvoerd ipv de storage?
Kosten?
Want qua configuratie lijkt dit mij net zo ingewikkeld en heeft het (theoretisch gezien) net zoveel kans van falen als minder servers met meer disk arrays, of mis ik iets?
Als je 4 servers hebt en er valt er 1 uit, moeten de drie anderen 33% harder werken. Dus als het echt groot wordt gaat het zinvol worden om de load over meer servers te verdelen. En dan is een sas-switch een oplossing met veel lagere latency dan de gangbare FC/iSCSI methoden.
Voor het principe van een shared-storage cluster maakt het eigenlijk niet zoveel uit. Je maakt een groep met resources aan, hierin zitten je zpool en je shares, en deze kun je op meerdere servers (maar 1 tegelijk) actief hebben.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
[ Voor 33% gewijzigd door ItsValium op 04-01-2013 13:16 ]
Mwoa, topic vervuiling is hier geloof ik standaardItsValium schreef op vrijdag 04 januari 2013 @ 13:16:
Die sas switching klinkt interessant, kan je een ruw prijsindicatie geven? (Desnoods via DM om hier niet al te veel in dit topic te gaan vervuilen)
Ik heb nog niemand gehoord over een slowchat van 1 pagina lang over een sata controller voor ESX, LOL
Ca $3000 voor een 16 poorts switch (1 poort is 4 x 6 Gbps sas)
Edit:
Je mag me uiteraard wel een DM sturen als je op zoek bent naar een storagepartner om eens naar mogelijke oplossingen te kijken.
[ Voor 11% gewijzigd door u_nix_we_all op 04-01-2013 13:30 ]
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Even niets...
Klopt, een zpool kan maar op 1 server tegelijk geimporteerd zijn. Dat is dan ook de uitdaging bij het schrijven van resource-agent scripts. Je wilt ten alle tijden voorkomen dat 2 servers van elkaar niet weten dat een bepaalde pool al geimporteerd is (split-brain ellende).FireDrunk schreef op vrijdag 04 januari 2013 @ 13:40:
Zo werkt het niet volgens mij hoor... Servers kunnen niet allemaal gebruik maken van dezelfde disks op het zelfde moment.
(Je kunt overigens wel (en dat weet niet iedereen) een zpool die ergens geimporteerd is, tegelijkertijd READ-ONLY importeren
Je zult dus met aanmaken van zpools er rekening mee moeten houden dat als je je load wilt verdelen, je meerdere kleine zpools moet gebruiken
Edit:
Theoretisch is dat wel mogelijk IMHO, je zou zelfs zonering in de sas-switches kunnen doen zodat elke node alleen zijn "eigen" disks ziet, maar dat lijkt me niet handig voor provisioning, beheer van je storage, redundancy moet per node geregeld worden, en je hebt geen ZFS !ItsValium schreef op vrijdag 04 januari 2013 @ 13:29:
Na wat verder gelezen te hebben over die sas switches bedenk ik me net dat ik misschien wel de volledige behoefte aan storage server zou kunnen weglaten, en via zo'n switch al mijn virtualisatienodes rechtstreeks met een hoop diskarrays laten praten. Hoewel dan de redundancy en dergelijke niet te configureren valt, of vergis ik me?
[ Voor 31% gewijzigd door u_nix_we_all op 04-01-2013 13:50 ]
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
In plaats van een HA te bouwen, zou het niet makkelijker en stukken goedkoper zijn om twee onafhankelijke storage bakken naast elkaar te zetten, elk met hun disks en een zpool (wel gelijke grootte en config om problemen te voorkomen) op gescheiden netwerken en de virtualisatienodes via twee aparte netwerkkaarten dan een datastore laten mounten van elk van de bakken, en die dan in de vm's in raid 1 te plaatsen? Als één bak eruit gaat, dan kan de VM zelf na het herstellen ervan de data weer syncroniseren zou dit toch redelijk moeten lukken?
[ Voor 9% gewijzigd door ItsValium op 04-01-2013 13:53 ]
Even niets...
Hangt er een beetje vanaf. Als je virualisatienodes mbv iSCSI naar je storage gaat moet je dus over iSCSI mirroren, ik denk dat je dan niet blij gaat worden als er eens een resync gedaan moet worden.ItsValium schreef op vrijdag 04 januari 2013 @ 13:52:
u_nix_we_all, dank voor de nuttige info, nog even iets wat ik me al tijden afvraag,
In plaats van een HA te bouwen, zou het niet makkelijker en stukken goedkoper zijn om twee onafhankelijke storage bakken naast elkaar te zetten, elk met hun disks en een zpool (wel gelijke grootte en config om problemen te voorkomen) op gescheiden netwerken en de virtualisatienodes via twee aparte netwerkkaarten dan een datastore laten mounten van elk van de bakken, en die dan in de vm's in raid 1 te plaatsen? Als één bak eruit gaat, dan kan de VM zelf na het herstellen ervan de data weer syncroniseren zou dit toch redelijk moeten lukken?
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Best practice: Use block devices for VM storage
A guest operating system that uses block devices for local mass storage typically performs better than a guest operating system that uses disk image files. The guest operating system that uses block devices achieves lower-latency and higher throughput.
Bron: http://publib.boulder.ibm...Fliaat%2Fliaatbpblock.htm
Dat betekend dus dat physical disk passthrough onder KVM ZFS compatible zou moeten zijn.A guest operating system that uses block devices performs better because of the number of software layers through which it passes. When an I/O request is targeted to the local storage of a guest operating system, the I/O request must pass through the file system and I/O subsystem of the guest operating system. Then, qemu-kvm moves the I/O request from the guest operating system and the hypervisor handles the I/O request. Next, the hypervisor completes the I/O request in the same way the hypervisor completes an I/O request for other processes running within the Linux operating system.
Misschien maar eens proberen
KVM geinstalleerd op een test bakje, disks doorgegeven via de QEMU AHCI SATA controller, en dat werkt tot nu toe prima. Er is ook gewoon van te booten (in tegenstelling tot VT-d devices in ESXi en volgens mij geld datzelfde voor RDM)
Qua netwerk performance heeft FreeBSD eindelijk weer eens goed aan de weg getimmert
[root@zfsguru /home/ssh]# iperf -c 192.168.1.114 -P 2 ------------------------------------------------------------ Client connecting to 192.168.1.114, TCP port 5001 TCP window size: 32.5 KByte (default) ------------------------------------------------------------ [ 4] local 192.168.1.139 port 32740 connected with 192.168.1.114 port 5001 [ 3] local 192.168.1.139 port 52163 connected with 192.168.1.114 port 5001 [ ID] Interval Transfer Bandwidth [ 4] 0.0-10.0 sec 5.35 GBytes 4.59 Gbits/sec [ 3] 0.0-10.0 sec 5.26 GBytes 4.52 Gbits/sec [SUM] 0.0-10.0 sec 10.6 GBytes 9.11 Gbits/sec
Of toch niet
[ Voor 28% gewijzigd door FireDrunk op 04-01-2013 18:21 ]
Even niets...
Vanavond even ZFSguruop mijn oude server gezet. 24-25W, maar dat is nog zonder tweaks. Ik zie namelijk dat FreeBSD 9.1 ook ondersteuning heeft voor de KMS-based intel driver. Morgen even drm.i915.enable_rc6=7 toevoegen aan de loader.conf en kijken of dat nog wat scheelt.FireDrunk schreef op vrijdag 04 januari 2013 @ 08:44:
Die kan je allemaal gewoon op de ZFSguru systeem images installeren.
FreeBSD is trouwens niet zo zuinig als linux...
PF kon ik trouwens niet starten vanuit de webinterface..
Andere opties die ik nog ga proberen zijn ZFS on Linux op Fedora 17.
[ Voor 5% gewijzigd door B2 op 04-01-2013 22:56 ]
Wasda?drm.i915.enable_rc6=7
Even niets...
Ik heb dus die pool van 3x 750 GB, waarvan 1 schijf FUBAR is/gaat zijn.
Ivm mijn slechte ervaring met het kopen van tweedehands disks wil ik dus eigenlijk niet nog een Samsung HD753LJ als vervanging tweedehands kopen.
Nieuw zijn er echter ook geen schijven van 750 GB, 7200 rpm te koop.
Zou het dus voor mijn pool uitmaken als ik een 1 TB disk erbij gooi die even snel is (of sneller) dan de disks die ik er nu in heb?
Gewoon een heel grote verzameling snoertjes
Hm, weinig met ZFS te maken, maar de IBM M1015 kaart pakt gewoon 13W... Mijn combi van Xeon E3-1230 en X9SCM-F en 2 latjes van 8GB ECC geheugen doet 26-28W, met de M1015 kaart erbij zit ik gelijk op 39-41W.B2 schreef op vrijdag 04 januari 2013 @ 22:53:
[...]
Vanavond even ZFSguruop mijn oude server gezet. 24-25W, maar dat is nog zonder tweaks. Ik zie namelijk dat FreeBSD 9.1 ook ondersteuning heeft voor de KMS-based intel driver. Morgen even drm.i915.enable_rc6=7 toevoegen aan de loader.conf en kijken of dat nog wat scheelt.
PF kon ik trouwens niet starten vanuit de webinterface..
Andere opties die ik nog ga proberen zijn ZFS on Linux op Fedora 17.
Het starten van PF in de ZFSguru webinterface geeft trouwens een fout, is dat met een reden? Ik heb nog geen configuratie in een pf.conf file oid gezet.
Maar ik zal het nog eens meten als ik tijd heb.
Even niets...
Ook leuk is dat de MTBF >2M uur is - in tegenstelling tot veel andere lsi kaarten.
TDP != verbruik. Als er geen power management opties gebruikt worden, verbruikt de kaart misschien wel gewoon 13W (max) en als er wel maximaal power savings gebruikt word 7W.
Kan me niet voorstellen dat het ding 5W verschil heeft per persoon.
Even niets...
Gisteravond even nagekeken, ASPM stond op disabled, nu op auto. Geen verschil. Zou het er mee te maken kunnen hebben dat ik de kaart via VT-d doorgeef aan ZFSGuru?FireDrunk schreef op zaterdag 05 januari 2013 @ 12:42:
13W Dat is wel veel... Heb je ASPM aan staan in je BIOS? Voor mijn gevoel verstookt die van mij veel minder.
Maar ik zal het nog eens meten als ik tijd heb.
Op een andere bak heb ik trouwens nu ZFS on Linux met Fedora 17 gezet. Ik verwacht daar flink minder qua verbruik te scoren. Daarna kijken of dat ook lukt met de X9SCM-F en xeon combi. Zou jammer zijn als ik dat niet zou gebruiken
wat is er gebeurd:
ZFSguru beta 8 opnieuw geinstalleerd.
Samba shares aangemaakt van mijn data
Sabnzbd geinstalleerd, versie 6.
Sabnzbd geconfigureerd en gecontrolleerd of het programma werkt, ja dit werkt naar behoren (overigens nog geen download aangezet).
In "processor usage" zie ik de 8 processen van Sabnzbd
Samba share aangemaakt om services te benaderen (BootZFS/zfsguru/services/9.1-004 = "Services")
Reboot
In "processor usage" zie ik maar 1 proces van Sabnzbd, namelijk Sabnzbd (hoofdprogramma) en zfsguru geeft aan dat het proces gedeeltelijk gestart is.
Reboot (dag later)
In "processor usage" zie ik maar 1 proces van Sabnzbd, namelijk Sabnzbd (hoofdprogramma) en zfsguru geeft aan dat het proces gedeeltelijk gestart is.
Na een week + een paar downloads (die klaar waren op het moment) nogmaals gereboot en in "processor usage" is het proces helemaal verdwenen.
In die week tijd kon ik het hoofdprogramma niet meer opstarten via internet explorer en zelfs zfsguru intern kon er niet meer bij. Wat sabnzbd wel deed was downloaden. Alles werkte op de achtergrond zonder een mogelijkheid te hebben om iets te veranderen. Wat er in die week wel een paar keer gebeurd is, is dat het IP adres van ZFSguru gewisseld is.
Mijn vraag, hoe zet je dit IP adres vast op ZFSguru? Ik vrees dat dit namelijk het probleem is in sabnzbd.
Of is het beter dit via de router te beheren?
In de toekomst kun je ZFSguru gemakkelijk als DHCP server laten fungeren. Weer iets wat je modem niet meer kan verknallen. Tot die tijd kun je in /etc/rc.conf je IP adres statisch configureren. Maar dat is enkel omdat je geen normaal functionerende DHCP server hebt.
Ik heb zelf DD-WRT en die onthoud het inderdaad wel.
Het is wel vrij normaal dat goedkope routers geen schrijfbare ruimte hebben om die data in op te slaan.
Duurdere routers hebben daar NVRAM voor.
Mocht er DD-WRT voor jouw router beschikbaar zijn, kan ik dat van harte aanraden
[ Voor 6% gewijzigd door FireDrunk op 06-01-2013 11:46 ]
Even niets...
Please use camcontrol instead."
Kan iemand mij uitleggen wat het verschil is tussen ATA_CAM en camcontrol? Van Google wordt ik niet echt wijzer. Heeft het (nadelige) gevolgen als ik dit wijzig, en vooral dan hoe wijzig ik dit
(emebedded Nas4free 9.1.0.1 rev 531)
(Het probleem dat mijn disk random wegvalt is er nog steeds. zie ook hier: http://gathering.tweakers...message/39366263#39366263. Ik dacht dat dit er misschien mee te maken kon hebben. Kan waarschijnlijk geen "goede" disk naar WD terug sturen. Al begin ik toch te denken dat het een probleem is met de disk (hardware/firmware). Maar WD tools vind natuurlijk niks...)
Voor mijn nieuwe opzet heb ik een aantal hdd's gekocht om genoeg ruimte te hebben, en ook aan dezelfde 10 hdd's te komen voor een raidz2.
Bij unraid is er een pre-clear script wat smarts waardes leest, de hele disk vol 0-en schrijft, deze leest en checked en vervolgens weer de smarts waardes bekijkt en vergelijkt met de 1e smarts check.
Is er een soortgelijk iets, of is dat alleen handmatig te doen (zelf een script maken is vrees ik een brug te ver voor mij)
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
camcontrol is de 'opvolger' van ataidle. ataidle werkte zelf via de /dev/ada* apparaten, camcontrol gaat via de kernel. Om verwarring te voorkomen, hebben ze ataidle obsolete gemaakt (volgens mij vanaf FreeBSD 8.2).
@jacovn,
Smart waardes uitlezen kan met smartctl (of via de webinterface als je ZFSguru gebruikt).
Disk volschrijven met 0-en kan met dd.
*** GEVAARLIJK *** dd if=/dev/zero of=/dev/ada[insert-nummer-van-disk] bs=32M
Wel even zorgen dat de disk niet in gebruik is.
[ Voor 3% gewijzigd door FireDrunk op 06-01-2013 12:58 ]
Even niets...
Is wat dat betreft zfsguru beter om te gebruiken ?
Het is moeilijk om te kiezen tussen nas4free en zfsguru omdat ik niet echt thuis ben in de materie.
Ik wil alleen mijn blu ray rips opslaan, en met mijn dune afspelen. Niets meer..
Dus os installeren, en dan eerst alle hdd's maar met de hand controleren.
Kan ze ook onder unraid preclearen, en dan in bsd.zfs gaan gebruiken natuurlijk. Dan heb ik er geen omkijken naar.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
jacovn schreef op zondag 06 januari 2013 @ 13:05:
Ik heb nu nas4free als test geinstalleerd, en daar wel een scherm gevonden waar ik smarts aan kan zetten, maar ik kreeg geen waardes terug.
Kijk even vanaf 5:04 in het filmpje daar kan je zien hij je bij de smart resultaten kan komen in nas4free.
NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM
Nas4free werkte wel direct voor me, alleen even tijd nodig gehad om wat van zfs te begrijpen.
Performance ook wel ok met 60 mbyte/sec naar een atom d525 systeem (cpu op 80%)
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Ik zou eerder OpenWRT aanraden, dat is echt een verademing boven DD-WRTFireDrunk schreef op zondag 06 januari 2013 @ 11:45:
Routers die geen DHCP -> MAC binding kennen zijn niet per definitie slecht. Of wil je dat dat ding aan het einde van zijn leases geen IP adressen meer uitdeelt? Misschien is de router van EnerQI wel bij het einde van zijn leases
Ik heb zelf DD-WRT en die onthoud het inderdaad wel.
Het is wel vrij normaal dat goedkope routers geen schrijfbare ruimte hebben om die data in op te slaan.
Duurdere routers hebben daar NVRAM voor.
Mocht er DD-WRT voor jouw router beschikbaar zijn, kan ik dat van harte aanraden
Sommige routers (waaronder de OpenWRT en DD-WRT firmware) hebben ook static DHCP. Dat houdt in dat je zelf kunt aangeven welk IP de router aan een MAC-adres moet geven.
Zo is mijn default DHCP-range 192.168.2.100-192.168.2.254, maar krijgt mijn server het ip 192.168.2.5 uitgedeeld.
Gewoon een heel grote verzameling snoertjes
Je moet eerst S.M.A.R.T. aanzetten voor elke hdd die je wil monitoren. Vervolgens kan je de bij Diagnostics - Information de smart waarden raadplegen.jacovn schreef op zondag 06 januari 2013 @ 13:05:
Ik heb nu nas4free als test geinstalleerd, en daar wel een scherm gevonden waar ik smarts aan kan zetten, maar ik kreeg geen waardes terug. Dat moet dan waarschijnlijk via de command line.
Is wat dat betreft zfsguru beter om te gebruiken ?
Het is moeilijk om te kiezen tussen nas4free en zfsguru omdat ik niet echt thuis ben in de materie.
Ik wil alleen mijn blu ray rips opslaan, en met mijn dune afspelen. Niets meer..
Dus os installeren, en dan eerst alle hdd's maar met de hand controleren.
Kan ze ook onder unraid preclearen, en dan in bsd.zfs gaan gebruiken natuurlijk. Dan heb ik er geen omkijken naar.
Ook heeft N4F een functie waarbij je een mailtje krijgt als de smart waarden veranderen, bv door een slechte sector. Hier moet ik me wel nog wat verder in gaan verdiepen i.c.m. spindown, om te vermijden dat m'n hdd's te veel upspinnen.
[ Voor 3% gewijzigd door sloth op 06-01-2013 14:16 ]
Aha bedankt FireDrunk. Als ik het goed begrijp zou ik camcontrol nu niet gebruiken? Hoe wijzig ik de kernel dat ie wel camcontrol gaat gebruiken?FireDrunk schreef op zondag 06 januari 2013 @ 12:57:
@De echte flush,
camcontrol is de 'opvolger' van ataidle. ataidle werkte zelf via de /dev/ada* apparaten, camcontrol gaat via de kernel. Om verwarring te voorkomen, hebben ze ataidle obsolete gemaakt (volgens mij vanaf FreeBSD 8.2).
"ATA_CAM option is enabled in kernel. Please use camcontrol instead." (of kan ik deze melding gewoon negeren?)
Van wat ik begrijp is het nieuwe systeem veel deftiger en biedt één systeem aan voor zowel SCSI/SAS als ATA-gebaseerde disks.
Probeer de ZFSguru advanced disk benchmark eens. Die kan meerdere dagen testen als je dat wilt. Bovendien krijg je mooie grafiekjes over verschillende ZFS configuraties en hun prestaties.jacovn schreef op zondag 06 januari 2013 @ 12:31:
Ik heb na veel zoeken eigenlijk nog niet gevonden of er onder bsd ook een procedure is om een nieuwe hdd goed te test voor hem in gebruik te nemen.
[ Voor 11% gewijzigd door Verwijderd op 06-01-2013 21:04 ]
Ik wil graag grafiekjes maken met de data van de utility, zodat je in de web interface kan zien hoe lang en hoe vaak je disks standby gaan.
Even niets...
Even niets...
Even niets...
Even niets...
Dit is een bug in de LSI 1068E controller, ofwel de eerste generatie 3Gbps LSI HBA controllers. Hij komt ook onder andere platforms voor zoals Linux, met name wanneer 'smartd' wordt gedraaid. Zolang je zelf queried via smartctl zou er geen probleem zijn. Ik heb er met mijn LSI 1068E geen last van gehad, maar hoorde wel mensen die problemen hadden toen ze smartd hadden ingeschakeld. Die zou SMART-requests snel achter elkaar sturen, ofzoiets, wat een hardware bug triggered.FireDrunk schreef op zondag 06 januari 2013 @ 21:17:
Exacte getallen heb ik niet, maar er is een tijd een bug geweest (of is die er nog?) dat als je smartmontools continue smart waardes liet monitoren je controller in lockup ging.
De methode om te controleren of een disk in spindown is, is ook geen SMART request, enkel een 'raw' request via atacontrol command (wat nu camcontrol <command> moet zijn) wat checkt of de disk in spindown is ja of nee.
Wellicht kun je in de source kijken van smartmontools welk command precies wordt gebruikt, en deze direct via camcontrol uitvoeren ipv via smartmontools.
Maar of dat nou erg duidelijk is
Voor nu werkt (voor scripting / monitoring):
smartctl -A -n standby /dev/da1 > /dev/null; echo $?
geeft 2 als disk standby is, en 0 als hij draait.
[ Voor 44% gewijzigd door FireDrunk op 06-01-2013 21:59 ]
Even niets...
Heb op dezelfde ESXi als waar mijn ZFSguru machine op draait op een Ubuntu VM een share van ZFSguru gemounted... Performance is echt ruk, geen vmxnet3 of whatever op ZFSguru, Ubuntu weet ik niet...
Moet maar eens kijken hoe de pool performed als ik van mijn laptop naar de pool schrijf...
[ Voor 10% gewijzigd door HyperBart op 07-01-2013 08:29 ]
de vmware-tools kun je toch uit de ports halen.HyperBart schreef op maandag 07 januari 2013 @ 08:26:
Grmbl grmbl gvd
Heb op dezelfde ESXi als waar mijn ZFSguru machine op draait op een Ubuntu VM een share van ZFSguru gemounted... Performance is echt ruk, geen vmxnet3 of whatever op ZFSguru, Ubuntu weet ik niet...
Moet maar eens kijken hoe de pool performed als ik van mijn laptop naar de pool schrijf...
Er zit trouwens 5 tot 6 W verschil tussen Fedora 17 en ZFSGuru. Die M1015 kaart krijg ik trouwens niet lager dan 12-13W. En heet dat die chipset wordt...
FreeBSD ondersteunt alleen VMXNET3. Die moet je wel even met de hand compilen, want vmware tools installeert die niet automatisch volgens mij.
Heet? Hier is het ding handwarm...
[ Voor 9% gewijzigd door FireDrunk op 07-01-2013 09:26 ]
Even niets...
Idd, gebruik op eigen risicoFireDrunk schreef op maandag 07 januari 2013 @ 09:26:
Ubuntu ondersteunt zowel VMXNET3 als PVSCSI.
FreeBSD ondersteunt alleen VMXNET3. Die moet je wel even met de hand compilen, want vmware tools installeert die niet automatisch volgens mij.
Heet? Hier is het ding handwarm...
Sluit me aan bij FireDrunk, de chip op de M1015 is handwarm en heb er geen fan op gericht staan.
[ Voor 10% gewijzigd door Pantagruel op 07-01-2013 09:31 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Even niets...
Geen idee. Heb weinig kaas gegeten van virutalisatie maar zeker in deze thread lijkt iedereen esxi te gebruiken en ik vroeg me af of dat een bepaalde reden heeft. Killer feature dat xen niet heeft oidFireDrunk schreef op maandag 07 januari 2013 @ 09:49:
Waarom wel?
Hm vreemd zeg, ik heb er twee, allebei in verschillende machines, maar bij allebei ligt het verbruik boven de 12W. En beide zijn echt niet handwarmFireDrunk schreef op maandag 07 januari 2013 @ 09:26:
Heet? Hier is het ding handwarm...
Ah, je bedoeld het dus meer vragenderwijs... Je opmerking klonk namelijk erg verwijtend...matty___ schreef op maandag 07 januari 2013 @ 10:00:
[...]
Geen idee. Heb weinig kaas gegeten van virutalisatie maar zeker in deze thread lijkt iedereen esxi te gebruiken en ik vroeg me af of dat een bepaalde reden heeft. Killer feature dat xen niet heeft oid
Waarom ESXi? Omdat het makkelijk is, veel features bevat die andere platformen niet hebben, en omdat het gewoon snel is.
ESXi met een SSD gaat echt héél rap.
Features die ESXi heeft die leuk zijn: Memory overcommitment, CPU overcommitment, VM DirectPath, VMDK Reclaim, shared VMDK's, PVSCSI, VMXNET3, installeren op een USB Stick, automatische uitrol met UDA.
En ik vergeet er vast een hoop.
Even niets...
Jawel, gewoon vmware-tools mounten vanuit de VSphere client, de disk mounten onder FreeBSD, de source even in /usr/src/ zetten, en bij het installeren van vmware-tools build hij dan automatisch de kernel module voor vmxnet3. Moet je dus wel die kernel source hebben.FireDrunk schreef op maandag 07 januari 2013 @ 09:26:
Ubuntu ondersteunt zowel VMXNET3 als PVSCSI.
FreeBSD ondersteunt alleen VMXNET3. Die moet je wel even met de hand compilen, want vmware tools installeert die niet automatisch volgens mij.
Heet? Hier is het ding handwarm...
Gewoon een heel grote verzameling snoertjes
Even niets...
(Getest op FreeBSD 9 en 9.1)
Gewoon een heel grote verzameling snoertjes
Ik snap niet wat vmware tools met die bagger performance te maken hebben? Ik haal met E1000 nog niet eens 5MB/s over Samba...matty___ schreef op maandag 07 januari 2013 @ 08:51:
[...]
de vmware-tools kun je toch uit de ports halen.
Misschien omdat je nu een generieke ethernetdriver gebruikt, in plaats van een geoptimaliseerde VMWare driver?HyperBart schreef op maandag 07 januari 2013 @ 12:24:
[...]
Ik snap niet wat vmware tools met die bagger performance te maken hebben? Ik haal met E1000 nog niet eens 5MB/s over Samba...
| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett
Lijkt mij zeer sterk dat de E1000 adapter van VMware onder Ubuntu ZO ondermaats presteert...Jaap-Jan schreef op maandag 07 januari 2013 @ 12:34:
[...]
Misschien omdat je nu een generieke ethernetdriver gebruikt, in plaats van een geoptimaliseerde VMWare driver?
draai je freebsd of linux? Grote kans dat de linux driver beter geoptimaliseerd is voor vmware.HyperBart schreef op maandag 07 januari 2013 @ 12:37:
[...]
Lijkt mij zeer sterk dat de E1000 adapter van VMware onder Ubuntu ZO ondermaats presteert...Heb al verschillende virtuele machines op basis van Ubuntu gehad en nooit die problemen gehad... OK, VMXnet 3 is altijd wat performanter, maar 5MB/s is om bij te huilen.
5MB/s klinkt meer als duplex mismatch (hoewel dat tegenwoordig bijna niet meer kan) of rotte drivers, of een collision probleem ofzo.
Wireshark er al eens tegenaan gegooid?
Even niets...
Ik weet het verbruik niet van de M1015 maar bij mij is ie ook behoorlijk warm en heb ik er een apart fan voor. Heeft het verschil misschien iets te maken met de IT firmware? Ik begrijp dat er verschillende versies zijn, een waar je niets meer van de M1015 ziet tijdens het booten en eentje waar je wel nog de M1015 krijgt te zien (en die heb ik).B2 schreef op maandag 07 januari 2013 @ 10:19:
[...]
Hm vreemd zeg, ik heb er twee, allebei in verschillende machines, maar bij allebei ligt het verbruik boven de 12W. En beide zijn echt niet handwarm
ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w
Firmware met BIOS en zonder BIOS Firmware zonder BIOS en met BIOSiRReeL schreef op maandag 07 januari 2013 @ 13:41:
[...]
een waar je niets meer van de M1015 ziet tijdens het booten en eentje waar je wel nog de M1015 krijgt te zien (en die heb ik).
[ Voor 6% gewijzigd door HyperBart op 07-01-2013 13:49 ]
Ze gaan beide in een ander stukje NVRAM
Zonder BIOS werkt de kaart prima, maar kan je er niet van booten.
Is geen verschil in versie, alleen in manier van flashen.
Even niets...
ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w
Inderdaad, want ik heb de IT-mode versie zonder bios.iRReeL schreef op maandag 07 januari 2013 @ 14:10:
ok zal dus ook niets te maken hebben met het vebruik / hitte..
Even niets...
Hiermee wat zitten experimenteren en alles prime kunnen installeren. Maar ik geraak er niet uit hoe ik mij als user kan 'authenticaten' . Ik zou namelijk graag een foutief gedownload pakketje willen verwijderen. Maar aangezien ik enkel kan bekijken en niks aanpassen is de optie om te verwijderen greyed out.
Het gaat om de apache webserver. In de webconfig geeft hij bij de installatie de fout dat de grootte niet overeenkomt. En via commands verwijderen ben ik ook niet helemaal zeker hoe en wat dusja...
2. Ook zit ik met een vraag m.b.t. de Owncloud service.
Ik zou graag een deel van de opslag overal online ter beschikking hebben via WAN.
Maar owncloud installeert op de ssd pool bij het OS. Logisch, maar ik vind nergens een optie om de gelinkte storage aan te passen naar mijn storage pool. Ik ben dus beperkt tot 9Gb die nog vrij is op de SSD en dat is ook helemaal niet de bedoeling om deze vol te zetten.
Of is er een betere manier om dit te bewerkstelligen. Kan ik bijvoorbeeld delen van mijn pool via internet sharen en andere blijven enkel lokaal?
Voorbeeld: (mijn pool heet 'storage')
storage/audio
storage/documents
Deze sharen en dan andere zoals storage/foto en storage/movies niet sharen?
EDIT:
3. Is er ook geen manier om die tempfs te verbergen, telkens iemand naar de server gaat staat naast mapje storage ook die tempfs er. Op zich niet storend, maar als die onzichtbaar zou zijn is altijd leuk. Eveneens hetzelfde met 'storage/share'.
[ Voor 8% gewijzigd door Geckx op 07-01-2013 16:49 ]
1. Je kunt met SSH inloggen en dan de download in de /<pool>/zfsguru/downloads directory verwijderen. Hij kan ook in /tmp/ staan afhankelijk van welke ZFSguru versie je hebt gebruikt. Merk ook op dat Apache en MySQL services nog niet 'af' zijn. Het installeert de packages, maar je moet zelf alles configureren.
2. Owncloud zou je moeten configgen naar je grote data pool en niet enkel op je SSD. Maar ik zal zelf eens klooien want ik weet niet helemaal hoe Owncloud werkt.
3. Je kunt de tmpfs Samba-share verbergen door hem te verwijderen. Je hebt hem niet nodig. Dus gewoon verwijderen in Services->Internal->Samba. Merk op dat in de opkomende beta9 versie het delen met Samba en NFS sterk is verbeterd. De 'share' filesystem die standaard wordt aangemaakt, kun je gerust verwijderen. Erop klikken en onderaan zie je destroy filesystem.
Even niets...
Eerst zou het alleen een Samba rewrite zijn, nu komt daar ook meer bij, waaronder NFS. Ik hoop alleen wel dat hij eens gereleased wordt, want de Samba functionaliteit is zo goed als af en al bruikbaar. Zou jammer zijn als mensen er nog weken op moeten wachten. Persoonlijk denk ik dat 10 dagen een redelijke gok is, maar ik ben vaak te optimistisch met dat soort schattingen. Bovendien heb ik het niet in eigen hand.
Maar er zitten nieuwe dingen aan te komen. Over een paar dagen zou Jason alvast met een aankondiging komen. Een 'state of the union'.
Even niets...
Die heb ik nog liggen van mijn pc waar ik een 180 GB in gezet heb.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
[ssh@zfsguru /home/ssh]$ iperf -c 192.168.4.25 -P 1 -i 5 -p 5999 -f B -t 60 -T 1 ------------------------------------------------------------ Client connecting to 192.168.4.25, TCP port 5999 TCP window size: 33304 Byte (default) ------------------------------------------------------------ [ 3] local 192.168.4.250 port 58420 connected with 192.168.4.25 port 5999 [ ID] Interval Transfer Bandwidth [ 3] 0.0- 5.0 sec 3467902976 Bytes 693580595 Bytes/sec [ 3] 5.0-10.0 sec 3537764352 Bytes 707552870 Bytes/sec [ 3] 10.0-15.0 sec 3522560000 Bytes 704512000 Bytes/sec [ 3] 15.0-20.0 sec 3553361920 Bytes 710672384 Bytes/sec [ 3] 20.0-25.0 sec 3557294080 Bytes 711458816 Bytes/sec [ 3] 25.0-30.0 sec 3512074240 Bytes 702414848 Bytes/sec [ 3] 30.0-35.0 sec 3524657152 Bytes 704931430 Bytes/sec [ 3] 35.0-40.0 sec 3519414272 Bytes 703882854 Bytes/sec [ 3] 40.0-45.0 sec 3545235456 Bytes 709047091 Bytes/sec [ 3] 45.0-50.0 sec 3493986304 Bytes 698797261 Bytes/sec [ 3] 50.0-55.0 sec 3518889984 Bytes 703777997 Bytes/sec [ 3] 55.0-60.0 sec 3478519808 Bytes 695703962 Bytes/sec [ 3] 0.0-60.0 sec 42236903424 Bytes 703850039 Bytes/sec
En Pyro2 (mijn Ubuntu VM):
bart@Pyro2:~/Downloads/incomplete$ iperf -s -P 2 -i 5 -p 5999 -f k ------------------------------------------------------------ Server listening on TCP port 5999 TCP window size: 85.3 KByte (default) ------------------------------------------------------------ [ 4] local 192.168.4.25 port 5999 connected with 192.168.4.250 port 58420 [ ID] Interval Transfer Bandwidth [ 4] 0.0- 5.0 sec 3386152 KBytes 5547872 Kbits/sec [ 4] 5.0-10.0 sec 3454934 KBytes 5660563 Kbits/sec [ 4] 10.0-15.0 sec 3439996 KBytes 5636089 Kbits/sec [ 4] 15.0-20.0 sec 3469889 KBytes 5685066 Kbits/sec [ 4] 20.0-25.0 sec 3473923 KBytes 5691676 Kbits/sec [ 4] 25.0-30.0 sec 3429738 KBytes 5619283 Kbits/sec [ 4] 30.0-35.0 sec 3441972 KBytes 5639328 Kbits/sec [ 4] 35.0-40.0 sec 3437016 KBytes 5631207 Kbits/sec [ 4] 40.0-45.0 sec 3461990 KBytes 5672124 Kbits/sec [ 4] 45.0-50.0 sec 3412160 KBytes 5590482 Kbits/sec [ 4] 50.0-55.0 sec 3436490 KBytes 5630345 Kbits/sec [ 4] 55.0-60.0 sec 3397019 KBytes 5565676 Kbits/sec [ 4] 0.0-60.0 sec 41246976 KBytes 5628998 Kbits/sec
Ik dacht dat die twee "kanten" van iperf gelijk moesten zijn qua throughput?
Ja hoor, ik heb er hier zelfs 2 (1 voor ZIL, en 1 voor L2ARC) worden wel binnenkort vervangen door Intel 320's vanwege de stroombeveiliging (heb geen UPS).jacovn schreef op maandag 07 januari 2013 @ 20:54:
Is een intel x25m van 80 GB ook nog goed te gebruken als L2ARC drive ?
Die heb ik nog liggen van mijn pc waar ik een 180 GB in gezet heb.
Waarom? Ontvangen kost misschien wel minder CPU bij de een, dan bij de ander.HyperBart schreef op maandag 07 januari 2013 @ 21:04:
Ik snap het niet, een kant geeft aan dat de bandbreedte "goed" is:
[ssh@zfsguru /home/ssh]$ iperf -c 192.168.4.25 -P 1 -i 5 -p 5999 -f B -t 60 -T 1 ------------------------------------------------------------ Client connecting to 192.168.4.25, TCP port 5999 TCP window size: 33304 Byte (default) ------------------------------------------------------------ [ 3] local 192.168.4.250 port 58420 connected with 192.168.4.25 port 5999 [ ID] Interval Transfer Bandwidth [ 3] 0.0- 5.0 sec 3467902976 Bytes 693580595 Bytes/sec [ 3] 5.0-10.0 sec 3537764352 Bytes 707552870 Bytes/sec [ 3] 10.0-15.0 sec 3522560000 Bytes 704512000 Bytes/sec [ 3] 15.0-20.0 sec 3553361920 Bytes 710672384 Bytes/sec [ 3] 20.0-25.0 sec 3557294080 Bytes 711458816 Bytes/sec [ 3] 25.0-30.0 sec 3512074240 Bytes 702414848 Bytes/sec [ 3] 30.0-35.0 sec 3524657152 Bytes 704931430 Bytes/sec [ 3] 35.0-40.0 sec 3519414272 Bytes 703882854 Bytes/sec [ 3] 40.0-45.0 sec 3545235456 Bytes 709047091 Bytes/sec [ 3] 45.0-50.0 sec 3493986304 Bytes 698797261 Bytes/sec [ 3] 50.0-55.0 sec 3518889984 Bytes 703777997 Bytes/sec [ 3] 55.0-60.0 sec 3478519808 Bytes 695703962 Bytes/sec [ 3] 0.0-60.0 sec 42236903424 Bytes 703850039 Bytes/sec
En Pyro2 (mijn Ubuntu VM):
bart@Pyro2:~/Downloads/incomplete$ iperf -s -P 2 -i 5 -p 5999 -f k ------------------------------------------------------------ Server listening on TCP port 5999 TCP window size: 85.3 KByte (default) ------------------------------------------------------------ [ 4] local 192.168.4.25 port 5999 connected with 192.168.4.250 port 58420 [ ID] Interval Transfer Bandwidth [ 4] 0.0- 5.0 sec 3386152 KBytes 5547872 Kbits/sec [ 4] 5.0-10.0 sec 3454934 KBytes 5660563 Kbits/sec [ 4] 10.0-15.0 sec 3439996 KBytes 5636089 Kbits/sec [ 4] 15.0-20.0 sec 3469889 KBytes 5685066 Kbits/sec [ 4] 20.0-25.0 sec 3473923 KBytes 5691676 Kbits/sec [ 4] 25.0-30.0 sec 3429738 KBytes 5619283 Kbits/sec [ 4] 30.0-35.0 sec 3441972 KBytes 5639328 Kbits/sec [ 4] 35.0-40.0 sec 3437016 KBytes 5631207 Kbits/sec [ 4] 40.0-45.0 sec 3461990 KBytes 5672124 Kbits/sec [ 4] 45.0-50.0 sec 3412160 KBytes 5590482 Kbits/sec [ 4] 50.0-55.0 sec 3436490 KBytes 5630345 Kbits/sec [ 4] 55.0-60.0 sec 3397019 KBytes 5565676 Kbits/sec [ 4] 0.0-60.0 sec 41246976 KBytes 5628998 Kbits/sec
Ik dacht dat die twee "kanten" van iperf gelijk moesten zijn qua throughput?
Heeft denk ik vooral met de virtualisatie laag te maken.
Even niets...
ZFSguru 0.2.0-beta8 (9.1-004) pool benchmark Pool : hulk (13.6T, 47% full) Test size : 64 GiB normal read : 488 MB/s normal write : 403 MB/s I/O bandwidth : 30 GB/s
Valt dus best wel goed mee
Ik denk dat die belabberde snelheid van gisteren kwam doordat ik een move aan het doen was van verschillende kleine bestandjes...
Nu eens over Samba een dd doen naar de gemounte'de share.
EDIT:
bart@Pyro2:~$ dd if=/dev/zero of=nas_temp/test.file bs=1M count=500 500+0 records in 500+0 records out 524288000 bytes (524 MB) copied, 1.22683 s, 427 MB/s bart@Pyro2:~$ dd if=/dev/zero of=nas_temp/test.file bs=1M count=1024 1024+0 records in 1024+0 records out 1073741824 bytes (1.1 GB) copied, 3.06679 s, 350 MB/s bart@Pyro2:~$ dd if=/dev/zero of=nas_temp/test.file bs=1M count=2048 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB) copied, 6.52352 s, 329 MB/s bart@Pyro2:~$ dd if=/dev/zero of=nas_temp/test.file bs=1M count=10240 10240+0 records in 10240+0 records out 10737418240 bytes (11 GB) copied, 32.5321 s, 330 MB/s
Dafuq
[ Voor 47% gewijzigd door HyperBart op 07-01-2013 21:24 ]
kon het niet zo snel niet vinden!
[ Voor 5% gewijzigd door Jonny55 op 07-01-2013 21:23 ]
Gewoon een heel grote verzameling snoertjes
Al de types die genoemd worden:samsung 830, intel 320 zijn moeilijker leverbaar,en vervangen voor goedkopere opvolgers die minder zijn. Dit lijkt geen vooruitgang...FireDrunk schreef op maandag 07 januari 2013 @ 21:12:
[...]
Ja hoor, ik heb er hier zelfs 2 (1 voor ZIL, en 1 voor L2ARC) worden wel binnenkort vervangen door Intel 320's vanwege de stroombeveiligi
Eerst maar de x25 testen. Ik weet ook niet of,ik een dedicated zil nodig ga hebben voor een file server voor blu ray rips..
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
@Jacovn, nee ZIL is een beetje overdreven voor alleen een film filesystem
[ Voor 57% gewijzigd door FireDrunk op 07-01-2013 21:34 ]
Even niets...
Maar die SMB share is gemounted over een IP-verbinding van mijn LAN, niet over een localhost interface. Ik geloof je graag, maar ik vind het maar raarFireDrunk schreef op maandag 07 januari 2013 @ 21:33:
@HyperBart, dat gaat over je localhost interface... En die is (bijna) onbeperkt snel.
@Jacovn, nee ZIL is een beetje overdreven voor alleen een film filesystem
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.