Acties:
  • 0 Henk 'm!

  • GrooV
  • Registratie: September 2004
  • Laatst online: 10:32
Matched: k
DaCoTa schreef op dinsdag 16 april 2013 @ 14:27:
[...]

Zijn al die schijven vol? Ik zt nml. met een dergelijk overgangsdilemma.
Het zit allemaal aardig vol ja :P
DaCoTa schreef op dinsdag 16 april 2013 @ 14:27:
Ik ben uiteindelijk uitgekomen op een 6 disk RaidZ2 array met 3x2TB en 3x3TB. Alle 2TB's waren al redelijk oud, dus die ga ik op een bepaald moment wel vervangen door 3TB's en zo de array van 8TB naar 12TB vergroten zonder de hele array opnieuw op te hoeven bouwen. Of er dan 3TB's of 4TB's naast komen laat ik afhangen van de prijs/GB op dat moment.
Je zit nu op 10TB netto? Het is voor mij natuurlijk wel goedkoper om op 6x2 te gaan draaien. Dan heb ik 8 netto. Kost me aan schijven 4x80euro ipv 3x120. Moet ik wel weer een duurdere controller aanschaffen of kan er gemixed worden met verschillende controllers?

Hoe zit je exacte setup er nu uit qua vdev's?

Acties:
  • 0 Henk 'm!

  • DaCoTa
  • Registratie: April 2002
  • Laatst online: 04-07 23:41
Matched: k
Nee, ik zit nu op 8 netto in 1 pool. Van de 3TB's heb ik nog steeds 1TB per disk niet in gebruik, aangezien dat toch niet toegevoegd wordt aan de pool. Ik kan daar nog wat mee doen, maar kan het ook laten, tot ik van alle 2TB's af ben en dan de hele pool laten groeien.

Hoeveel poorten heb je beschikbaar?

[ Voor 6% gewijzigd door DaCoTa op 16-04-2013 15:04 ]


Acties:
  • 0 Henk 'm!

  • GrooV
  • Registratie: September 2004
  • Laatst online: 10:32
Matched: k
DaCoTa schreef op dinsdag 16 april 2013 @ 14:57:
Nee, ik zit nu op 8 netto in 1 pool. Van de 3TB's heb ik nog steeds 1TB per disk niet in gebruik, aangezien dat toch niet toegevoegd wordt aan de pool. Ik kan daar nog wat mee doen, maar kan het ook laten, tot ik van alle 2TB's af ben en dan de hele pool laten groeien.

Hoeveel poorten heb je beschikbaar?
4 op de controller, 3 op het moederbord

Acties:
  • 0 Henk 'm!

  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Matched: k
GrooV schreef op dinsdag 16 april 2013 @ 14:49:
[...]

Het zit allemaal aardig vol ja :P


[...]

Je zit nu op 10TB netto? Het is voor mij natuurlijk wel goedkoper om op 6x2 te gaan draaien. Dan heb ik 8 netto. Kost me aan schijven 4x80euro ipv 3x120. Moet ik wel weer een duurdere controller aanschaffen of kan er gemixed worden met verschillende controllers?

Hoe zit je exacte setup er nu uit qua vdev's?
Verschillende controllers zou geen probleem mogen zijn.

Let wel op het verschil tussen TB en TiB en het feit dat ZFS daar nog wat van af snoept. Ik draai nu ook 6x3TB in RAID-Z2;12 TB netto denk je dan. Maar in de praktijk houd ik 10,7TiB over.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Matched: k
Letterlijk is 12 TB = 10,9 TiB. Dus die 0,2 TiB ben je dan kwijt aan metadata/slack. Valt toch wel mee? Voor niet-optimale pool configuraties die wel ashift=12 zijn, is de overhead stukken groter.

Acties:
  • 0 Henk 'm!

  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Matched: k
Verwijderd schreef op dinsdag 16 april 2013 @ 16:44:
Letterlijk is 12 TB = 10,9 TiB. Dus die 0,2 TiB ben je dan kwijt aan metadata/slack. Valt toch wel mee? Voor niet-optimale pool configuraties die wel ashift=12 zijn, is de overhead stukken groter.
Ik had ergens een artikel gelezen dat stelt dat ZFS sowieso 1/64e van de beschikbare capaciteit reserveert voor metadata. Weet je daar iets meer over?
Nu, rekening houdend met de grootte van mijn partities zou ik na aftrek van dat 64e deel nog 10,75TiB moeten overhouden. Maar in praktijk heb ik effectief iets van een 10,69TiB beschikbaar. Waar is die 0.06TiB dan naar toe?
(het gaat mij hier niet om die 60GiB die kwijt ben, ik ben gewoon geinteresseerd in wat er dan wel mee gebeurt)

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Matched: k
Cipher, als je die persistent l2arc gaat maken, maak hem optioneel (vinkjes enzo). Ik gok dat je gaat dd dumpen, mooiste zou zijn als je de zfs send/receive architectuur kan recyclen maar dat betwijfel ik. Als je het helemaal leuk aanpakt maak je er een zvol file van met replicatie/compressie waarom weet ik nog niet maar er is vast wel iemand die er een nut voor kan verzinnen (benchmark cheaten?).

Acties:
  • 0 Henk 'm!

  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 26-07 10:50

Wouter.S

e^(i*pi ) +1 = 0

Matched: k
Verwijderd schreef op dinsdag 16 april 2013 @ 16:44:
Letterlijk is 12 TB = 10,9 TiB. Dus die 0,2 TiB ben je dan kwijt aan metadata/slack. Valt toch wel mee? Voor niet-optimale pool configuraties die wel ashift=12 zijn, is de overhead stukken groter.
Heb je hier concrete formules voor om die overhead te berekenen? Ik ga normaal binnenkort een 4*3TB raidz1 pool gebruiken. Performance is niet echt een punt, zolang het maar gigabit kan voltrekken. Maar van die overhead had ik geen idee. Kan ik dan ook gewoon 4K disks gebruiken zonder ashift=12? Met zo dus minder overhead?

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Matched: k
Heb bijna alle hardware voor mijn ZFS setup. Ik wil 10 disken van 2TB RAID-Z2 gaan draaien en 2 disken in RAID1 voor VM's. Ik wil ook graag ZIL/L2ARC toepassen. Zit alleen met de vraag ga ik twee verschillende SSD gebruiken, 1x ZIL en 1x voor L2ARC. Of twee de zelfde SSD's in de configuratie zoals in de start post.
- partitie 1 voor systeem/boot pool: 28GiB
- partitie 2 voor L2ARC cache: 60GiB
- partitie 3 voor SLOG: 4GiB

De eerste optie wordt in een voorbeeld systeem in de start post ook genoemt namelijk: 1x Intel 320 voor Dedicated ZIL en een Crucial M4 / Samsung 830 of reguliere consumenten SSD voor L2ARC caching. Deze optie vindt ik een beetje gevaarlijk omdat de dedicated ZIL ofwel SLOG maar op een SSD staat.
Daarom voel ik meer voor de tweede optie.

De server gaat uitgerust worden met ESXi met verschillende OS'en. Voor het ZFS ga ik denk ik debian gebruiken of een van de BSD varianten (kan nog alle kanten op). De server is uitgerust met 4 ethernet poorten van 1 Gbps. Drie hiervan gaan in LACP naar de switch en een voor andere toepassing. Heb meerder andere systemen die de ZFS gaan gebruiken doormiddel van NFS of SMB/CIFS. Wil niet dat deze losse systemen een bandbreedte beperking hebben omdat de server maar 1 Gbps ethernet aansluiting heeft. Vandaar de LACP oplossing. In eerste instantie gaat mijn server niet achter een UPS. Moet er dus vanuit gaan dat het systeem zomaar ineens zonder spanning kan komen. Verder vindt ik het lastig om een keuze te maken welke SSD de beste keuze zijn, size, type enz.

Ben erg nieuwsgierig wat jullie zouden adviseren.


Frequently Asked Questions About Flash Memory (SSDs) and ZFS.

Acties:
  • 0 Henk 'm!
Je hebt de 320 en de 830 al?

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Matched: k
@anderen: ik heb wat meer tijd nodig voor jullie vragen; stay tuned, waarschijnlijk morgen pas. :P

@Neptunus
Wil niet dat deze losse systemen een bandbreedte beperking hebben omdat de server maar 1 GiB ethernet aansluiting heeft. Vandaar de LACP oplossing.
LACP kan effectief maar één link gebruiken tussen een 1:1 connectie. Je hebt round robin nodig (TCP violating) om 1:1 verbindingen te versnellen. Dat werkt alleen zonder switch of met sommige switches die dit (impliciet) ondersteunen.

Btw, 1GiB = 10 gigabit. Je bedoelt 1Gbps ofwel ~100MB/s.

Een SSD apart voor SLOG vind ik echt onzinnig. Waarom zou je dat willen? Omdat je denkt dat de SSD wat te doen heeft ofzo? Behalve voor héél serieuze builds gebruik je een SSD gewoon voor meerdere taken. Je modem draait ook geen Intel quadcore dat is ultra-overkill.

Wat mij betreft overweeg je dus of je één veilige SSD (Intel 320 of Crucial M500) gebruikt voor zowel SLOG, L2ARC als boot, ofwel twee SSDs voor dezelfde taken maar dan in mirror en L2ARC in stripe. Merk op dat twee onveilige SSDs zoals Crucial M4 en Samsung 830 niet geschikt zijn voor SLOG. Al zet je er honderd in mirror.

Acties:
  • 0 Henk 'm!
Met als kanttekening, dat als je een UPS hebt, het iets minder erg is...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Matched: k
Mee eens. Maar Intel 320 of Crucial M500 zijn denk ik uitstekende keuzes voor een ZFS NAS. M500 moet zich eigenlijk nog wel bewijzen; voor zakelijke gebruikers zou ik bij de Intel 320 blijven; bewezen betrouwbaarheid. M500 is voor nieuwe (thuis)gebruikers het meest interessant door de lagere prijs per gigabyte en hogere snelheden. Nadeel is wel de erg hoge page size (16K).

Acties:
  • 0 Henk 'm!
Ik heb er 2 (Intel 320's), wie bied? :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Matched: k
Nee heb nog helemaal geen SSD's. Dat had ik beter moeten aangeven in mijn post.

Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Matched: k
Verwijderd schreef op dinsdag 16 april 2013 @ 22:35:

LACP kan effectief maar één link gebruiken tussen een 1:1 connectie. Je hebt round robin nodig (TCP violating) om 1:1 verbindingen te versnellen. Dat werkt alleen zonder switch of met sommige switches die dit (impliciet) ondersteunen.
Heb een SG300 Series Managed Switch, moet eerlijk bekenen dat ik nog nooit LACP toegepast hebt. Zover ik het nu begrijp:
Link Aggregation (met LACP) met twee netwerkinterfaces niet een 1Gbps verbinding biedt. In plaats daarvan 2x1Gbps verbinding biedt. Netwerkverkeer is balanced tussen de netwerkinterfaces, op basis source/destination MAC Address and/or IP Address. Afhankelijk van hoe je het hebt geconfigureerd.

Bijvoorbeeld: Een SG300 switch die Link Aggregation met twee netwerkinterfaces doet. Snelheid zal rond de ~100 MB/s liggen. Je hebt dan niet de dubbele snelheid, maar je kunt dan de prestaties van twee PC's die op een enkele netwerkinterfaces van de switch aangesloten zijn halen. Dus 2x1Gbps verbinding per PC op ~100 MB/s. Daarom dacht ik dat Link Aggregation meer performance biedt.

Is dit correct of snap ik het gewoon weg nog niet?
Btw, 1GiB = 10 gigabit. Je bedoelt 1Gbps ofwel ~100MB/s.
Oeps... heb het aangepast.
Een SSD apart voor SLOG vind ik echt onzinnig. Waarom zou je dat willen? Omdat je denkt dat de SSD wat te doen heeft ofzo? Behalve voor héél serieuze builds gebruik je een SSD gewoon voor meerdere taken. Je modem draait ook geen Intel quadcore dat is ultra-overkill.
Eens daarom had de twee config al mijn voorkeur.
Wat mij betreft overweeg je dus of je één veilige SSD (Intel 320 of Crucial M500) gebruikt voor zowel SLOG, L2ARC als boot, ofwel twee SSDs voor dezelfde taken maar dan in mirror en L2ARC in stripe. Merk op dat twee onveilige SSDs zoals Crucial M4 en Samsung 830 niet geschikt zijn voor SLOG. Al zet je er honderd in mirror.
Zal straks eens kijken welke SSD's ik het beste kan gebruiken. Het zullen wel twee Intel 320 of Crucial M500 worden. Of zijn er nog andere goede opties?

Acties:
  • 0 Henk 'm!

  • Trunksmd
  • Registratie: Juli 2002
  • Laatst online: 22-06 12:17
Matched: k
Slechte week voor mij. Na bijna 3 maanden vrolijk FREENAS gedraaid te hebben (en zonder problemen), en deze week de 2e update gedraaid te hebben, ging het mis.
1. L2ARC cache SSD kwam niet meer online. Na onderzoek bleek dat ie het begeven had. Het was ook maar een 60 Gb OCZ Vertex II.
2. Bij de reboot wordt mijn 16 GB RAM geheugen niet meer aangegeven. Slechts 8 Gb toont het BIOS. Hoewel bij de MEM ok test (heb een Asus ASUS - E35M1-I DELUXE) toont wel 16 Gb, maar eensmaal in het BIOS is het weg. Tja, het wordt officieel dan ook niet ondersteund.
3. Transmission plugin wilde niet meer downloaden. Zelfs met de meest onveilige permissies (alles Chmod 777) ging het niet. Toen heb ik de tranmission op mijn imac geïnstalleerd. En die ging ook niet downloaden. toen heb ik mutorrent geïnstalleerd en die deed wel downloaden. Er is iets klaarblijkelijk met transmission 2.77 en met name Magnet links. Maar eens uitzoeken.

Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Matched: k
Ik heb een probleempje.
Ik heb van wat oude hardware een ZFS (backup) servertje gemaakt.

Nu is denk ik 1 van de schijven defect?

FreeNAS geeft de volgende error:

code:
1
2
3
4
WARNING: The volume tank (ZFS) status is UNKNOWN: One or more devices has experienced an
unrecoverable error. An attempt was made to correct the error. Applications are unaffected.Determine if the
device needs to be replaced, and clear the errors using 'zpool clear' or replace the device with 'zpool 
replace'.


zpool clear heb ik al een paar keer gedaan, maar helaas, de error blijft terugkomen.
Onderstaand de output van zpool status

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
[root@freenas] ~# zpool status
  pool: tank
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://www.sun.com/msg/ZFS-8000-9P
  scan: scrub repaired 196G in 8h13m with 0 errors on Thu Apr 18 09:50:12 2013
config:

        NAME                                            STATE     READ WRITE CKSUM
        tank                                            ONLINE       0     0     0
          raidz1-0                                      ONLINE       0     0     0
            gptid/8daf4f2b-9aff-11e2-b4f8-bc5ff4901c45  ONLINE       0     0  140K
            gptid/941a8abb-9aff-11e2-b4f8-bc5ff4901c45  ONLINE       0     0     0
            gptid/94c3908e-9aff-11e2-b4f8-bc5ff4901c45  ONLINE       0     0     0
            gptid/9aea7fdc-9aff-11e2-b4f8-bc5ff4901c45  ONLINE       0     0     0
            gptid/a170873c-9aff-11e2-b4f8-bc5ff4901c45  ONLINE       0     0     0
            gptid/a7d4e13f-9aff-11e2-b4f8-bc5ff4901c45  ONLINE       0     0     0
            gptid/ae44664d-9aff-11e2-b4f8-bc5ff4901c45  ONLINE       0     0 10.7M
            gptid/b4cd36e3-9aff-11e2-b4f8-bc5ff4901c45  ONLINE       0     0     0

errors: No known data errors
[root@freenas] ~#


- Zijn er nu 2 schijven defect?
- En hoe zie ik welke? Ik hoopte ee serienummer te kunnen zien, dat lees ik ook terug in de manuals.
Heb ik zitten slapen tijdens het maken van de pool, en bestonden er al GTP partities, waardoor ik nu de serienummers niet zie maar gptid's?
- Kan ik nog andere commando's uitvoeren om meer info naar boven te halen?

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Matched: k
Met onderstaande moet je normaal gezien wel de partitienamen aan fysieke schijven kunnen koppelen.
code:
1
gpart show

Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Matched: k
Dat geeft mij de volgende output

code:
1
2
3
4
5
6
7
8
[root@freenas] ~# gpart show
=>        34  1953525101  ada0  GPT  (931G)
          34          94        - free -  (47k)
         128     4194304     1  freebsd-swap  (2.0G)
     4194432  1949330703     2  freebsd-zfs  (929G)

ect.
[.......]


Nu weet ik dus nog steeds de serienummers niet?

//edit!

Thanks voor het zetje in de rug :-)

Serienummer is te achterhalen met

code:
1
smartctl -a /dev/ada0 | grep Serial

[ Voor 16% gewijzigd door Extera op 18-04-2013 16:47 ]

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Matched: k
FreeNAS vindt het handig om met GPT-IDs te werken, ofzo. Dat zijn overigens geen serienummers van de disk.

glabel status krijg je een overzicht van welke providers met welke consumers zijn verbonden. Dat is waarschijnlijk wat je wilt weten. Kijk even naar de SMART van beide disken die checksum errors aangeven. Kan het zijn dat je die ene disk met 10 miljoen checksum errors een tijdje hebt gemist en degraded hebt gedraaid? In dat geval is het normaal dat je heel veel checksum errors hebt; de data op die disk is dan stale.

Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Matched: k
Ik zou het niet weten.
bij een zpool clear wist hij deze waardes?

Gisteravond namelijk nog een zpool clear gegeven.

Ik weet niet zo goed naar welke SMART waardes ik moet kijken.
Alle schijven laten vergelijkbare waardes zien.

Ik ben nu een lange SMART test aan het draaien.
Gaat even duren:

code:
1
2
3
4
smartctl --test=long /dev/ada0
[.....]
Please wait 237 minutes for test to complete.
Test will complete after Thu Apr 18 20:58:52 2013


Raak zo wel lekker bekend met Freebsd / zfs. geeft vertrouwen voor een 'productieserver'

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Geen matches
SMART test is nutteloos. Het gaat om de SMART data.

smartctl -A /dev/ada0
(hoofdletter A)

Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Matched: k
Ik weet niet zo heel goed wat ik uit de output moet halen...

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
[root@freenas] ~# smartctl -A /dev/ada0
smartctl 5.43 2012-06-30 r3573 [FreeBSD 8.3-RELEASE-p6 amd64] (local build)
Copyright (C) 2002-12 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   100   100   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0007   061   061   011    Pre-fail  Always       -       12340
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       115
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   253   253   051    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0025   100   100   015    Pre-fail  Offline      -       10395
  9 Power_On_Hours          0x0032   098   098   000    Old_age   Always       -       10632
 10 Spin_Retry_Count        0x0033   100   100   051    Pre-fail  Always       -       0
 11 Calibration_Retry_Count 0x0012   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       98
 13 Read_Soft_Error_Rate    0x000e   100   100   000    Old_age   Always       -       0
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       0
184 End-to-End_Error        0x0033   100   100   000    Pre-fail  Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   073   067   000    Old_age   Always       -       27 (Min/Max 22/33)
194 Temperature_Celsius     0x0022   073   067   000    Old_age   Always       -       27 (Min/Max 22/34)
195 Hardware_ECC_Recovered  0x001a   100   100   000    Old_age   Always       -       71688638
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   100   100   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x000a   100   100   000    Old_age   Always       -       0
201 Soft_Read_Error_Rate    0x000a   100   100   000    Old_age   Always       -       0

[root@freenas] ~#


De waarde van 195 Hardware_ECC_Recovered lijkt me verontrustend?...

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 18-07 20:49

Ultraman

Moderator Harde Waren

Boefje

Matched: k
Extera schreef op donderdag 18 april 2013 @ 21:01:
Ik weet niet zo heel goed wat ik uit de output moet halen...

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
[root@freenas] ~# smartctl -A /dev/ada0
smartctl 5.43 2012-06-30 r3573 [FreeBSD 8.3-RELEASE-p6 amd64] (local build)
Copyright (C) 2002-12 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   100   100   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0007   061   061   011    Pre-fail  Always       -       12340
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       115
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   253   253   051    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0025   100   100   015    Pre-fail  Offline      -       10395
  9 Power_On_Hours          0x0032   098   098   000    Old_age   Always       -       10632
 10 Spin_Retry_Count        0x0033   100   100   051    Pre-fail  Always       -       0
 11 Calibration_Retry_Count 0x0012   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       98
 13 Read_Soft_Error_Rate    0x000e   100   100   000    Old_age   Always       -       0
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       0
184 End-to-End_Error        0x0033   100   100   000    Pre-fail  Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   073   067   000    Old_age   Always       -       27 (Min/Max 22/33)
194 Temperature_Celsius     0x0022   073   067   000    Old_age   Always       -       27 (Min/Max 22/34)
195 Hardware_ECC_Recovered  0x001a   100   100   000    Old_age   Always       -       71688638
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   100   100   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x000a   100   100   000    Old_age   Always       -       0
201 Soft_Read_Error_Rate    0x000a   100   100   000    Old_age   Always       -       0

[root@freenas] ~#


De waarde van 195 Hardware_ECC_Recovered lijkt me verontrustend?...
Nee, waarom? Als je niet zo goed weet wat je uit de output moet halen, ga er dan vooral geen conclusies aan verbinden. ;)

A. lees je hem uberhaupt goed? De genormaliseerde waarde staat nog steeds op 100 van 100, perfect.
B. De ruwe waarde hoeft geen decimale representatie te zijn. Kan ook best een positie zijn, of een checksum, of een getal op een schaal van de fabrikant. M.a.w.: daar kun je als eindgebruiker niets over zeggen.
C. Stel dit is wel een decimale representatie. Dan is dat het aantal keren waarop de hardwarematige ECC het probleem heeft kunnen afvangen. Zonder dat er iets onder geleden heeft. ZFS zal waarschijnlijk ook geen problemen met de checksum opgemerkt hebben omdat de data wel degelijk goed gelezen is? Eigenlijk zijn het in zekere zin succesverhalen zelfs.

Je Reallocated Sector Count en Pending Sector Count zijn beide 0, dat is ook prima. Alle genormaliseerde waarden zijn uitstekend. De temperatuur is in orde en nooit hoog geweest.

Ziet er kerngezond uit voor een schijf met 10000 draaiuren. :Y

[ Voor 4% gewijzigd door Ultraman op 18-04-2013 21:25 ]

Als je stil blijft staan, komt de hoek wel naar jou toe.


Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Matched: k
Oke, dat is goed nieuws :Y)

De output van de andere schijven ziet er geloof ik ook goed uit.

De vraag is nu, waarom krijg ik steeds de unrecoverable error melding?

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 16:49
Matched: k
Extera schreef op vrijdag 19 april 2013 @ 09:15:
Oke, dat is goed nieuws :Y)

De output van de andere schijven ziet er geloof ik ook goed uit.

De vraag is nu, waarom krijg ik steeds de unrecoverable error melding?
voeding die niet optimaal draait, overclocked ram/cpu, ram dat niet helemaal compatible is met je motherboard

Acties:
  • 0 Henk 'm!

  • GrooV
  • Registratie: September 2004
  • Laatst online: 10:32
Matched: k
Ik had nog een vraagje,

Als ik (2 +1) + (2 +1) + 3 in RAIDZ draai, hoe veilig is de array dan nog als er een 1TB uitvalt? Is dan de hele virtuele schijf van 2+1 uitgevallen?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Matched: k
Wat bedoel je precies met (2+1) + (2+1) + 3? Dat laatste snap ik dan niet. Dat moet dan toch ook 2+1 zijn? Je bedoelt dan 3 keer een RAID-Z van elk 3 disks. Maar omdat je de laatste als + 3 schrijft, lijkt me dat je wat anders bedoelt?

Het is verder heel simpel: als je een pool hebt met meerdere vdevs (meerdere arrays) zoals drie keer een RAID-Z, en één van die RAID-Z gaat stuk, dan is de hele pool stuk. Het is dus erg wenselijk om RAID-Z2 met meer disks te overwegen ipv meerdere vdevs die elk maar één disk redundantie hebben.

Acties:
  • 0 Henk 'm!

  • GrooV
  • Registratie: September 2004
  • Laatst online: 10:32
Matched: k
Sorry ik bedoelde (2TB + 1TB) + (2TB + 1 TB) + 3TB dus eigenlijk RAIDZ van 9TB

Oops, Pool's en vdev door elkaar gehaald :P

[ Voor 25% gewijzigd door GrooV op 19-04-2013 11:51 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Matched: k
Dat kan, maar die 2TB+1TB disks worden dan als één disk gezien door ZFS. Je moet dan ook software RAID (geom) gebruiken om daar één disk van te maken; ZFS kan dit niet zelf. Je hebt dan dus gewoon een RAID-Z met drie disks, waarvan één echte 3TB disk en de andere twee zijn virtuele concatenated disks van 2TB+1TB.

Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Matched: k
Zijn er vuistregels voor het berekenen van L2ARC/SLOG en ram grote van je systeem.

Stel je hebt 10x2GB met 64 GB ram. Wat is dan een optimale L2ARC/SLOG grote?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Matched: k
Hoeveel L2ARC je kunt gebruiken, hangt af van het soort data en hoe je deze aanspreekt. Als je enkel bestanden van A tot Z inleest, zal L2ARC alleen gebruikt worden voor metadata. Als je veel virtual machines, of games of andere random I/O achtige data opslaat en aanspreekt, zal L2ARC intensief gebruikt worden.

Hoeveel RAM je L2ARC gebruikt kun je in ZFSguru goed zien. Maar 1:16 is denk ik een redelijke rule of thumb. Dat hangt wel af hoe groot de fragmenten zijn. Met 512B fragmenten gebruik je per gigabyte L2ARC veel meer RAM dan 16K fragmenten. Ik geloof dat je het beste van 8K uit kan gaan. Dan kom je denk ik aan die 1:16.

Acties:
  • 0 Henk 'm!
Als je geen VM's hebt, en L2ARC alleen hebt voor metadata, zou ik hem daar ook juist op forceren. Het cachen van films is leuk, maar genereerd veel te veel load op je L2ARC in mijn ogen. Ik zie dat ding soms wel een hele SMB transfer cachen, terwijl dat echt nutteloos is...

Zonde van de SSD in mijn ogen...

Even niets...


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Matched: k
5x4TB (Seagate) is eindelijk binnen, vanavond laat benchmarks vermoedelijk op een amd dualcore nogwat met sb780g en één gieg of vier.

Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Matched: k
FireDrunk schreef op vrijdag 19 april 2013 @ 14:05:
Als je geen VM's hebt, en L2ARC alleen hebt voor metadata, zou ik hem daar ook juist op forceren. Het cachen van films is leuk, maar genereerd veel te veel load op je L2ARC in mijn ogen. Ik zie dat ding soms wel een hele SMB transfer cachen, terwijl dat echt nutteloos is...

Zonde van de SSD in mijn ogen...
Stel ik koop twee keer een intel 320 van 120 GB extra voor mijn systeem. Heb al 10x2GB en 64 GB DDR3.

Ik zou dan (zoals in de openings post van dit topic) de configuratie als volgt kunnen doen:
- partitie 1 voor systeem/boot/vm's pool: 30GiB mirror configuratie
- partitie 2 voor L2ARC cache: 60GiB striping = 2x 60 = 120GB
- partitie 3 voor SLOG: 4GiB mirror configuratie
- rest van de ruimte onbenut laten als overprovisioning

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
                                |--------------------------------------------------------------------||--------------------------------------------------------------------|
                                |                      ssd 120 GB                                    ||                      ssd 120 GB                                    |
                                |--------------------------------------------------------------------||--------------------------------------------------------------------|
                                |       30 GB       |          60 GB          | 4 GB |     26 GB     ||       30 GB       |          60 GB          | 4 GB |     26 GB     |
                                |--------------------------------------------------------------------||--------------------------------------------------------------------|
                                         ^                      ^               ^          ^                   ^                      ^               ^          ^
                                         |                      |               |          |                   |                      |               |          |
SYSTEM/BOOT/VM'S (4 keer linux)          +----------------------+---------------+----------+-------------------+                      |               |          |
                                                                |               |          |                                          |               |          |
L2ARC                                                           +---------------+----------+------------------------------------------+               |          |
                                                                                |          |                                                          |          |
SLOG                                                                            +----------+----------------------------------------------------------+          |
                                                                                           |                                                                     |
overprovisioning                                                                           +---------------------------------------------------------------------+


Ik ga de ZFS configuratie met name gebruiken voor documenten/films/series/mp3. De documenten worden dagelijks gebruikt (werken volledig vanaf deze data), films/series/mp3 ook, maar gebruik van deze data hoeft niet opgenomen in de L2ARC maar de metadata is wel handig. Dit geld weer niet voor de documenten.

Hoe kan je dit nu het beste indelen.

Acties:
  • 0 Henk 'm!
Je kan de ssds niet tegelijk aan zfs geven en door esxi laten gebruiken.
Hoe had je dat zelf bedacht?

Even niets...


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Matched: k
FireDrunk schreef op vrijdag 19 april 2013 @ 16:47:
Je kan de ssds niet tegelijk aan zfs geven en door esxi laten gebruiken.
Hoe had je dat zelf bedacht?
Tuurlijk wel, vmfs/vmdk'tje ertussen. Als je je ssd gaat partitioneren is je hele flush-cache verhaal toch al kapot dus dan maakt het weinig meer uit.

[ Voor 18% gewijzigd door analog_ op 19-04-2013 17:09 ]


Acties:
  • 0 Henk 'm!
VMDK ertussen is wat mij betreft een 100% NO-GO omdat je ZIL 100% afhankelijk is van echte synced writes. Je wil ZIL niet virtualiseren...

Je verhaal over partitioneren en je cache-flush weg zijn, mag je even toelichten... daar geloof ik vrij weinig van...

[ Voor 30% gewijzigd door FireDrunk op 19-04-2013 17:24 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Matched: k
Dat was iets met Solaris, al had Gila dat een tijd terug tegengesproken. Staat nog wel ergens in de 'best practices' voor Solaris+ZFS. Geldt 100% zeker weten niet voor FreeBSD met zijn geavanceerde GEOM framework.

Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Matched: k
FireDrunk schreef op vrijdag 19 april 2013 @ 16:47:
Je kan de ssds niet tegelijk aan zfs geven en door esxi laten gebruiken.
Hoe had je dat zelf bedacht?
Nou de SSD met pass-through doorgeven net als de andere 10x2GB hdd's. BV. ESXi booten van USB stick, daarna bv. nas4free ook booten van USB stick. De partitie systeem/boot/vm's dan via NFS beschikbaar maken zodat je vanaf NFS bij de vm's kunt. Je gebruikt deze partitie dan eigenlijk niet voor booten.

Als dit niet kan, dan ga ik de twee 2 GB hdd's die ik over heb in mirror zetten in bv. nas4free en deze gebruiken voor mijn vm's.

Op deze manier heb je dan een 3 trap's boot.
1: boot ESXi vanaf USB stick
2: boot bv. zfsguru (maakt de partities in de 10x2GB beschikbaar met bv. NFS/SMB en die van de SSD's voor de vm's)
3: boot de andere VM's via NFS

Hoop op deze manier voor elkaar te krijgen dat mijn 10x2GB hdd's niet altijd actief zijn omdat de vm's vanaf de SSD runnen. Misschien is dit helemaal de verkeerde manier. Ben erg nieuwsgierig hoe jullie dit zouden doen.

Acties:
  • 0 Henk 'm!
Je NAS4Free VM Config moet nog op een lokale datastore staan.

@CiPHER, ik bedoelde vooral dat Virtualisatie je Cache Flush vertraagt, en je dus potentieel meer risico loopt...

Even niets...


Acties:
  • 0 Henk 'm!

  • Ijstheefles
  • Registratie: December 2011
  • Laatst online: 19-07 04:18
Geen matches

Acties:
  • 0 Henk 'm!

  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
Matched: k
Ijstheefles schreef op maandag 15 april 2013 @ 19:19:
Ben vandaag begonnen met een migratie van ubuntu + raid5 (5x2tb) + 2x 1tb los.

Wil hier 1x raidz mee gaan draaien, en 1x RAID1 voor de 2x 1tb.

Ben nu bezig om al mijn belangrijkste data te backuppen.

Als systeem heb ik 8GB geheugen, een intel g530 en.... een Highpoint 640L

Mijn vragen:
- Nog tips? =p
Het onderstaande niet direct op je NAS draaien maar in een Jail of VirtualBox. Ik heb zelf NAS4Free and wel wat andere dingen geinstalleerd, maar gewone NAS systeem laat ik met rust, Jails en VirtualBox doen alle andere dingen. Ik draai wel 16GB aan RAM.
- Torrents (al dacht ik dat op het forum al te zien)
- Ssh server
Torrents en SSH zijn ingebouwd
- (Zou leuk zijn; Virtualbox. Performance boeit weinig)
Is een extension voor, evenals TheBrig voor Jails.
- ( Zou leuk zijn; Nagios, Puppet)
- ( Zou leuk zijn; Boinc )
- ( Zou leuk zijn; Tomcat)
- (Zou leuk zijn; git / git servertje )
In Jails of VM dus
- Ngix /Apache (liefst beide)
NAS4Free draait op lighttpd, dus dat kan problematisch zijn (VM zou geen probleem moeten zijn)

Hopelijk heb je hie wat aan

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Matched: k
Ijstheefles schreef op maandag 15 april 2013 @ 19:19:
Ben vandaag begonnen met een migratie van ubuntu + raid5 (5x2tb) + 2x 1tb los.
Je gaat dus migreren van Ubuntu naar iets anders, maar wat dan? Je noemt verder FreeNAS, dus ik neem aan BSD platform + ZFS?
Als systeem heb ik 8GB geheugen, een intel g530 en.... een Highpoint 640L
Je zult moeten kijken of die controller geschikt is. Meestal zijn Marvell chips niet zonder problemen. Maar je kan geluk hebben. Belangrijk is of deze als AHCI controller werkt of het een RAID chip is. In dat laatste geval heb je mogelijk minder geluk. Je kunt kijken hoe je controller herkend wordt, door te kijken naar de dmesg (kernel messages).
- Zijn er behalve met hdparm -I (op ubuntu) het serial nummer uitlezen en dat mappen tussen de /dev's en de fysieke hardeschijven, nog manieren om deze mapping te doen voor 't geval er een schijf uitvalt?
Ja, gewoon je disks een naam geven. Samsung1, samsung2, samsung3... en dat als label op je disks plakken bijvoorbeeld. Dan heb je het mooi geregeld. UUIDs, GPTIDs en serial numbers zijn niet echt praktisch of handig, vind ik.
- Gaat 't hierboven gelinkte kaartje goed overweg kunnen met FreeNas?
Dat is dus de vraag.
- Storage zal ongetwijfeld lukken, ik heb nu alleen de volgende services draaien waarbij ik me afvraag of dit ook in FreeNAS kan;

- Torrents (al dacht ik dat op het forum al te zien)
- Crashplan daemon
- (Zou leuk zijn; Virtualbox. Performance boeit weinig)
- Ssh server
- ( Zou leuk zijn; Nagios, Puppet)
- ( Zou leuk zijn; Boinc )
- Ngix /Apache (liefst beide)
- ( Zou leuk zijn; Tomcat)
- (Zou leuk zijn; git / git servertje )
FreeNAS is niet het gemakkelijkst als je er meer op wilt draaien, omdat FreeNAS een beperkte distributie is met dingen eruit gestript. Crashplan werkt volgens mij niet onder BSD, al kun je dat virtualisen. Andere dingen lijken mij wel kunnen. ZFSguru is wellicht makkelijker, ook omdat git, boinc, binnenkort komen en nagios, apache, virtualbox, openssh en torrents op dit moment al beschikbaar zijn.

Je kunt natuurlijk alvast uitproberen onder Virtualbox op je desktop, gewoon een fake installatie doen en kijken hoe moeilijk het is om de extra dingen onder FreeNAS werkend te krijgen. Onder ZFSguru is dit allemaal toch wat makkelijker. Allereerst omdat veel dingen al als kant en klare service zijn te installeren, anderzijds omdat het een volledige BSD distro is en je dus gewoon via de portstree dingen kunt installeren, zonder gare guides te gebruiken die vrij vies buiten de package manager om dingen gaan installeren. Equivalent daarvan is handmatig .dlls naar je Windows system32 dir kopiëren, dat is ook niet hoe het hoort. Maar het kan wel werken.

Vooral uitproberen dus wat je het gemakkelijkst vindt. En als het niet lukt lekker virtualisen!

Acties:
  • 0 Henk 'm!

  • Ijstheefles
  • Registratie: December 2011
  • Laatst online: 19-07 04:18
Matched: k
Thanks beiden :-)

Acties:
  • 0 Henk 'm!

  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 26-07 10:50

Wouter.S

e^(i*pi ) +1 = 0

Matched: k
Verwijderd schreef op dinsdag 16 april 2013 @ 22:35:
@anderen: ik heb wat meer tijd nodig voor jullie vragen; stay tuned, waarschijnlijk morgen pas. :P
Zou er hier nog even op terug gekomen kunnen worden :) ?

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Matched: k
Misschien dat het eerder is uitgelegd, maar ik kan het niet vinden.
Namelijk het volgende:

Ik heb 5st wd red in een pool onder zfsguru. Deze hebben geen APM ondersteuning dus zet ik deze schijven standby middels het commando "camcontrol standby ada0 -t 900". Dit is in een script gezet wat automatisch bij opstarten wordt uitgevoerd.

Echter had ik ook nog 2st SAMSUNG HD204UI. Deze gaan niet standby met bovenstaand commando.
Ze hebben wel APM ondersteuning maar de schijven gaan direct standby. Op welke settings ik ze ook zet.

Wat doe ik verkeerd?

[ Voor 8% gewijzigd door ilovebrewski op 21-04-2013 15:05 ]


Acties:
  • 0 Henk 'm!
APM is bij sommige fabrikanten gewoon slecht geimplementeerd. Mijn Samsung's gingen wel prima in standby met de reguliere opties van ZFSguru, ik weet niet welke image je draait, maar er zijn een tijdje terug wat AHCI standby opties bijgekomen geloof ik.

Even niets...


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Matched: k
Ik draai 9.1-005 met webinterface 0.2.0-beta8.

Maar het zou toch wel moeten werken met het camcontrol commando?

Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 23-07 20:44
Matched: k
Goedendag

Bedankt voor de vele info dit topic.
Tot nu toe gebruikte ik Slackware met LVM en disksets in RAID0. De 'grote' nas draait nu nog slackware64 met 10x2T, 6x3T en 4x1.5T in 3 groepen RAID0 op een Highpoint RR2740 met 16x sata gebouwd in een Lian-Li D8000 kast. Video opslag is het en redundantie level 'weg=pech'. Ik draai al jaren met vergelijkbare setups en ben eigenlijk nog nooit veel data kwijt geraakt.
Voor het werk doe ik wel eens wat met Solaris en Linux en thuis dus Linux als NAS, Router, Webserver etc.

Ik heb nu zfsguru geinstalleerd op een PC (1 SSD Crucial C300, 4x 1.5TB Samsung, Athlon64-x2 3800+ met 4G DDR2) als test. (http://etmriwi.home.xs4all.nl/pc/pc_linuxdesktop.htm)
M'n Highpoint rocketraid 2300 kaartje (4xsata) word netjes herkend door FreeBSD da's fijn.
Het systeem is op de diskpool geinstalleerd. Ik kwam tijdens de installatie geen optie tegen om het systeem op de SSD te zetten. Moet je een 1 disk pool maken om het systeem daarop te kunnen zetten?


Ik wil sets disks van de ene PC naar de andere kunnen verplaatsen fysiek en dat de 'pool' + alles wat erop staat dan in de andere PC herkent kan worden en weer bruikbaar is. Daarom dus het systeem scheiden van de data. Kan dat zo?
Verder hoeft het systeem niet zo 'safe' te zijn want het systeem installeer je in een paar uur opnieuw inc. de benodigde instellingen (lijkt me).

Ik heb DHCP uitgezet en vast een IP gegeven in /etc/rc.config en keys uitgewisseld. Ik wil mijn bash/perl scriptjes kunnen draaien die de 'media' scannen om een mysql database te vullen.

O ja. wol krijg ik nog niet werkend. Ik heb met "ifconfig nfe0 wol-magic" de wake-on-lan volgens mij op de interface ge-enabled maar hij wil niet wakker worden als ik magic packets stuur. Onder Linux deed deze PC dat wel (ethtool -s eth0 wol g ). Iemand tips?

Bedankt voor de vele info hier!

[ Voor 7% gewijzigd door riwi op 21-04-2013 17:58 ]

PC specs


Acties:
  • 0 Henk 'm!

  • CrazyTurk
  • Registratie: December 2009
  • Laatst online: 23-05 10:12
Matched: k
Ik heb even advies/hulp nodig. Ik heb inmiddels alle onderdelen voor me nas binnen behalve de schijven want daar kwam ik nog niet uit.

Ik heb nu ongeveer 1,5TB aan bestanden die ik op de nas wil hebben. Maar zou toch ongeveer 4TB beschikbaar ruimte hebben ivm toekomstige opslag. Ik draai nu freenas op de nas maar wil ook zfs gebruiken.

Ik heb even naar een paar schijven gekeken en me oog viel op 2x2TB WD schijven pricewatch: Western Digital Green WD20EZRX, 2TB

Maar nu snap ik niet precies wat zfs gaat doen met de ruimte. Wordt me beschikbare ruimte ongeveer 3TB? En wat als ik een ook nog een 1TB Samsung EcoGreen F2 HD103SI bij zet?

Dit is trouwens me complete setup nu
#ProductPrijsSubtotaal
1Asus C60M1-I€ 62,90€ 62,90
1Fractal Design Core 1000€ 28,19€ 28,19
1Noiseblocker XE1 ,1500RPM, 92mm€ 6,35€ 6,35
1Noiseblocker XL1 120MM, 120mm€ 8,50€ 8,50
1Corsair CMV4GX3M1A1333C9€ 24,79€ 24,79
1be quiet! System Power 7 300W€ 30,54€ 30,54
Bekijk collectie
Importeer producten
Totaal€ 161,27

Acties:
  • 0 Henk 'm!

  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 26-07 10:50

Wouter.S

e^(i*pi ) +1 = 0

Matched: k
CrazyTurk schreef op zondag 21 april 2013 @ 18:10:
Ik heb even naar een paar schijven gekeken en me oog viel op 2x2TB WD schijven pricewatch: Western Digital Green WD20EZRX, 2TB

Maar nu snap ik niet precies wat zfs gaat doen met de ruimte. Wordt me beschikbare ruimte ongeveer 3TB? En wat als ik een ook nog een 1TB Samsung EcoGreen F2 HD103SI bij zet?
Wat 'zfs' gaat doen hangt af van hoe jij de dingen wilt/instelt. Als je 2x2TB schijven aanschaft en je wil je data beveiligen tegen het falen van één harddisk dan moet je ze in mirror plaatsen. Effectief hou je dan 2TB opslag over. Als je geen redundantie wilt kan je opteren om gewoon twee losse pools te maken dan heb je netto 4TB (wel in twee volumes). Je kan ook in stripe draaien, dan maak je één grote pool aan van 4TB maar als één disk faalt ben je alle data kwijt.

Het bijplaatsen van één enkele 1TB disk is geen oplossing. Als je je data iets beter wil beveiligen dan schaf je bijvoorbeeld 3x2TB aan en draai je een raidz pool. Dan heb je netto 4TB en ben je beschermd als er één disk moest uitvallen.

En niet vergeten, als de data echt onvervangbaar is dan moet je gewoon backuppen. Dus op een apparte schijf, liefst offline (lees een schijf in de kast ;) )

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


Acties:
  • 0 Henk 'm!
riwi schreef op zondag 21 april 2013 @ 17:54:
Goedendag

Bedankt voor de vele info dit topic.
Tot nu toe gebruikte ik Slackware met LVM en disksets in RAID0. De 'grote' nas draait nu nog slackware64 met 10x2T, 6x3T en 4x1.5T in 3 groepen RAID0 op een Highpoint RR2740 met 16x sata gebouwd in een Lian-Li D8000 kast. Video opslag is het en redundantie level 'weg=pech'. Ik draai al jaren met vergelijkbare setups en ben eigenlijk nog nooit veel data kwijt geraakt.
Voor het werk doe ik wel eens wat met Solaris en Linux en thuis dus Linux als NAS, Router, Webserver etc.

Ik heb nu zfsguru geinstalleerd op een PC (1 SSD Crucial C300, 4x 1.5TB Samsung, Athlon64-x2 3800+ met 4G DDR2) als test. (http://etmriwi.home.xs4all.nl/pc/pc_linuxdesktop.htm)
M'n Highpoint rocketraid 2300 kaartje (4xsata) word netjes herkend door FreeBSD da's fijn.
Het systeem is op de diskpool geinstalleerd. Ik kwam tijdens de installatie geen optie tegen om het systeem op de SSD te zetten. Moet je een 1 disk pool maken om het systeem daarop te kunnen zetten?
Ja, je kan ZFSguru alleen op een pool installeren. Dus even los aanmaken.
Ik wil sets disks van de ene PC naar de andere kunnen verplaatsen fysiek en dat de 'pool' + alles wat erop staat dan in de andere PC herkent kan worden en weer bruikbaar is. Daarom dus het systeem scheiden van de data. Kan dat zo?
Verder hoeft het systeem niet zo 'safe' te zijn want het systeem installeer je in een paar uur opnieuw inc. de benodigde instellingen (lijkt me).
Hoe bedoel je "zo" ? ZFSguru ondersteund gewoon importeren/exporteren van volumes, waarmee je je Pool transporteerbaar maakt...
Ik heb DHCP uitgezet en vast een IP gegeven in /etc/rc.config en keys uitgewisseld. Ik wil mijn bash/perl scriptjes kunnen draaien die de 'media' scannen om een mysql database te vullen.

O ja. wol krijg ik nog niet werkend. Ik heb met "ifconfig nfe0 wol-magic" de wake-on-lan volgens mij op de interface ge-enabled maar hij wil niet wakker worden als ik magic packets stuur. Onder Linux deed deze PC dat wel (ethtool -s eth0 wol g ). Iemand tips?
Staat het in je BIOS wel aan?
Bedankt voor de vele info hier!
Graag gedaan :P

Even niets...


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 23-07 20:44
Matched: k
FireDrunk schreef op zondag 21 april 2013 @ 22:10:
Ja, je kan ZFSguru alleen op een pool installeren. Dus even los aanmaken.

Hoe bedoel je "zo" ? ZFSguru ondersteund gewoon importeren/exporteren van volumes, waarmee je je Pool transporteerbaar maakt...
Da's mooi, dat wil ik inderdaad. Ik bedoelde dat er geen onlosmakelijke referenties van het systeem naar de dataset zijn en vice versa. Dwz de dataset kan ik dus (net als een setje lvm schijven) in een andere ZFS PC hangen.
Ja als ik boot met Slackware dan is ie wel te wol'en. Ik denk dat ik het 'ifconfig nfe0 wol_magic' commando in de startup moet zetten. Het is niet persistant. Eens kijken waar dat moet in FreeBSD en dan weer proberen.

Dank je

PC specs


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Matched: k
Buildlog reporrr (steven colbert voice): Gisteren het moederbord (760g, 6xsata2), amd dual x250 , vier gb ddr2 en voeding overgeheveld naar een coolermaster stacker die ik nog werkloos had staan. Vervolgens zijn vijf nieuwe 4TB seagates erin gestopt en begonnen met Debian installeren. Dag later kwam ik erachter dat ZFSonLinux niet voor squeeze maar voor wheezy uitkomt (kernel v3 lijn eis), dus weer opnieuw mogen installeren.

Zijn oude opslag volume was gemaakt met behulp van mdadm en bestond uit vijf 1.5TB schijfjes in raid5. Ik krijg die voor mijn archief server (hp xw9400, dual quad opteron, 16gb met berg aan s-ata/sas poorten) die over een paar weken naar de haven van Antwerpen verhuist omdat daar beter internet ligt. De archief server gaat de backups via zfs/send/receive mogen ontvangen over openvpn. Ik ga hier waarschijnlijk ook Debian wheezy voor gebruiken.

Nu tijdelijk het nieuwe volume in de archief machine voor het kopiëren van data. Lokaal kopiëren gaat nu eenmaal wat sneller. Omdat ik nog geen goede bootdisk heb gevonden voor de archief bak gebruik ik simpelweg een ubuntu livecd, erg gemakkelijk voor die one-time klusjes.

apt-get install mdadm, mdadm --assemble --scan, mkdir /mnt/tmp, mount /dev/md0 /mnt/tmp , add-apt-repo ... , apt-get install ubuntu-zfs, zpool import data , cp -R /mnt/tmp/ /data/media/

Ik was nog aan het twijfelen om met Ubuntu te werken vanwege de betere ppa integratie (add-apt-repo...) maar ik heb meer vertrouwen in de stabiliteit van Debian dan Ubuntu, ook al betekend dat ik nog zeker een maand op testing moet draaien todat Wheezy finaal uitkomt.

[ Voor 11% gewijzigd door analog_ op 22-04-2013 01:03 ]


Acties:
  • 0 Henk 'm!
Ubuntu LTS houdt zich toch heel goed aan de Debian standaarden? Verwacht je van een OS wat met dezelfde grondbeginselen gebouwd is minder stabiliteit?
En als je echt stabiel wilt, waarom dan geen FreeBSD?

---

Gister eindelijk mijn mSATA SSD binnen gekregen. Eeen Sandisk U100. Vanavond maar eens kijken wat we daar voor moois mee kunnen. Ik heb de stille hoop dat je mSATA naast PCIe passthrough kan gebruiken, maar die kans is miniem :)

We zullen zien :D

[ Voor 55% gewijzigd door FireDrunk op 22-04-2013 09:03 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • lithoijen
  • Registratie: Februari 2000
  • Laatst online: 12:39
Matched: k
Ik ben nog op zoek naar de juiste hd voor een zfs opstelling Welke van onderstaande hd zou jullie voorkeur wegdragen?
#ProductPrijsSubtotaal
1Hitachi Deskstar 5K4000, 4TB€ 185,-€ 185,-
1Seagate Barracuda HDD.15, 4TB€ 156,09€ 156,09
Bekijk collectie
Importeer producten
Totaal€ 341,09


Het verbruik lijkt vergelijkbaar, wel gebruikt de seagate een platter minder.
Ze komen aan een ibm m1015 met IT firmware te hangen, waarschijnlijk met ZFSguru als OS.
Prijstechnisch neig ik naar de seagates al zijn daar nog geen reviews over te vinden.

Acties:
  • 0 Henk 'm!
Ik heb die HDD.15 schijven, en het zijn in mijn ogen prima schijven. Ze zijn niet heel stil, dus als dat echt een criterium is, moet je even vergelijken met de Hitachi's.

Even niets...


Acties:
  • 0 Henk 'm!

  • lithoijen
  • Registratie: Februari 2000
  • Laatst online: 12:39
Matched: k
De hitachi's staan ook niet als erg stil bekent, bovendien ga je een systeem met veel schijven nooit 100% stil krijgen. Voor mij geen issue, maar bedankt voor de info. Fijn te horen dat ze bevallen, dan ben ik weer wat zekerder van mijn zaak.

Acties:
  • 0 Henk 'm!

  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Matched: k
Die Seagates hebben een spinup van 2A, terwijl die Hitachi's tussen 1,2 en 1,5A nodig hebben. Dus afhankelijk van hoeveel schijven je wil, moet je misschien ook eens kijken wat je voeding aankan.

Acties:
  • 0 Henk 'm!

  • lithoijen
  • Registratie: Februari 2000
  • Laatst online: 12:39
Matched: k
Bedankt voor de tip, ga ik naar kijken. Ik verwacht niet te veel problemen zoveel schijven hang ik er niet in en indien nodig ondersteund de m1015 ook nog stagged spin-up geloof ik.

Acties:
  • 0 Henk 'm!
Ja, mits je ook een hotswap/bay/tray mechanisme hebt die dat ondersteund.

Even niets...


Acties:
  • 0 Henk 'm!

  • lithoijen
  • Registratie: Februari 2000
  • Laatst online: 12:39
Matched: k
O dat wist ik niet, goed dat je me daar op wijst, wel jammer dat daar dan weer extra hardware voor nodig is. Voorlopig zal het in iedergeval nog niet nodig zijn gezien de voeding icm de beperkte belasting die er nu aan hangt.

Acties:
  • 0 Henk 'm!
Er zijn een paar schijven waar je het geloof ik via een speciaal ATA commando aan/uit kan zetten, en ook een heel klein aantal met een jumper, maar ik geloof dat die niet echt meer gemaakt worden.

Even niets...


Acties:
  • 0 Henk 'm!

  • Geckx
  • Registratie: November 2008
  • Laatst online: 23-05-2022
Matched: k
Deze hebben geen APM ondersteuning dus zet ik deze schijven standby middels het commando "camcontrol standby ada0 -t 900". Dit is in een script gezet wat automatisch bij opstarten wordt uitgevoerd.
Kan iemand eens uitleggen hoe je dit precies instelt? Ik moet het manueel doen voor alle schijven na elke reboot.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 11:32

Compizfox

Bait for wenchmarks

Matched: k
Scriptje maken en in /usr/local/etc/rc.d/ zetten.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 23-07 20:44
Matched: k
Ik heb een ZFS vraagje

Ik heb 1 pool voor 1x SSD met daarop ZFS Guru, da's prima nu. 20GB gereserveerd voor systeem. 80G voor L2ARC, rest vrij (128G SSD).
Ik heb 1 pool met 4x1.5TB en via hardware raid-0 3x500GB als 5de schijf toegevoegd.
Dat werkte, maar ik wil de hardware raid liever niet gebruiken en dacht dit met een vdev te kunnen doen.
Nu heb ik dus op elke 500GB schijf GPT geschreven en een pool s500x3 gemaakt met deze 3 schijven in RAID0.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
[root@zfsguru ~]# zpool status s500x3
  pool: s500x3
 state: ONLINE
  scan: none requested
config:

        NAME         STATE     READ WRITE CKSUM
        s500x3       ONLINE       0     0     0
          gpt/500g1  ONLINE       0     0     0
          gpt/500g2  ONLINE       0     0     0
          gpt/500g3  ONLINE       0     0     0

errors: No known data errors
[root@zfsguru ~]# zpool status riwi
  pool: riwi
 state: DEGRADED
status: One or more devices could not be opened.  Sufficient replicas exist for
        the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
   see: http://illumos.org/msg/ZFS-8000-2Q
  scan: none requested
config:

        NAME                     STATE     READ WRITE CKSUM
        riwi                     DEGRADED     0     0     0
          raidz1-0               DEGRADED     0     0     0
            gpt/samsung1         ONLINE       0     0     0
            gpt/samsung2         ONLINE       0     0     0
            gpt/samsung3         ONLINE       0     0     0
            gpt/samsung4         ONLINE       0     0     0
            5596962055200941276  UNAVAIL      0     0     0  was /dev/gpt/samung500x3

errors: No known data errors


Nu probeer ik de gefailde hardware raid schijf te replacen met de pool s500x3, maar hij klaagt over :
code:
1
2
[root@zfsguru ~]# zpool replace riwi /dev/gpt/samung500x3 s500x3
cannot open 's500x3': no such GEOM provider

Kan dit wel? Moet ik de vdev op een andere manier maken? Mag je pools op deze manier nesten?

Overigens wilde zfsguru enkele 500G schijven niet zien. Pas toen ik ze onder linux met "dd if=/dev/zero of=/dev/sdx bs=512 count=10" gecleared had wilde ZFSguru ze zien. BSD rapporteerde ze wel bij het booten.

--EDIT
Heb net even de disken met GEOM geformatteerd vanuit de GUI
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
[root@zfsguru ~]# zpool status s500x3
  pool: s500x3
 state: ONLINE
  scan: none requested
config:

        NAME           STATE     READ WRITE CKSUM
        s500x3         ONLINE       0     0     0
          label/500g1  ONLINE       0     0     0
          label/500g2  ONLINE       0     0     0
          label/500g3  ONLINE       0     0     0

errors: No known data errors


Maar dat helpt niet

[ Voor 9% gewijzigd door riwi op 25-04-2013 21:50 ]

PC specs


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Matched: k
zpool replace riwi 5596962055200941276 gpt/s500x3

Werkt dat? :)

[ Voor 3% gewijzigd door Verwijderd op 25-04-2013 23:14 ]


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 23-07 20:44
Matched: k
Ik heb terug gebouwd naar gpt partitie op de 500G schijven.

code:
1
2
3
4
5
6
7
8
9
10
11
[root@zfsguru ~]# zpool status s500x3
  pool: s500x3
 state: ONLINE
  scan: none requested
config:

        NAME         STATE     READ WRITE CKSUM
        s500x3       ONLINE       0     0     0
          gpt/500g1  ONLINE       0     0     0
          gpt/500g2  ONLINE       0     0     0
          gpt/500g3  ONLINE       0     0     0


Maar het lukt nog niet om deze pool/vdev op te nemen als 'schijf' in de riwi pool.
code:
1
2
3
4
5
[root@zfsguru ~]# ls /dev/gpt
500g1      500g2      500g3      samsung1   samsung2   samsung3   samsung4   ssd-data   ssd-disk1
[root@zfsguru ~]# zpool replace riwi 5596962055200941276 gpt/s500x3
cannot open 'gpt/s500x3': no such GEOM provider
must be a full path or shorthand device name


Ik snap nog niet helemaal het verschil tussen "vdev" en een "pool"
code:
1
2
3
4
5
6
[root@zfsguru ~]# zpool list riwi
NAME   SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
riwi  6.81T  85.4G  6.73T     1%  1.00x  DEGRADED  -
[root@zfsguru ~]# zpool list s500x3
NAME     SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
s500x3  1.36T   136K  1.36T     0%  1.00x  ONLINE  -

[ Voor 57% gewijzigd door riwi op 26-04-2013 00:06 ]

PC specs


Acties:
  • 0 Henk 'm!
Je hebt een pool gemaakt van die drie schijven, niet een vdev volgens mij...

Een vdev kan nooit bestaan zonder pool volgens mij, die moet je maken en meteen aan een pool toewijzen.

Je hebt volgens mij gedaan:
zpool create s500x3 raidz gpt/500g1 gpt/500g2 gpt/500g3

Terwijl je had moeten doen (volgens mij, CMIIW):
zpool replace riwi 5596962055200941276 raidz gpt/500g1 gpt/500g2 gpt/500g3

Het verschil tussen een pool en een VDEV staat hier wel mooi grafisch uitgelegd:
reviews: Opslagnetwerken met zfs en Comstar

[ Voor 26% gewijzigd door FireDrunk op 26-04-2013 08:26 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 23-07 20:44
Matched: k
Ik heb het geprobeerd :
code:
1
2
3
4
[root@zfsguru ~]# zpool replace riwi 5596962055200941276 raidz gpt/500g1 gpt/500g2 gpt/500g3
too many arguments
usage:
        replace [-f] <pool> <device> [new-device]


Een vdev moet zich gedragen als blockdevice lijkt me. Net als je met mdadm een md0 maakt uit meerdere disken.
Ik had gisteren "zpool create vdev 500g1 500g2 500g3" geprobeerd, maar dan heb je een zpool met de naam "vdev" :)
Uit "man zpool" :
Virtual devices cannot be nested, so a mirror or raidz virtual device can
only contain files or disks. Mirrors of mirrors (or other combinations)
are not allowed.
Dus ik kan waarschijnlijk deze schijven wel toevoegen aan de riwi pool (dwz 4x1.5T raidz en 3x500G raid0). Waarbij als er 1x 500G stuk gaat alle data weg is. Kan ik opvangen door er 4x500G raidz van te maken.

Deze test was bedoeld om vast te stellen of ik met 'groepjes' oude 1.5T en 2T schijven raidz pools kan bouwen samen met 3T en 4T schijven. Dat gaat dus niet zo eenvoudig en is met lvm en mdadm gemakkelijker.

Ik experimenteer nog even verder :)

PC specs


Acties:
  • 0 Henk 'm!

  • savale
  • Registratie: Oktober 2000
  • Laatst online: 26-07 22:10
Matched: k
Volgens mij wil ik iets dat niet kan, maar toch even vragen voordat ik hardware ga aanschaffen.
Ik heb 3 disks die ik wil gaan inzetten voor een raidz setup:

een 1TB, een 1,5TB en een 2TB disk. Als ik het goed begrijp kan ik hier dit mee doen:
3x 1TB raidz pool = 2TB
2x 0.5TB raid1 pool = 0,5TB
1x 0,5TB leftover van de 2TB disk (zonder bescherming)

klopt dat of kan dit al niet?

een probleem dat ik vervolgens heb: Ik heb op de 1TB en de 1,5TB nu in totaal ongeveer 2TB aan data staan (ntfs). Met wat oude schijven tijdelijk te gebruiken kan ik hier nog wel 0,5TB mee afsnoepen als dat nodig is, maar dan zit ik nog met 1,5TB aan data.
Is het dan mogelijk om zonder dataverlies de setup van hierboven te maken door eerst de 2TB (en eventueel de 1TB) op de één of andere manier te vullen?

Acties:
  • 0 Henk 'm!
riwi schreef op vrijdag 26 april 2013 @ 12:41:
Ik heb het geprobeerd :
code:
1
2
3
4
[root@zfsguru ~]# zpool replace riwi 5596962055200941276 raidz gpt/500g1 gpt/500g2 gpt/500g3
too many arguments
usage:
        replace [-f] <pool> <device> [new-device]


Een vdev moet zich gedragen als blockdevice lijkt me. Net als je met mdadm een md0 maakt uit meerdere disken.
Ik had gisteren "zpool create vdev 500g1 500g2 500g3" geprobeerd, maar dan heb je een zpool met de naam "vdev" :)
Uit "man zpool" :

[...]

Dus ik kan waarschijnlijk deze schijven wel toevoegen aan de riwi pool (dwz 4x1.5T raidz en 3x500G raid0). Waarbij als er 1x 500G stuk gaat alle data weg is. Kan ik opvangen door er 4x500G raidz van te maken.

Deze test was bedoeld om vast te stellen of ik met 'groepjes' oude 1.5T en 2T schijven raidz pools kan bouwen samen met 3T en 4T schijven. Dat gaat dus niet zo eenvoudig en is met lvm en mdadm gemakkelijker.

Ik experimenteer nog even verder :)
Inderdaad, nu je het zegt, je kan niet een vdev naast gewone disks zetten die al in een vdev zitten... Je kan alleen meerdere vdev's naast elkaar zetten. Je zult dus een vervangende schijf moeten regelen.
savale schreef op vrijdag 26 april 2013 @ 13:00:
Volgens mij wil ik iets dat niet kan, maar toch even vragen voordat ik hardware ga aanschaffen.
Ik heb 3 disks die ik wil gaan inzetten voor een raidz setup:

een 1TB, een 1,5TB en een 2TB disk. Als ik het goed begrijp kan ik hier dit mee doen:
3x 1TB raidz pool = 2TB
2x 0.5TB raid1 pool = 0,5TB
1x 0,5TB leftover van de 2TB disk (zonder bescherming)

klopt dat of kan dit al niet?

een probleem dat ik vervolgens heb: Ik heb op de 1TB en de 1,5TB nu in totaal ongeveer 2TB aan data staan (ntfs). Met wat oude schijven tijdelijk te gebruiken kan ik hier nog wel 0,5TB mee afsnoepen als dat nodig is, maar dan zit ik nog met 1,5TB aan data.
Is het dan mogelijk om zonder dataverlies de setup van hierboven te maken door eerst de 2TB (en eventueel de 1TB) op de één of andere manier te vullen?
Ja hoor, kan prima, maar snel is het niet als je de pools door elkaar gaat gebruiken (van de ene naar de andere pool uitpakken is huilen....)

En over je migratie plan: Je zet eerst alle data op de 2TB disk. Daarna plaats je de 1TB en de 1.5TB schijf in ZFS. Je maakt een degraded RAIDZ 1 pool (door middel van 1 memory disk). Die verwijder je daarna weer.
Daarna kopieer je al je data van de 2TB naar die pool (die ook 2TB is).

Daarna partitioneer je de 2TB en voeg je de 1TB partitie weer toe in plaats van de missende memory disk.

Even niets...


Acties:
  • 0 Henk 'm!

  • savale
  • Registratie: Oktober 2000
  • Laatst online: 26-07 22:10
Matched: k
Ok super ik snap het idee! Ik kan me inderdaad voorstellen dat zodra ik die memory disk ga vervangen door de 1TB partitie van de 2TB schijf dat hij even zoet is. :P
Het performance verhaal over die 2 pools door elkaar gebruiken snap ik niet helemaal. (is er ook iets handigers?)

Acties:
  • 0 Henk 'm!
Dan moet hij inderdaad even resilveren, duurt niet zo heel lang hoor...

Stel je download je bestanden naar Pool A (3*1TB partities). En pakt daarna die bestanden uit naar Pool B (2*0.5TB partities). Dan moeten de koppen van de harde schijven extreem veel switchen.

Nou is ZFS redelijk slim, en werkt met transaction groups, dus je hebt er relatief weinig last van in vergelijking tot andere operating systems/filesystems, maar toch haal je maar ongeveer een 20-40% van de snelheid van 1 disk.

Als je gewoon met losse schijven zou werken, gaat het veel sneller, maar heb je geen redundancy.

Even niets...


Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 17:42
Matched: k
Ik geloof dat ik eindelijk een beetje uit de gewenste samenstelling voor een FreeBSD servertje met ZFS ben:

#ProductPrijsSubtotaal
1Intel Core i5 3570 Boxed€ 183,95€ 183,95
1Asrock Q77M vPro€ 92,-€ 92,-
3Western Digital Red WD30EFRX, 3TB€ 127,99€ 383,97
1Fractal Design Core 3000€ 61,50€ 61,50
1Kingston KVR16N11K2/16€ 104,95€ 104,95
1Seasonic G-Serie 360Watt€ 61,85€ 61,85
1Samsung 840 series Pro 128GB€ 115,-€ 115,-
Bekijk collectie
Importeer producten
Totaal€ 1.003,22

De i5 is overigens ook nodig voor diverse services die ik erop wil draaien, wel twijfel ik nog een beetje om een S of T versie ivm stroomverbuik te gebruiken. Ik ben benieuwd of serial over lan via VPro een beetje werkt...
Ik ben er alleen nog niet helemaal uit hoe met SSD om te gaan: is een 2e SSD aan te raden en er wordt in de beginposts gesproken over 3 partities in verschillende raid modes: hoe gaat dit in de praktijk?

Acties:
  • 0 Henk 'm!
-S en -T versies zijn niet zuiniger in Idle, hebben alleen een lagere TDP. De kunnen dus toe met minder koeling.

Waar zou je de SSD voor willen gebruiken?

3 partities in verschillende RAID modi is niets anders dan je schijven opdelen in meerdere partities (wel elke schijf in ongeveer dezelfde formattering). Dan kan je van die partities vdevs maken met de raid vorm die je zelf wil (striping, mirroring, of raidz).

Even niets...


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 23-07 20:44
Matched: k
FireDrunk schreef op vrijdag 26 april 2013 @ 13:10:
[...]
Inderdaad, nu je het zegt, je kan niet een vdev naast gewone disks zetten die al in een vdev zitten... Je kan alleen meerdere vdev's naast elkaar zetten. Je zult dus een vervangende schijf moeten regelen.
[...]
Inderdaad werkt dat wel zo :

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
[root@zfsguru /riwi/raidz]# zpool status
  pool: riwi
 state: ONLINE
  scan: scrub repaired 0 in 0h4m with 0 errors on Fri Apr 26 16:10:23 2013
config:

        NAME              STATE     READ WRITE CKSUM
        riwi              ONLINE       0     0     0
          raidz1-0        ONLINE       0     0     0
            gpt/samsung1  ONLINE       0     0     0
            gpt/samsung2  ONLINE       0     0     0
            gpt/samsung3  ONLINE       0     0     0
            gpt/samsung4  ONLINE       0     0     0
          raidz1-1        ONLINE       0     0     0
            gpt/500g1     ONLINE       0     0     0
            gpt/500g2     ONLINE       0     0     0
            gpt/500g3     ONLINE       0     0     0
            gpt/500g4     ONLINE       0     0     0


Maar dat was niet helemaal wat ik zocht.
Ik zie dat je met FreeBSD wel drives kan stripen met gconcat (of mirror'en met gmirror) via geom :
gconcat label -v data /dev/da0 /dev/da1 /dev/da2 /dev/da3
Dus dat zou dan ook nog kunnen. Wil ik nog testen straks. Kijken of ie dan wel als disk device te gebruiken is voor ZFS.

--edit--
Dat werkt met gconcat
gconcat label s500x3 /dev/da0 /dev/da1 /dev/da2
dit maakt een blockdevice /dev/concat/s500x3 aan
En met
zpool create -f riwi raidz gpt/samsung1 gpt/samsung2 gpt/samsung3 gpt/samsung4 /dev/concat/s500x3

Heb je dan je pool :

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
[root@zfsguru /dev]# zpool status
  pool: riwi
 state: ONLINE
  scan: none requested
config:

        NAME               STATE     READ WRITE CKSUM
        riwi               ONLINE       0     0     0
          raidz1-0         ONLINE       0     0     0
            gpt/samsung1   ONLINE       0     0     0
            gpt/samsung2   ONLINE       0     0     0
            gpt/samsung3   ONLINE       0     0     0
            gpt/samsung4   ONLINE       0     0     0
            concat/s500x3  ONLINE       0     0     0


Alleen een reboot overleeft ie niet.
Ik heb in loader.conf de regel geom_concat_load="YES" toegevoegd, maar na re boot is de concat er niet meer.

[ Voor 24% gewijzigd door riwi op 26-04-2013 20:49 ]

PC specs


Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 17:42
Matched: k
FireDrunk schreef op vrijdag 26 april 2013 @ 16:44:
Waar zou je de SSD voor willen gebruiken?
Zowiezo boot en var, e.v.t. ook usr. L2ARC en SLOG kan misschien de performance flink boosten? Wil nog een diskless (zuinig) esxi servertje eraan hangen naast wat NFS en ISCSI clients.
Dan kan je van die partities vdevs maken met de raid vorm die je zelf wil (striping, mirroring, of raidz).
Dit werkt ook op de root partitie? Het idee om verschillende partities met verschillende (software) raid modes te draaien en daarop een SLOG vind ik een beetje gevaarlijk klinken (waarom niet gewoon 2 ssd's in hardware raid mirror, 128Gb lijkt me genoeg voor FreeBSD, enkele apps een SLOG en L2ARC?)

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Matched: k
Mini-update log: secondary fileserver verbouwd, herinstallatie met debian wheezy + zfs-on-linux. Vervolgens IB, opensm, srp en scst aan de praat gekregen. Een vijf disk raidz volume kan ik lezen/schrijven met 200MB/sec vanaf ESXi 5 (mellanox SRP drivers eindelijk uitgekomen!). Ben nu mijn primary fileserver aan het omzetten van OI naar debian, kunnen we eens testen met de SSD volumes.

Een van de dingen die je ervaart na enkel jaren met data collecties is dat partities pre-2000 zijn, je eindigt alleen maar met ge-emmer van data zodra je inschattingen fout blijken (en dat zal hoe dan ook gebeuren).

[ Voor 22% gewijzigd door analog_ op 26-04-2013 20:32 ]


Acties:
  • 0 Henk 'm!
base_ schreef op vrijdag 26 april 2013 @ 17:04:
[...]

Zowiezo boot en var, e.v.t. ook usr. L2ARC en SLOG kan misschien de performance flink boosten? Wil nog een diskless (zuinig) esxi servertje eraan hangen naast wat NFS en ISCSI clients.

[...]

Dit werkt ook op de root partitie? Het idee om verschillende partities met verschillende (software) raid modes te draaien en daarop een SLOG vind ik een beetje gevaarlijk klinken (waarom niet gewoon 2 ssd's in hardware raid mirror, 128Gb lijkt me genoeg voor FreeBSD, enkele apps een SLOG en L2ARC?)
Hardware RAID doet heel ZFS teniet. En partities voor USR, VAR en de hele reut is leuk, maar dat moeten bij ZFS dan eigen filesystems worden. Zet je die op een ander medium, moeten dat weer op een andere pool.

Waarom wil je die locaties scheiden in partities, dat is echt zó 1980 :)

Even niets...


Acties:
  • 0 Henk 'm!

  • VorCha
  • Registratie: November 2004
  • Laatst online: 11-06 21:15
Matched: k
FireDrunk schreef op vrijdag 26 april 2013 @ 20:30:
[...]
Waarom wil je die locaties scheiden in partities, dat is echt zó 1980 :)
Godzijdank, ik dacht dat ik de enige was die er zo over denkt

Acties:
  • 0 Henk 'm!

  • DaCoTa
  • Registratie: April 2002
  • Laatst online: 04-07 23:41
Matched: k
Een korte vraag: mijn ZFS build heeft 16GB geheugen, met een RAIDZ2 pool van 6x2TB disks, netto dus 8TB en draait op een Intel X25 80GB disk. Nu zit ik met de volgende afweging: ik wil op de SSD een temp download directory voor binnenkomende torrents hebben. Als de download compleet is, wordt het in één keer naar de pool gecopieerd, om zo de pool meestal idle te hebben. Daarnaast wil ik de SSD eventueel ook als L2ARC gebruiken, maar dat bijt elkaar qua ruimte. Ik wil niet meteen vol lopen als ik een grote download heb (zeg tot 50GB), maar dat beperkt de ruimte die ik voor L2ARC over heb en eventuele overprovisioning. Is het met deze poolgrootte en het beschikbare geheugen wel de moeite waard om L2ARC op de SSD in te stellen of kan ik net zo goed de hele SSD gewoon als OS disk instellen? Hoeveel toegevoegde waarde heeft 10 of 20GB L2ARC nog als de box al 16GB geheugen beschikbaar heeft? Workload is licht, fileserver, mediaserver en torrentbox. Later nog crashplan target als ik de howto's een keer doorspit.

Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 17:42
Matched: k
FireDrunk schreef op vrijdag 26 april 2013 @ 20:30:
[...]

Hardware RAID doet heel ZFS teniet. En partities voor USR, VAR en de hele reut is leuk, maar dat moeten bij ZFS dan eigen filesystems worden. Zet je die op een ander medium, moeten dat weer op een andere pool.

Waarom wil je die locaties scheiden in partities, dat is echt zó 1980 :)
Een 80Gb partitie dumpen/restoren gaat echt een stuk lomper en langzamer als een 2Gb partitie.
Backup of split filesystems can be easier. The traditional split-filesystem approach kind of separates things by use, and some people create a separate /home also. The advantage of one big root is efficient use of free space on small drives.
Verder wil ik ZFS gebruiken voor storage, als ik daarnaast hardware raid op de SSD's voor de OS partities overweeg zie ik niet in hoe dat ZFS teniet doet?!?! Ik betwijfel me af of het draaien van SLOG op een met ZFS gemirrorde partitie de betrouwbaarheid en performance verbetert.

Acties:
  • 0 Henk 'm!

  • d1ng
  • Registratie: Augustus 2009
  • Laatst online: 06-05-2024
Matched: k
FireDrunk schreef op vrijdag 26 april 2013 @ 20:30:
[...]
Waarom wil je die locaties scheiden in partities, dat is echt zó 1980 :)
Wat is een reden om het niet te doen ? ;) Kleine moeite. Je verliest een aantal veiligheidsopties zoals readonly mounten, nosuid, noexec enz. Je loopt ook een (groter) risico dat je root filesystem volloopt.

Enige reden die ik kan bedenken om niet te partitioneren is dat er een beetje ruimte op je partitie(s) onbenut blijft. Maar met die grootte van harde schijven nu maakt die paar GB onbenutte ruimte ook niks meer uit.

Acties:
  • 0 Henk 'm!
base_ schreef op zaterdag 27 april 2013 @ 11:21:
[...]


Een 80Gb partitie dumpen/restoren gaat echt een stuk lomper en langzamer als een 2Gb partitie.
Als jij echt 80GB aan OS data voor elkaar krijgt, mag je in je handjes klappen. Meestal praat je dan over veel meer dan alleen een OS. En als het om een SSD gaat: Een moderne SSD doet 550MB/s. Dan praat je dus (als je echt 80GB moet restoren vanaf bijvoorbeeld je data pool) over 148 seconden.
En dan rekenen we compressie nog niet eens mee...

Boo-hoo...
[...]
Verder wil ik ZFS gebruiken voor storage, als ik daarnaast hardware raid op de SSD's voor de OS partities overweeg zie ik niet in hoe dat ZFS teniet doet?!?! Ik betwijfel me af of het draaien van SLOG op een met ZFS gemirrorde partitie de betrouwbaarheid en performance verbetert.
Je root wil je ook op ZFS draaien... Als je niet begrijpt waarom ZFS mirroring beter is dan Hardware RAID, moet je de startpost nog even goed doorlezen.
d1ng schreef op zaterdag 27 april 2013 @ 11:51:
[...]

Wat is een reden om het niet te doen ? ;) Kleine moeite. Je verliest een aantal veiligheidsopties zoals readonly mounten, nosuid, noexec enz. Je loopt ook een (groter) risico dat je root filesystem volloopt.

Enige reden die ik kan bedenken om niet te partitioneren is dat er een beetje ruimte op je partitie(s) onbenut blijft. Maar met die grootte van harde schijven nu maakt die paar GB onbenutte ruimte ook niks meer uit.
1. Meer configuratie troep
2. Niet meer makkelijk mogelijk om individuele directories te laten groeien ( je moet je partities omgooien, want een partitie in het midden vergroten kan niet...)
3. Niet standaard upgrades, je moet kan niet zomaar even naar single user mode, je moet altijd met de hand dingen mounten.
4. Je kan geen gebruik maken van ZFSguru, die heeft namelijk root-on-zfs met daarop Filessystems voor USR, VAR, en nog een paar.
5. Waarom wel? Omdat je dan je /var kan recoveren vanuit backups? Yay, ik kan mijn hele server gewoon recoveren van een snapshot... Kost welgeteld.... 1 minuut. (rebooten duurt het langst...)

[ Voor 38% gewijzigd door FireDrunk op 27-04-2013 12:09 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
Matched: k
Even een kort vraagje. Ik heb nu al een tijdje volgende opstelling draaien met Ubuntu en ZFS-on-Linux:
#ProductPrijsSubtotaal
1Intel Celeron G540 Boxed€ 37,45€ 37,45
1ASRock B75 Pro3-M€ 56,90€ 56,90
3Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 109,90€ 329,70
1Western Digital Blue WD5000AAKX, 500GB€ 46,95€ 46,95
1Xigmatek Asgard 381€ 41,45€ 41,45
1Kingston DataTraveler 8GB USB 2.0 Hi-Speed DataTraveler Micro (Black) 8GB€ 6,32€ 6,32
1Kingston KVR1333D3N9H/8G€ 54,95€ 54,95
1Seasonic G-Serie 360Watt€ 61,85€ 61,85
Bekijk collectie
Importeer producten
Totaal€ 635,57


Waar de Western digital 1 pool vormt voor downloaden en waar (een kopie van) mijn muziek staat, zodat er geen drie disken moeten staan draaien om gewoon wat muziek te hebben.

De drie seagates vormen een RAIDZ pool waarop alle data dan staat. Alle disken spinnen na een half uur down.

Nu valt het me de laatste tijd meer en meer op dat wanneer ik muziek aan het luisteren ben en ik iets vanop de storage pool nodig heb, de muziek altijd even een paar seconden stopt en dan terug verder gaat. De tijdsduur komt overeen met de tijd die een schijf nodig heeft om op te spinnen en soms gebeurt het ook twee keer na elkaar (dit vermoedelijk als de 3de disk ook moet opspinnen?) Ik probeer nu uit te zoeken wat hier de oorzaak van kan zijn en of het al dan niet nadelig kan zijn voor mijn systeem/data.

Ik dacht eerst in de richting van de PSU, maar die is meer dan sterk genoeg voor 4 schijven. De disks zitten ook over 2 stroomkabels verdeeld, dus teveel stroom op 1 kabel lijkt me ook onwaarschijnlijk.

Verder kan ik eigenlijk aan niets hardware gerelateerd denken, dus kijk ik even richting ZFS(-on-linux). Heeft iemand hier dit al voor gehad of een vermoeden wat er aan de hand zou zijn?

Dit is overigens vooral een kwestie van willen weten wat er mis is, ik kan makkelijk met/ om het probleem heen werken, maar ik zou wel graag eens willen weten waarom dit gebeurd.

Acties:
  • 0 Henk 'm!
Spint die disk niet gewoon uit zichzelf down?

Even niets...


Acties:
  • 0 Henk 'm!

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
Matched: k
Neen, de disk blijft gewoon draaien zolang ik muziek afspeel. Dit probleem doet zich echt voor als ik de storage schijf open en hij zijn disken moet opspinnen (als ik bijvoorbeeld een map of bestand vanop de pool open). dan heb ik een korte storing. Daarna kan ik alles doen wat ik wil op de storage pool zonder dit voor te hebben. Tot hij een half uur niets staat te doen en terug downspint. Dan pas kan ik het opnieuw voor hebben als ik terug de storage pool open. Het heeft dus zeker iets te maken met het opspinnen van die storage pool.

Acties:
  • 0 Henk 'm!
Maaruh, das toch logisch? Je disk kan geen data leveren terwijl hij opspint?

Als ik hier een video start, duurt het ook 15 seconden voor hij start als mijn pool moet opstarten...

Even niets...


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 23-07 20:44
Matched: k
enthernal schreef op zaterdag 27 april 2013 @ 12:13:
Verder kan ik eigenlijk aan niets hardware gerelateerd denken, dus kijk ik even richting ZFS(-on-linux). Heeft iemand hier dit al voor gehad of een vermoeden wat er aan de hand zou zijn?
Ik denk niet dat dit specifiek is voor ZFS. Ik denk meer in de richting van SMB / NFS dat 'hangt' op de lees actie waarvoor de data disk moet op spinnen. Ik heb 3 raid0 partities. Als er 2 slapen en ik van de wakkere raid0 aan het kopieren ben naar een andere PC, en ik doe dan iets waardoor een slapende raid0 moet opspinnen dan stopt (tijdelijk) ook de lopende transfer.
Ik kan het nog eens testen, maar volgens mij blijft twonky die tijd wel gewoon data leveren aan de muziek speler in die tijd. Kan ook zijn dat die voldoende gebuffered heeft om de 'pauze' te overbruggen.

Terugkomend op mijn test hierboven : ik denk dat ik verder ga met linux en mdadm + raid5 en dus FreeBSD/ZFS even laat voor wat het is. Ik krijg wol niet werkend, concat/stripe van kleinere schijven wil niet samenwerken met zfs en ik heb eigenlijk gewoon liever Linux dan BSD omdat ik dat beter ken.

PC specs


Acties:
  • 0 Henk 'm!

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
Matched: k
@firedrunk, het is de reeds draaiende pool die stopt met 'leveren' als een 2de pool opstart. Ik hoop niet dat dat normaal is voor zfs :P

Samba wat hangt is inderdaad iets waar ik nog niet aan gedacht had. Ik heb snel even als test mijn down gespinde array laten opstarten via de console (gewoon bestandje kopieren) en geen interferentie gehad. Blijkbaar heeft het dus inderdaad met Samba te doen en niet met ZFS :) Nu kunnen we weer verder zoeken :P

[ Voor 53% gewijzigd door enthernal op 27-04-2013 14:35 ]


Acties:
  • 0 Henk 'm!

  • d1ng
  • Registratie: Augustus 2009
  • Laatst online: 06-05-2024
Matched: k
FireDrunk schreef op zaterdag 27 april 2013 @ 12:06:
[...]
1. Meer configuratie troep
2. Niet meer makkelijk mogelijk om individuele directories te laten groeien ( je moet je partities omgooien, want een partitie in het midden vergroten kan niet...)
3. Niet standaard upgrades, je moet kan niet zomaar even naar single user mode, je moet altijd met de hand dingen mounten.
4. Je kan geen gebruik maken van ZFSguru, die heeft namelijk root-on-zfs met daarop Filessystems voor USR, VAR, en nog een paar.
5. Waarom wel? Omdat je dan je /var kan recoveren vanuit backups? Yay, ik kan mijn hele server gewoon recoveren van een snapshot... Kost welgeteld.... 1 minuut. (rebooten duurt het langst...)
Ik snap jouw argumenten niet zo goed. Er was sprake van dump/restore van partities. Aangezien dump niet werkt op ZFS ga ik ervanuit dat het discussiepunt gaat over partities aanmaken wanneer je UFS als fs gebruikt ipv ZFS. Ik vermoed dat je jouw argumenten gebaseerd hebt als je ZFS gebruikt. Anyway

1. Is maar eenmalig. Om configuratie bij te houden bestaat overigens gpart backup en gpart restore.
2. Gewoon aparte /home of /data oid.
3. Wellicht 'lastig' als je meerder keren per dag in single user mode moet. Maar bij normaal gebruik vind ik dit niet echt een argument.
4. Geldt alleen als je ZFS gebruikt.
5. Geldt alleen als je ZFS gebruikt.

Dit in acht nemend vind ik de voordelen van aparte partities (voor UFS) nog steeds groter als de nadelen. Op mijn eigen servers, die geen ZFS hebben, gebruik ik altijd een aparte / /usr /var /usr/jails /usr/home en tmpfs. Geen 'last' van de nadelen, maar wel voordeel van de voordelen :)

Acties:
  • 0 Henk 'm!
Inderdaad, mijn argumenten gaan over Root-on-zfs. Daar heb je helemaal geen dump meer nodig, daar maak je gewoon een snapshot, en zfs send/recieve je dat ergens naar toe.

Even niets...


Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 17:42
Matched: k
Ik wil helemaal geen zfsguru draaien en de /usr van de huidige server is al 40GB (lost van /var en diverse /data dirs (2Tb+)), verder helemaal eens met wat wat d1ng zegt...
In de startpost staat overigens niet veel over root-on-zfs, wel staan er wat nuttige links in de post van borroz.
Ook begrijp ik dat je geen kernel crash dump kwijt kan als je root on zfs draait?

Acties:
  • 0 Henk 'm!
Dat kan goed kloppen ja, dat heb ik volgens mij wel eens eerder gehoord.
Als je daar last van hebt, pak je toch een USB sticky ofzo, schrijf je daar je kernel crash dump naar toe...

[ Voor 43% gewijzigd door FireDrunk op 27-04-2013 22:50 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Matched: k
Ik denk dat ik een of andere vage limiet ben tegengekomen. Opstelling in het kort: debian wheezy storage machine met twee zfs ssd volumes, snelheid oneindig. Tweede storage machine met 5 disk raidz lezen en schrijven >300MB/s. Vervolgens het geheel via Infiniband met SRP doorgegeven aan ESXi 5.

5 disk raidz, ssd volumes en ram disk zijn allemaal even traag. Ter illustratie atto resultaten van de 5 disks raidz en RAM respectievelijk.

Afbeeldingslocatie: http://tweakers.net/ext/f/YmRDldDlhwsPpOR9reD3wWja/medium.png Afbeeldingslocatie: http://tweakers.net/ext/f/YFb4omigKyEA4GuHGGHbse39/medium.png

Too much clicks;didn't open: beiden even traag :(

Onder OI/Nexenta zou het een stuk sneller moeten gaan maar zolang ik opensm niet kan compileren is dit hopeloos. Ideaal zou zijn als ik een IB switch met subnet manager ergens kan lenen voor een weekje zodat ik kan testen. Iemand overigens een goede plek voor IB gerelateerde toestanden? Het lijkt nogal verspreid te zijn over de verschillende forums (hardforum, nexenta , overclockers australia, zfsbuild, servethehome en zfsguru) in zeer specifieke threads.

[ Voor 27% gewijzigd door analog_ op 28-04-2013 06:16 ]


Acties:
  • 0 Henk 'm!
Had jij dat niet eerder ook al zo'n probleem? Want ik heb wel eens gehoord dat OpenIndiana dat vaker had.

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 17:02
Matched: k
analog_ schreef op zondag 28 april 2013 @ 06:10:
Ik denk dat ik een of andere vage limiet ben tegengekomen. Opstelling in het kort: debian wheezy storage machine met twee zfs ssd volumes, snelheid oneindig. Tweede storage machine met 5 disk raidz lezen en schrijven >300MB/s. Vervolgens het geheel via Infiniband met SRP doorgegeven aan ESXi 5.

5 disk raidz, ssd volumes en ram disk zijn allemaal even traag. Ter illustratie atto resultaten van de 5 disks raidz en RAM respectievelijk.

[afbeelding] [afbeelding]

Too much clicks;didn't open: beiden even traag :(

Onder OI/Nexenta zou het een stuk sneller moeten gaan maar zolang ik opensm niet kan compileren is dit hopeloos. Ideaal zou zijn als ik een IB switch met subnet manager ergens kan lenen voor een weekje zodat ik kan testen. Iemand overigens een goede plek voor IB gerelateerde toestanden? Het lijkt nogal verspreid te zijn over de verschillende forums (hardforum, nexenta , overclockers australia, zfsbuild, servethehome en zfsguru) in zeer specifieke threads.
Lijkt een beetje als of je gecapped wordt op 2Gbit/s. Ik ken infiniband niet, maar zou je op SDR 1x kunnen zitten?

Wikipedia: InfiniBand
Pagina: 1 ... 71 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.