Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Ik ben momenteel aan het kijken hoe we onze nieuwe database server gaan inrichten. Hardware is eindelijk oke (na het 3e moederbord, nieuwe CPU's en nieuw memory... don't ask). 't OS en met name het filesysteem is echter de tweede uitdaging. Aangezien onze database behoorlijk groot is (ongeveer 500GB, snel groeiend), is volume management een belangrijke eis. Makkelijk bijprikken is dus een must. Een andere eis is disk consistency en goede performance. Verder moet Postgresql 9.0.3 te installeren zijn zonder te compileren. Dingen als snapshots zijn een leuk pluspunt

Linux met LVM valt dan al snel af. LVM perfromance is niet echt super, beheer tools zijn onoverzichtelijk. En als je snapshots gaat gebruiken is performance al helemaal crap.

ZFS is mooi, hebben we eerder op de zelfde machine gedraaid i.c.m opensolaris. Alleen performance i.c.m postgresql is niet slecht, maar zeer zeker ook niet super. UFS doet het veel beter. Alleen mis je dan wel volume management.

FreeBSD vinum volume manager ken ik niet echt. Van wat ik heb gezien is dat een nog groter drama dan LVM ;)

Ik ben nu testjes aan het doen met FreeBSD 8.2 op onze vmware omgeving met ZFS, UFS op ZVOL en UFS los. Een kijken wat daar uit komt..

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!
Wat vind je onoverzichtelijk aan LVM / MDADM in vergelijking tot de tools van FreeBSD? Ik vind GEOM of vinum net zulke draken :P

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op vrijdag 15 april 2011 @ 10:56:
Waarom geen OpenIndiana zonder GUI installeren... NappIt werkt dan ook prima, maar je hebt geen (in mijn ogen) smerige GUI :)
ik vind de gui wel mooi eigenlijk.. :*)

maar daar ging het niet om.. ik wilde gewoon is kijken of ik kon updaten, niet dus.
zal vanavond de text versie is proberen.

Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

FireDrunk schreef op vrijdag 15 april 2011 @ 11:21:
Wat vind je onoverzichtelijk aan LVM / MDADM in vergelijking tot de tools van FreeBSD? Ik vind GEOM of vinum net zulke draken :P
Ik vind beiden een verschikking t.o.v zfs tooling :P

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

  • leuk_he
  • Registratie: Augustus 2000
  • Laatst online: 15-07 15:35

leuk_he

1. Controleer de kabel!

voodooless schreef op vrijdag 15 april 2011 @ 11:16:
Linux met LVM valt dan al snel af. LVM perfromance is niet echt super, beheer tools zijn onoverzichtelijk. En als je snapshots gaat gebruiken is performance al helemaal crap.
http://blog.andrew.net.au/2006/08/09

Behalve wat betreft snapshotting zou je LVM performance niet moeten merken.

:) :> Wel een verschil, eerst iemand die 24 disks ( 40 Tb? doet) en daarna iemand met een "grote" database van van 500 GB ) 500Gb is niet schokkend groot meer als je met datawarehouse technieken werkt, maar performance moet je wel strak in de gaten houden bij deze groote

/Edit: en tenzij je verwacht je snapshots regelmatig terug te zetten (in productie???), zie ik niet direct het voordeel. Je moet de backup immers toch van je systeem afhalen.

[ Voor 11% gewijzigd door leuk_he op 15-04-2011 12:05 ]

Need more data. We want your specs. Ik ben ook maar dom. anders: forum, ff reggen, ff topic maken
En als je een oplossing hebt gevonden laat het ook ujb ff in dit topic horen.


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Arnoud1 schreef op donderdag 14 april 2011 @ 22:39:
Ik heb me even laten vangen. Partities op ZFS... Ik was net zo overtuigd dat dit niet meer nodig was (en ook niet bestond) met ZFS
Je hebt het waarschijnlijk over slices.
Nouja wat de hele wereld partities noemt, noemt BSD inderdaad slices en partities zijn 'BSD partities' met een alfabetische suffix, zoals ad4s1a; de s1 is de 1e partitie ofwel slice en 'a' is de BSD partitie.

Ik wil het gewoon makkelijk houden en met partitie bedoel wat 99,99% van alle mensen hieronder verstaat: een normale MBR partitie die door elk OS wordt herkend.

Partities op de disks is zeker mogelijk; nodig is het niet, en jij gebruikt volledige disks zonder partities. Dat heeft een aantal gevaren die je opvangt met (goed alignde) partities. Gebruik je echter foute partities zoals FreeNAS in het verleden veelal deed, dan heb je totale RUK performance op 4K sector disks, dus dat had van toepassing kunnen zijn in jouw geval met 20MB/s throughput.

Overigens, wanneer je ZFS informatie leest die helemaal gericht is op Solaris platform, hoeft dit niet te gelden voor FreeBSD; BSD heeft een eigen oplossing voor vele beperkingen van het Solaris platform. Eén daarvan is dat Solaris geen flush commando's kan sturen naar partities, en dat het de write cache uitschakelt in sommige gevallen, wanneer je partities gebruikt. Dit heeft uiteraard zeer grote gevolgen, maar is enkel van toepassing op Solaris platform.

Dus dat je beter volledige disks kunt gebruiken is advies wat specifiek voor het Solaris platform geldt; niet voor BSD.
Dit is het probleem dus niet.
Ik lees ook nergens iets over "Recommended pool sizes voor RAID-Z" waar het volgens sommigen 3,5 of 9 disks moet zijn... Toch niet in manuals of op officiele guides.
Omdat Solaris eigenlijk helemaal niet klaar is voor 4K disks; als morgen échte 4K sector disks zouden uitkomen zou je die geeneens kunnen gebruiken op Solaris. FreeBSD heeft met GEOM al die problemen al gelijk getackled.

De optimale grootte gaat erom dat 4K disks geen emulatie hoeven te doen. Dat zal wel het geval zijn bij sub-optimale configuraties (zoals 4-disk RAID-Z of 9 disk RAID-Z2). Dat je beter niet meer dan 10 disks in een enkele vdev kunt hebben is maar een heel algemeen advies dat hoe meer disks in een RAID-Z, de latency van de ene disk de andere disks kan afremmen; de zwakste schakel geldt. Met 20 disks in een enkele vdev bepaalt de langzaamste disk de performance, en daarbij is het vrij makkelijk voor één disk om de performance van de hele array omlaag te trekken. Bovendien blijft de IOps performance van een enkele vdev dat van een enkele disk.

Maar dat betekent niet dat je het echt niet moet doen; wil je veel disks in een enkele vdev dan kun je RAID-Z3 overwegen. Een 10-disk RAID-Z2 werkt ook zeer goed. Voor RAID-Z3 zou 19 disks goed werken; minus de parity zit je dan aan 16 data disks en dus ook optimaal voor 4K sector disks.
Die failures zien er niet goed uit. en met vm.kmem_size wordt afgeraden om kernel panics te voorkomen.
Met kmem rommelen is cruciaal om panics te voorkomen. Dit komt omdat de kmem wel groot genoeg kan zijn in absolute zin, maar kan fragmenteren zodat de vrije blokken die nog over zijn allemaal versnipperd raken. Om die reden wordt aangeraden je kmem op 1,5x je RAM te houden - een truc die alleen werkt voor 64-bit platforms.

Voorbeeld met 4GiB RAM:
kmem = 1,5x RAM = 6.0g
arc_min = 30% van RAM = 1.2g
arc_max = 60% van RAM = 2.4g

Daarnaast moet je bij minder dan 8 gigabyte RAM de prefetch inschakelen omdat die anders standaard wordt uitgeschakeld:
vfs.zfs.prefetch_disable="0"

Bovenstaande info geldt weer voor FreeBSD; niet voor Solaris. Let goed op voor welk platform de informatie die je leest van toepassing is. Ga er niet vanuit dat wat voor Solaris geldt automatisch voor andere platforms geldt.

Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

leuk_he schreef op vrijdag 15 april 2011 @ 11:38:

http://blog.andrew.net.au/2006/08/09

Behalve wat betreft snapshotting zou je LVM performance niet moeten merken.
.. En behalve als je je disk graag consistent wil houden, zie ook hier.
:) :> Wel een verschil, eerst iemand die 24 disks ( 40 Tb? doet) en daarna iemand met een "grote" database van van 500 GB )
40TB aan video data (bijvoorbeeld) heeft heel andere requirments m.b.t io dan een 500 GB database...
/Edit: en tenzij je verwacht je snapshots regelmatig terug te zetten (in productie???), zie ik niet direct het voordeel. Je moet de backup immers toch van je systeem afhalen.
snapshots terug zetten is het doel niet. Het is er juist voor om backups te maken. Je zet je DB in backup mode, maakt een snapshot en zet de db weer in normale mode. Daarna heb je tijd zal om je snapshot weg te schepen naar tape. Als dat klaar is gooi je het snapshot weer weg.

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

Verwijderd

is deze samsung HD204UI patch nog van belang voor het zfs gebeuren ?

Acties:
  • 0 Henk 'm!
JA, zeker, het gaat namelijk om de sata commandset waar een fout in zit, ZFS weet daar niets van af.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op vrijdag 15 april 2011 @ 14:45:
JA, zeker, het gaat namelijk om de sata commandset waar een fout in zit, ZFS weet daar niets van af.
daar worden we niet vrolijk van dan .. :(

Acties:
  • 0 Henk 'm!
zo gedaan hoor :) gewoon usb floppy maken, al je disks aansluiten op lokale poorten en tooltje uitvoeren :)
Hij zoekt alle disks zelf op.

Even niets...


Acties:
  • 0 Henk 'm!

  • leuk_he
  • Registratie: Augustus 2000
  • Laatst online: 15-07 15:35

leuk_he

1. Controleer de kabel!

voodooless schreef op vrijdag 15 april 2011 @ 13:03:
[...]
Als dat klaar is gooi je het snapshot weer weg.
Wat ik eigenlijk nog niet gevonden heb is of he weggooien van een snapshot net zo'n optimale actie is als het weggooien van een file (rm is op sommige omgevinven al relatief traag.. uit ervaring). Heeft iemand daar al (recente) benchmarks van gevonden?

/* leukhe is te lui om het zelf te doen...

[ Voor 6% gewijzigd door leuk_he op 15-04-2011 15:42 ]

Need more data. We want your specs. Ik ben ook maar dom. anders: forum, ff reggen, ff topic maken
En als je een oplossing hebt gevonden laat het ook ujb ff in dit topic horen.


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op vrijdag 15 april 2011 @ 15:22:
zo gedaan hoor :) gewoon usb floppy maken, al je disks aansluiten op lokale poorten en tooltje uitvoeren :)
Hij zoekt alle disks zelf op.
gaat niet via de LSI controller ?

* NEE diskjes even rechtsreeks op mobo en ze worden allemaal gezien en geupdate door F4EG.EXE 8)

[ Voor 16% gewijzigd door Verwijderd op 18-04-2011 10:29 ]


Acties:
  • 0 Henk 'm!
Niet dat ik weet.. Die accepteert die firmware upgrade commando's volgens mij niet, maar zeker weten doe ik het niet.

Even niets...


Acties:
  • 0 Henk 'm!

  • TMon
  • Registratie: September 2006
  • Laatst online: 09-09 13:20
Als je met 2 pools werkt, en pool 1 is veel gebruikt en pool 2 amper. Kan zfs dan ook pool 2 downspinnen? Of kan zoiets alleen hardwarematig met een raid-kaart?

(als ik termen oid fout heb, sorry, ik ben nieuw op ZFS gebied)

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Verwijderd schreef op vrijdag 15 april 2011 @ 14:06:
is deze samsung HD204UI patch nog van belang voor het zfs gebeuren ?
NCQ bug bij Samsung F4 is inderdaad iets wat je moet fixen; maar elke Samsung F4 die je nu koopt zou die firmware fix al moeten hebben. Voor de zekerheid die firmware uitvoeren kan geen kwaad. Vervelende is wel dat het serienummer / partnumber niet verandert en je dus geen idee hebt of je de gefixde versie hebt of niet.

Dus voor de zekerheid uitvoeren vooral als je vermoed dat je F4 misschien al wat ouder is en dus nog niet af-fabriek van de correcte firmware is voorzien.
leuk_he schreef op vrijdag 15 april 2011 @ 15:26:
[...]
Wat ik eigenlijk nog niet gevonden heb is of he weggooien van een snapshot net zo'n optimale actie is als het weggooien van een file
Snapshot destroyen kan wel even duren ja, zeker op HDDs omdat er veel seeks bij te pas komen. Pas na het verwijderen van de snapshot(s) krijg je vrije ruimte terug van bestanden die je hebt verwijderd maar nog 'referenced' waren door de snapshot. Dus je krijgt pas vrije ruimte na het verwijderen van die snapshots. Kwestie van seconden naar mijn idee, en zo vaak doe je het niet.

@TMon: spindown gaat per disk, niet zozeer per pool. Als je disks APM ondersteunen zou ik dat gebruiken, anders kun je OS-initiated spindown gebruiken na x minuten inactivity.

Acties:
  • 0 Henk 'm!

  • Arnoud1
  • Registratie: September 2010
  • Laatst online: 12-08-2024
Verwijderd schreef op vrijdag 15 april 2011 @ 12:40:
[...]

Met kmem rommelen is cruciaal om panics te voorkomen. Dit komt omdat de kmem wel groot genoeg kan zijn in absolute zin, maar kan fragmenteren zodat de vrije blokken die nog over zijn allemaal versnipperd raken. Om die reden wordt aangeraden je kmem op 1,5x je RAM te houden - een truc die alleen werkt voor 64-bit platforms.

Voorbeeld met 4GiB RAM:
kmem = 1,5x RAM = 6.0g
arc_min = 30% van RAM = 1.2g
arc_max = 60% van RAM = 2.4g

Daarnaast moet je bij minder dan 8 gigabyte RAM de prefetch inschakelen omdat die anders standaard wordt uitgeschakeld:
vfs.zfs.prefetch_disable="0"

Bovenstaande info geldt weer voor FreeBSD; niet voor Solaris. Let goed op voor welk platform de informatie die je leest van toepassing is. Ga er niet vanuit dat wat voor Solaris geldt automatisch voor andere platforms geldt.
Zo ziet mijn loader.conf er nu uit.
Even die vm.kmem_size op 3072M zetten dan..
Waarom arc_min ook instellen?
	aio_load="YES"

# Increase vm.kmem_size to allow for ZFS ARC to utilise more memory.	
	vm.kmem_size="2048M"
	vfs.zfs.arc_max="1536M"

# Disable ZFS prefetching
# http://southbrain.com/south/2008/04/the-nightmare-comes-slowly-zfs.html
# Increases overall speed of ZFS, but when disk flushing/writes occur,
# system is less responsive (due to extreme disk I/O).
	vfs.zfs.prefetch_disable="1"

# Disable UMA (uma(9)) for ZFS; amd64 was moved to exclusively use UMA
# on 2010/05/24.
# http://lists.freebsd.org/pipermail/freebsd-stable/2010-June/057162.html
	;vfs.zfs.zio.use_uma="0"

# Decrease ZFS txg timeout value from 30 (default) to 5 seconds.  This
# should increase throughput and decrease the "bursty" stalls that
# happen during immense I/O with ZFS.
# http://lists.freebsd.org/pipermail/freebsd-fs/2009-December/007343.html
# http://lists.freebsd.org/pipermail/freebsd-fs/2009-December/007355.html
	vfs.zfs.txg.timeout="5"

Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Pff, virtuele bak is een beetje kut testen... Dan maar op de echte machine.

ZVOL met UFS on top:
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
r2d2             8G   593  99 304668  56 95621  65   768  84 409912  99  1281 144
Latency             14080us     833ms    4625ms     587ms   26536us     692ms
Version  1.96       ------Sequential Create------ --------Random Create--------
r2d2                -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 11624  35 +++++ +++ 21299  44 11847  35 +++++ +++ 19647  46
Latency              4622us      35us     129us    4632us      36us     165us


puur ZFS:
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
r2d2             8G    95  99 252363  74 262245  99   264  99 739960  97 +++++ +++
Latency               229ms     259ms   43402us   30658us     210ms   18384us
Version  1.96       ------Sequential Create------ --------Random Create--------
r2d2                -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 21470  99 +++++ +++ 18778  99 15265  99 +++++ +++ 18533  99
Latency             23944us     147us    1139us   48231us      61us     125us


puur UFS:

Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
r2d2             8G   592  99 422708  72 126650  86   933  99 413472  99  1367 158
Latency             14083us   46451us    2905ms     321ms   24114us     277ms
Version  1.96       ------Sequential Create------ --------Random Create--------
r2d2                -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16  4871  18 +++++ +++ 10269  21  5159  17 +++++ +++  9922  21
Latency               105ms      25us     133us   21553us      30us   15034us

[ Voor 18% gewijzigd door voodooless op 15-04-2011 16:43 ]

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@Arnoud: die config betekent dat prefetch uitgeschakeld wordt met minder dan 8GiB RAM. Je moet de prefetch_disable dus op 0 zetten om prefetching in te schakelen met minder dan 8GiB RAM. Als je 8GiB+ RAM hebt dan werkt prefetching altijd.

@voodooless: 8GB is te weinig om een veilige meting te kunnen doen. 8 keer je RAM grootte is de stelregel. Met 8GiB RAM wordt dat dus 64GiB test size. Dan test je de 'sustained read/write' ipv burst I/O waarbij een deel uit de RAM wordt geserveerd.

Acties:
  • 0 Henk 'm!

Verwijderd

[quote]Verwijderd schreef op vrijdag 15 april 2011 @ 16:15:
[...]

NCQ bug bij Samsung F4 is inderdaad iets wat je moet fixen; maar elke Samsung F4 die je nu koopt zou die firmware fix al moeten hebben. Voor de zekerheid die firmware uitvoeren kan geen kwaad. Vervelende is wel dat het serienummer / partnumber niet verandert en je dus geen idee hebt of je de gefixde versie hebt of niet.

Dus voor de zekerheid uitvoeren vooral als je vermoed dat je F4 misschien al wat ouder is en dus nog niet af-fabriek van de correcte firmware is voorzien.


[...]

ik heb hier 7 st van max 1 maand oud .. zou het dan ook nodig zijn :?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Je kunt kijken welke datum je schijf is geproduceerd. Als dat in dit jaar ligt, zou de firmware update niet meer nodig zijn. Echter, als je twijfelt zou ik het gewoon wel doen; dubbel op kan geen kwaad en beter dat je dit fixt. De bug is namelijk wel redelijk ernstig en kan silent corruption veroorzaken in combinatie met NCQ en SMART.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 15 april 2011 @ 18:44:
Je kunt kijken welke datum je schijf is geproduceerd. Als dat in dit jaar ligt, zou de firmware update niet meer nodig zijn. Echter, als je twijfelt zou ik het gewoon wel doen; dubbel op kan geen kwaad en beter dat je dit fixt. De bug is namelijk wel redelijk ernstig en kan silent corruption veroorzaken in combinatie met NCQ en SMART.
ok tnx..

Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 11-09 15:16

voodooless

Sound is no voodoo!

Verwijderd schreef op vrijdag 15 april 2011 @ 18:14:
@voodooless: 8GB is te weinig om een veilige meting te kunnen doen. 8 keer je RAM grootte is de stelregel. Met 8GiB RAM wordt dat dus 64GiB test size. Dan test je de 'sustained read/write' ipv burst I/O waarbij een deel uit de RAM wordt geserveerd.
I know.. Maar in mijn geval dus 512GB. Ik had niet echt zin om daarop te wachten ;) 't geeft in ieder geval een indicatie en met iostat was ook prima het verschil te zien van wat er daadwerkelijk van en naar de disks gaat.

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

  • Arnoud1
  • Registratie: September 2010
  • Laatst online: 12-08-2024
Verwijderd schreef op vrijdag 15 april 2011 @ 18:14:
@Arnoud: die config betekent dat prefetch uitgeschakeld wordt met minder dan 8GiB RAM. Je moet de prefetch_disable dus op 0 zetten om prefetching in te schakelen met minder dan 8GiB RAM. Als je 8GiB+ RAM hebt dan werkt prefetching altijd.
Ik heb beide getest, en haal net wat betere resultaten zonder prefetch. Stabiliteit vind ik ook wel belangrijk. Verder veel forums nagelezen en met 2Gb ram is het echt beter zo. Met 4Gb kan je nog eens twijfelen.
In 8.2 was het dacht ik 4Gb ram om prefetch te laten werken...

Vreemde is wel dat alle tweaks die ik uitprobeer, zowel ZFS als SAMBA, de prestaties maar minimaal verschillen. Als ik kmem toevoeg aan de config komt het kopiëren maar langzaam op hang. Begint aan 2MB/sec en loopt langzaam op.
Nu heb ik 16MB/sec redelijk stabiel (wel nog die zaagtand).

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
16MB/s is bagger traag; een simpele atom met een enkele oudere HDD hoort al hoger te halen.

2 GiB (ik neem aan dat je geen Gb = Gigabit bedoelt) RAM is voor een ZFS NAS ook duidelijk te weinig; tenzij performance onbelangrijk is. Met 4 GiB RAM is prefetching nog steeds uitgeschakeld; prefetch op BSD werkt out-of-the-box alleen als je 4 hele gigabyte RAM beschikbaar hebt; dus dat betekent minimaal 4.5GiB RAM. In de praktijk betekent dat dus dat prefetching standaard geactiveerd wordt met 6GiB of 8GiB RAM.

PCI kaarten, expanders en port multipliers kunnen je snelheid drastisch doen verlagen. Ook het virtualiseren van een ZFS OS kan ernstige penalties met zich meebrengen. Afhankelijk van de eisen die je stelt aan performance is het dus verstandig om zoveel mogelijke probleemdoeners uit te schakelen. En je I/O en netwerk apart van elkaar testen zodat je meer zicht hebt op waar je bottleneck nu precies zit.

Acties:
  • 0 Henk 'm!

Verwijderd

hoe is dit mogelijk.. 2x dd bench direkt achter elkaar en verschillende waarden en dan die nogal vreemd hoge read... iemand :?
Afbeeldingslocatie: http://img818.imageshack.us/img818/1172/ddbench.jpg

[ OI/napp-it/16gb/raidz2 6x2tb + 1x spare ]

Acties:
  • 0 Henk 'm!

  • michiel.686
  • Registratie: Maart 2011
  • Laatst online: 03-09 14:47
@borroz: met 16gb zal ie het uit de cache halen? ;)

Acties:
  • 0 Henk 'm!

Verwijderd

michiel.686 schreef op zondag 17 april 2011 @ 20:10:
@borroz: met 16gb zal ie het uit de cache halen? ;)
8)7
(en die write speed verschillen ?)

[ Voor 9% gewijzigd door Verwijderd op 17-04-2011 20:14 ]


Acties:
  • 0 Henk 'm!

  • michiel.686
  • Registratie: Maart 2011
  • Laatst online: 03-09 14:47
Verwijderd schreef op zondag 17 april 2011 @ 20:14:
[...]


8)7
(en die write speed verschillen ?)
Als ik alles wist.. :+

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Je RAM wordt voor buffer en cache gebruikt. Dus ZFS schrijf je in het begin naar je RAM; nooit direct naar de disk. ZFS doet alle disk I/O in transacties (transaction groups ofwel txg).

Je moet 8 * je RAM aanhouden, voor 16GiB dus 8*16GiB = 128GiB.

Acties:
  • 0 Henk 'm!

Verwijderd

dit is de bonnie van dezelfde opstelling > http://tinyurl.com/3cmt2lp

via smb geeft dat ca. 105 mb/s write en 87 mb/s read

- wat is die 128 GB dan ? ..

[ Voor 21% gewijzigd door Verwijderd op 17-04-2011 21:00 ]


Acties:
  • 0 Henk 'm!
Ik ga er redelijkerwijs van uit dat ZFS misschien wel zo slim is om een lijst nullen in het geheugen te comprimeren... Als hij enigzins door het cache heen kijkt en iets van compressie toepast kan hij wel snappen dat je 10GiB aan nullen schrijft :)

Hence de 3.3GB/s :)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op zondag 17 april 2011 @ 20:57:
Ik ga er redelijkerwijs van uit dat ZFS misschien wel zo slim is om een lijst nullen in het geheugen te comprimeren... Als hij enigzins door het cache heen kijkt en iets van compressie toepast kan hij wel snappen dat je 10GiB aan nullen schrijft :)

Hence de 3.3GB/s :)
schrok me rot :9

Acties:
  • 0 Henk 'm!
Probeer anders eens een file aan te maken met random data en die daarna weer opnieuw in te lezen...

Je kan bijvoorbeeld doen:
dd if=/dev/urandom of=/mnt/pool/randomfile10gb.bin bs=1M count=10240


Daarna doe je:
dd if=/mnt/pool/randomfile10gb.bin of=/dev/null bs=1M


Eigenlijk zou je de file gewoon 4 of 5 keer achter elkaar moeten plakken, of het geduld moeten hebben om een random file te bouwen van 40GB maar dat duurt lang :+

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Random data is CPU-capped - urandom is hetzelfde als random op BSD platform; weet niet of dat ook geldt voor Solaris.

Maar je hoeft geen random data te gebruiken; gewoon nullen schrijven naar een file op een zfs filesystem met compression=off ofwel uitgeschakeld, dat werkt prima. Echter nullen schrijven naar een ZVOL geeft wel kunstmatige scores.

# 64GiB schrijven
dd if=/dev/zero of=/pool/zeroes.dat bs=1m count=64000
# 64GiB lezen
dd if=/pool/zeroes.dat of=/dev/null bs=1m

[ Voor 7% gewijzigd door Verwijderd op 17-04-2011 21:07 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 17 april 2011 @ 21:06:
Random data is CPU-capped - urandom is hetzelfde als random op BSD platform; weet niet of dat ook geldt voor Solaris.

Maar je hoeft geen random data te gebruiken; gewoon nullen schrijven naar een file op een zfs filesystem met compression=off ofwel uitgeschakeld, dat werkt prima. Echter nullen schrijven naar een ZVOL geeft wel kunstmatige scores.

# 64GiB schrijven
dd if=/dev/zero of=/pool/zeroes.dat bs=1m count=64000
# 64GiB lezen
dd if=/pool/zeroes.dat of=/dev/null bs=1m
1m slikt die niet .. 'invalid number :X

Acties:
  • 0 Henk 'm!

  • Joseph
  • Registratie: April 2008
  • Laatst online: 11-09 12:16
Met verbazing kijk ik naar de geweldige webinterface van OpenMediaVault, die binnenkort uitkomt. Dit is de daadwerkelijke opvolger van FreeNAS, gemaakt op basis van Debian.

Toch ben ik onder de indruk van de mogelijkheden van ZFS.

Hij (Volker) maakt het volledig zelf, en niemand mag meehelpen of krijgt samples. Maar als het klaar is gaat de volledige source online.

Hoe lang gaat het duren voor dit snoepje van een interface geport gaat worden naar een ZFS-achtig besturingssysteem? Dit gaat de drempel voor leken die een NAS willen hebben gigantisch verlagen _/-\o_

Acties:
  • 0 Henk 'm!

Verwijderd

Sef24 schreef op zondag 17 april 2011 @ 21:24:
Met verbazing kijk ik naar de geweldige webinterface van OpenMediaVault, die binnenkort uitkomt. Dit is de daadwerkelijke opvolger van FreeNAS, gemaakt op basis van Debian.

Toch ben ik onder de indruk van de mogelijkheden van ZFS.

Hij (Volker) maakt het volledig zelf, en niemand mag meehelpen of krijgt samples. Maar als het klaar is gaat de volledige source online.

Hoe lang gaat het duren voor dit snoepje van een interface geport gaat worden naar een ZFS-achtig besturingssysteem? Dit gaat de drempel voor leken die een NAS willen hebben gigantisch verlagen _/-\o_
FreeNAS 8 is ook niet verkeerd.. en heeft ZFS en dat zie ik niet in OpenMediaVault :)

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zondag 17 april 2011 @ 21:49:
FreeNAS 8 is ook niet verkeerd.. en heeft ZFS en dat zie ik niet in OpenMediaVault :)
En zal er ook niet inkomen ook, aangezien het op Debian gebaseerd is... :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Joseph
  • Registratie: April 2008
  • Laatst online: 11-09 12:16
Dan hebben jullie mijn post niet helemaal gelezen.

Het ging me niet om de distro, nee, ik weet ook wel dat ZFS op Debian geen success gaat worden...

Maar het gaat me om het gemak van de webinterface. Die zou ik graag geport zien.

Acties:
  • 0 Henk 'm!
Naar FreeNAS? Ik vind die van FreeNAS prima, wat vind jij dat OMV voor meerwaarde heeft?

Even niets...


Acties:
  • 0 Henk 'm!

  • Joseph
  • Registratie: April 2008
  • Laatst online: 11-09 12:16
Kijk eens een Filmpje op de OMV site, en vergelijk die met de interface van FreeNAS. Dan is FreeNAS een basic en kale interface, waar je weinig mee kunt regelen.

Die van OMV is simpel, het ziet er mooi uit, én het kan veel.

Natuurlijk weet ik ook wel dat de webinterface niet alles is, maar verlaag je eens naar het niveau van de gemiddelde gebruiker? De niet-Tweaker?

Die wil een strak uiterlijk en héél veel gebruikers gemak. Meer kijken ze niet naar om.

En geef toe. Het oog van de Tweaker wil toch ook wat? :)

Acties:
  • 0 Henk 'm!

Verwijderd

* eerst filmpje gaat kijken :9

[ Voor 222% gewijzigd door Verwijderd op 20-04-2011 10:53 ]


Acties:
  • 0 Henk 'm!

  • Joseph
  • Registratie: April 2008
  • Laatst online: 11-09 12:16
Dat zie ik niet aan de plaatjes, dat zie ik aan de video's. Ik werd op slag verliefd.

Acties:
  • 0 Henk 'm!

Verwijderd

Sef24 schreef op zondag 17 april 2011 @ 22:00:
Dat zie ik niet aan de plaatjes, dat zie ik aan de video's. Ik werd op slag verliefd.
ziet er idd goed uit.. beetje qnap achtig.. zal wel gekocht gaan worden door een of andere toko

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Mis ik iets of lijkt dat gewoon op de meest recente versie van FreeNAS qua web interface?

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!
With ^^. Beter goed gejat dan slecht zelf gemaakt :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Joseph
  • Registratie: April 2008
  • Laatst online: 11-09 12:16
Dadona schreef op zondag 17 april 2011 @ 22:07:
Mis ik iets of lijkt dat gewoon op de meest recente versie van FreeNAS qua web interface?
Euuhhh? :$

Dit:
Afbeeldingslocatie: http://4.bp.blogspot.com/_0utdg-1cwb8/TIX93BSkrBI/AAAAAAAAFqU/uV9T7yBeISQ/s1600/freenas-07.png

vs Dit:



Maakt toch een behoorlijk verschil... :X

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
FreeNAS 8 RC2
Afbeeldingslocatie: http://www.learnfreenas.com/blog/wp-content/uploads/FreeNAS-8-RC2-4.png

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Splendid
  • Registratie: April 2005
  • Laatst online: 10-09 13:54
Pff, die FreeNas versie ziet er goed uit zeg.

Ik ben enkele maanden geleden zelf voor Nexenta gegaan aangezien die een veel betere ZFS versie hadden maar de community is daar wel heel erg klein voor en loop nu ook tegen wat ondersteuning 'probleempjes' aan.

Toch nog eens spelen met de laatste versie van FreeNas. (Ik zit alleen met een ZFS v28 pool nu...)

Acties:
  • 0 Henk 'm!

  • Joseph
  • Registratie: April 2008
  • Laatst online: 11-09 12:16
Ik wil niet bashen, maar deze is pas sinds kort uit. Die eerste sample van de OMV interface was er al begin 2010. Wie jat hier nu van wie?

Desondanks netjes gemaakt, mijn vraag is nu direct overbodig. :)

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Het kan goed dat OMV de eerste is, ik weet niet wie tot wat toegang heeft. Maar ze zijn in ieder geval (bijna) hetzelfde, dus voor de interface hoef je het niet te doen :+ .
Maar persoonlijk vind ik dat ook echt niet boeiend. Het is leuk en prettig als je het vaak gebruikt en de interface mooi en handig is, maar bij een NAS lijkt het mij dat je dit scherm zo min mogelijk móet tegenkomen, ten teken dat alles meteen goed werk en presteert. :)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!
Precies, shares aanmaken is voor mij nou niet echt een dagelijks bezigheid :)
Misschien dat OMV zich daardoor wat beter leent voor MKB gebruik ofzo...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Arnoud1 schreef op woensdag 13 april 2011 @ 15:55:
[...]


Ik krijg ook zoiets, maar dan slechts 12-14% netwerkbelasting.
Ik gebruik ook die intel SASUC8i, vroeger 3ware 9650
4Gb moet ruim genoeg zijn. Ik lees wel dat FreeBSD enorm veel meer geheugen vraagt dan Solaris.
Mogelijks ligt het dus aan FreeBSD...
Samba onder ubuntu deed het perfect. Nu zou ik plots vanalles moeten tweaken..

i5 verbruikt veel teveel stroom voor mij. (95Watt zonder chipset)
enkel Low power Xeon zou ik nog overwegen, en daar heb je mooie bordjes voor! (http://ark.intel.com/Product.aspx?id=53401)

Ahja, momenteel verbruikt mijn serve 144Watt, voorheen had ik een opteron en dat was 200Watt (single cpu) en 250Watt (dual cpu). Het lijkt erop dat mijn schijven samen 110Watt verstoken dus hier kan ik niet aan ontsnappen.

Is het al iemand gelukt om de shijven idle te krijgen onder FreeBSD, en hoe met het in slaap brengen van de cpu of cpu down throttle?
Zover ik kan zien zijn de enige betaalbare ECC oplossingen de X2 e editie van AMD. TDP van 45 watt.

Ik kan geen betaalbare XEON oplossing vinden. Is er nog een andere editie van AMD met een lager TDP welke ECC ondersteund?

[ Voor 4% gewijzigd door Verwijderd op 18-04-2011 16:44 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Waarom wil je een lage TDP? Wordt je NAS continu vol belast?

Acties:
  • 0 Henk 'm!
Volgens mij is ECC bij AMD vrij standaard op Sempron na... Het probleem is vooral het chipset en de BIOS van de fabrikant...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 18 april 2011 @ 16:56:
Waarom wil je een lage TDP? Wordt je NAS continu vol belast?
Goede vraag eigelijk. Tdp gaat over het max vermogen niet het idle vermogen... Oops ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Idle vermogen is een beetje tricky; het hangt ook veel van je moederbord af (VRM), je chipset en geheugen.

AMD Bulldozer die in juni/juli zou komen zou je in staat stellen heel veel CPU power te krijgen met een redelijk hoge TDP, terwijl hij idle enorm weinig verbruikt, dankzij power gating. Dezelfde techniek gebruikt Intel al, sinds de 40nm chips. Dat betekent dat krachtige chips idle toch heel weinig verbruiken. Dus TDP is niet zo belangrijk voor je daadwerkelijke stroomverbruik zeker voor een 24/7 NAS.

TDP is wel belangrijk voor de koeling, met name als je een passief gekoeld systeem wilt hebben is een hoge TDP niet fijn omdat je toch rekening moet houden met situaties van langdurige volle belasting; oververhitting is niet fijn! Sowieso geldt dat hoe lager de temperatuur, des te lager het stroomverbruik! Je CPU verbruikt dus echt meetbaar minder stroom als je hem beter koelt.

Voor laag idle power zou ik kijken naar een PicoPSU setup met zuinige spinup disks zoals Samsung F4 of notebook disks. Dat wordt wel een speciale setup en een tikkeltje duurder dan normaal. Grootste minpunt is het gebrek aan uitbreidingscapaciteit, door het beperkte vermogen van de voeding (of eigenlijk: powerbrick).

Acties:
  • 0 Henk 'm!

Verwijderd

Iemand al gespeeld met de release candidate? http://zfsonlinux.org/

Acties:
  • 0 Henk 'm!
Ik heb volgens mij wel een hele recente versie gebruikt, maar zolang je nog vrolijk EXT2 op een VDEV moet gebruiken blijft het prutsspul...

Even niets...


Acties:
  • 0 Henk 'm!

  • smokalot
  • Registratie: Juni 2001
  • Laatst online: 09-09 23:05

smokalot

titel onder

FireDrunk schreef op dinsdag 19 april 2011 @ 14:44:
Ik heb volgens mij wel een hele recente versie gebruikt, maar zolang je nog vrolijk EXT2 op een VDEV moet gebruiken blijft het prutsspul...
How do I mount the file system?

The ZFS posix layer is now available as of spl/zfs-0.6.0-rc1! A mountable dataset will be created and mounted when you first create the pool with zpool create. Additional datasets can be created with zfs create and they will be automatically mounted.
De laatste stable (0.5.2, uit november) heeft dus alleen zvol support, de rc's van 0.6 hebben ook direct zfs support. Kwa features zit die versie wel goed (v28 pool), hoe het met snelheid en stabiliteit zit weet ik ook niet.

It sounds like it could be either bad hardware or software


Acties:
  • 0 Henk 'm!

  • Kees
  • Registratie: Juni 1999
  • Laatst online: 22:42

Kees

Serveradmin / BOFH / DoC
Nog niet, maar dat ga ik binnenkort wel doen. ZFS is erg mooi, maar ik draai overal linux als het even kan.

"Een serveradmin, voluit een serveradministrator, is dan weer een slavenbeheerder oftewel een slavendrijver" - Rataplan


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Kees schreef op dinsdag 19 april 2011 @ 19:04:
[...]

Nog niet, maar dat ga ik binnenkort wel doen. ZFS is erg mooi, maar ik draai overal linux als het even kan.
Heeft tweakers.net in een ver verleden niet FreeBSD gedraaid, wat toen door een of andere reden niet lekker liep?

FreeBSD lijkt me voor servergebruik toch wat voordelen hebben boven Linux. Ik noem bijvoorbeeld jails (elke service in zijn eigen jail compleet geisoleerd van het systeem) en ZFS. Linux zie ik zelf meer als all-purpose OS met de nadruk op desktopgebruik; waar het duidelijk sterker in is dan elk ander Open Source OS. Maar wat voor exclusieve voordelen heeft Linux voor een (internet-) server?

Acties:
  • 0 Henk 'm!
Juist dat grootte draagvlak zorgt voor veel support op diverse services.
Linux is heel open als het gaat om support voor exotische hardware.. En die zie je nog wel eens in servers.

Ook is het maken van custom packages vrij gemakkelijk onder de diverse distro's.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Exotische hardware denk ik aan Webcams, Wifi adapters en andere desktop-hardware die je niet in servers terugvindt. Dingen als 10 gigabit adapters enzo worden aardig ondersteund door FreeBSD; logisch want het is een echt serverOS wat veelvuldig door internetproviders wordt gebruikt; dus ondersteuning voor server-specifieke hardware krijgt de hoogste prioriteit.

Als je een voordeel zou moeten noemen, zou het eerder de toegankelijkheid zijn. Voor Linux zijn er veel howto/guides die op beginners zijn afgestemd en dus letterlijk overgeklopt kunnen worden, terwijl bij FreeBSD vaak wordt verondersteld dat de gebruiker een systeembeheerder met ervaring is.

Dat gezegd, beide kunnen de job prima klaren dus persoonlijke voorkeur en reeds bestaande kennis/ervaring zijn zeer goede argumenten om voor het één of ander te kiezen. :)

Acties:
  • 0 Henk 'm!
Zeker waar! FreeBSD is iig een ZEER degelijk en goed OS, en ik zou het graag gebruiken... Als ze ver*** nou eens VMXNET3 zouden ondersteunen :P

Even niets...


Acties:
  • 0 Henk 'm!

root@CRAVUZFS01:/# dd if=/dev/zero of=/tank/test.bin bs=1M count=4096
4096+0 records in
4096+0 records out
4294967296 bytes (4.3 GB) copied, 21.6239 s, 199 MB/s
root@CRAVUZFS01:/# dd if=/tank/test.bin of=/dev/null bs=1M
4096+0 records in
4096+0 records out
4294967296 bytes (4.3 GB) copied, 18.8917 s, 227 MB/s
root@CRAVUZFS01:/#

4 x 2TB Samsung in RAIDZ2 op Ubuntu 10.10 VM met de 4 disks via RDM doorgegeven vanuit ESXi :)


ZFS on Linux word steeds beter!!! De POSIX layer (ZPL) is in de maak, en de eerste RC's zijn al veelbelovend!
Dit zou nog wel eens leuk kunnen worden :)

[ Voor 6% gewijzigd door FireDrunk op 20-04-2011 17:16 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op woensdag 20 april 2011 @ 17:15:

root@CRAVUZFS01:/# dd if=/dev/zero of=/tank/test.bin bs=1M count=4096
4096+0 records in
4096+0 records out
4294967296 bytes (4.3 GB) copied, 21.6239 s, 199 MB/s
root@CRAVUZFS01:/# dd if=/tank/test.bin of=/dev/null bs=1M
4096+0 records in
4096+0 records out
4294967296 bytes (4.3 GB) copied, 18.8917 s, 227 MB/s
root@CRAVUZFS01:/#

4 x 2TB Samsung in RAIDZ2 op Ubuntu 10.10 VM met de 4 disks via RDM doorgegeven vanuit ESXi :)


ZFS on Linux word steeds beter!!! De POSIX layer (ZPL) is in de maak, en de eerste RC's zijn al veelbelovend!
Dit zou nog wel eens leuk kunnen worden :)
idd, als je zo onder ubuntu ook met zfs kan werken.. dus je kan wel mounten ?

Acties:
  • 0 Henk 'm!
Ja, moest alleen wel partities op de disks maken. Daarna gewoon:

zpool create tank raidz2 sdb sdc sdd sde


Et Voila! /tank/ :)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

en welke ZFS versie draai je dan ?

Acties:
  • 0 Henk 'm!

  • Arnoud1
  • Registratie: September 2010
  • Laatst online: 12-08-2024
FireDrunk schreef op woensdag 20 april 2011 @ 18:13:
Ja, moest alleen wel partities op de disks maken. Daarna gewoon:

zpool create tank raidz2 sdb sdc sdd sde


Et Voila! /tank/ :)
Voor ZFS maak je beter geen partities. Anders verlies je heel wat functionaliteit.

Acties:
  • 0 Henk 'm!

  • Arnoud1
  • Registratie: September 2010
  • Laatst online: 12-08-2024
Net 2GB door 4GB vervangen.
Zaagtand op netwerk is weg, maar nog steeds max ~14% netwerkbelasting (1Gbit)
Het systeem is dus stabieler, maar nog steeds even traag (~).
En telkens merk ik dat er veel ram over is...

Acties:
  • 0 Henk 'm!

  • smokalot
  • Registratie: Juni 2001
  • Laatst online: 09-09 23:05

smokalot

titel onder

FireDrunk schreef op woensdag 20 april 2011 @ 18:13:
Ja, moest alleen wel partities op de disks maken. Daarna gewoon:

zpool create tank raidz2 sdb sdc sdd sde


Et Voila! /tank/ :)
Dit begrijp ik niet helemaal, waarom maak je eerst partities aan om daarna de hele disk aan zfs te geven? Kreeg je een foutmelding toen je nog geen partitietabel had?

It sounds like it could be either bad hardware or software


Acties:
  • 0 Henk 'm!
Jup, ZFS wilde persé partities, waarom is mij nog een raadsel, zal wel iets met die POSIX laag te maken hebben... Na gewoon kale partities erop geknalt te hebben werkte het wel.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op woensdag 20 april 2011 @ 19:58:
Jup, ZFS wilde persé partities, waarom is mij nog een raadsel, zal wel iets met die POSIX laag te maken hebben... Na gewoon kale partities erop geknalt te hebben werkte het wel.
maar is dat nou met 'zfsonlinux' .. want zfs zit toch niet standaard in ubuntu10.10 :?

Acties:
  • 0 Henk 'm!
Uh nee? Hoe kom je daar bij :+ je kan zfs-fuse installeren, maar dat is redelijk traag.
www.zfsonlinux.org heeft een manier bedacht om vanaf source direct ZFS te compilen voor Linux :)


Wie sponsort mij voor de grootste ZFS build bekend? :+

#ProductPrijsSubtotaal
64Samsung EcoGreen F4EG HD204UI, 2TB€ 62,-€ 3.968,-
8Intel RAID Controller SASUC8I€ 126,72€ 1.013,76
1Cooler Master Silent Pro Gold 1200W€ 188,50€ 188,50
1MSI Big Bang MARSHAL (B3)€ 316,46€ 316,46
Bekijk collectie
Importeer producten
Totaal€ 5.486,72

[ Voor 83% gewijzigd door FireDrunk op 20-04-2011 21:28 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

* oeps .. voutjuh

[ Voor 93% gewijzigd door Verwijderd op 20-04-2011 21:28 ]


Acties:
  • 0 Henk 'm!
Verwijderd schreef op woensdag 20 april 2011 @ 21:28:
nee maar meer specifiek hoe jij zfs gebruikt onder ubuntu 10.10

Ik snap niet zo goed wat je bedoeld... :+
Moet kunnen baas :+

[ Voor 5% gewijzigd door FireDrunk op 20-04-2011 21:29 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op woensdag 20 april 2011 @ 21:28:
[...]


Ik snap niet zo goed wat je bedoeld... :+
leg jij het ff uit.. krijg jij je zakgeld voor die build..gheghe

ik bedoel ubuntu 10.10.. daar zit toch geen zfs in, of ben ik nou flippo ?

Acties:
  • 0 Henk 'm!
Nee standaard niet nee, maar als je het zelf compiled wel :)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op woensdag 20 april 2011 @ 21:30:
Nee standaard niet nee, maar als je het zelf compiled wel :)
dat bedoel ik.. dus jij hebt zelf een kernel gecompiled met zfs... welke dan ?

Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op woensdag 20 april 2011 @ 21:23:
Uh nee? Hoe kom je daar bij :+ je kan zfs-fuse installeren, maar dat is redelijk traag.
www.zfsonlinux.org heeft een manier bedacht om vanaf source direct ZFS te compilen voor Linux :)


Wie sponsort mij voor de grootste ZFS build bekend? :+

#ProductPrijsSubtotaal
64Samsung EcoGreen F4EG HD204UI, 2TB€ 62,-€ 3.968,-
8Intel RAID Controller SASUC8I€ 126,72€ 1.013,76
1Cooler Master Silent Pro Gold 1200W€ 188,50€ 188,50
1MSI Big Bang MARSHAL (B3)€ 316,46€ 316,46
Bekijk collectie
Importeer producten
Totaal€ 5.486,72
ik mis nog 32 64 gb mem 8)

Acties:
  • 0 Henk 'm!
#ProductPrijsSubtotaal
64Samsung EcoGreen F4EG HD204UI, 2TB€ 62,-€ 3.968,-
8Intel RAID Controller SASUC8I€ 126,72€ 1.013,76
1Intel Core i7 2600K Boxed€ 242,-€ 242,-
1Cooler Master Silent Pro Gold 1200W€ 188,50€ 188,50
2Kingston HyperX T1 KHX2000C9D3T1K2/8GX€ 164,35€ 328,70
1MSI Big Bang MARSHAL (B3)€ 316,46€ 316,46
Bekijk collectie
Importeer producten
Totaal€ 6.057,42


*kuch* en een CPU :P
Verwijderd schreef op woensdag 20 april 2011 @ 21:31:
dat bedoel ik.. dus jij hebt zelf een kernel gecompiled met zfs... welke dan ?
Nee, je installeert ZFS als een module :)

[ Voor 4% gewijzigd door FireDrunk op 20-04-2011 21:42 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Ik mis 3TB schijven :P

Acties:
  • 0 Henk 'm!

Verwijderd

en een kassie :*)

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Get a room? :+
Wel goed om in dat artikel nogmaals te lezen dat FreeBSD 9.0 (zou inderdaad met ZFS v28 zijn, het zit in ieder geval in de development versie van 9.0) ergens in mei moet uitkomen. Dat lijkt mij een mooi moment om de productiesystemen over te zetten naar FreeBSD. Alleen nog bepalen of er daadwerkelijk een SSD in komt.

[ Voor 15% gewijzigd door Dadona op 20-04-2011 21:52 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Dadona schreef op woensdag 20 april 2011 @ 21:50:
Get a room? :+
Wel goed om in dat artikel nogmaals te lezen dat FreeBSD 9.0 ergens in mei moet uitkomen. Dat lijkt mij een mooi moment om de productiesystemen over te zetten naar FreeBSD. Alleen nog bepalen of er daadwerkelijk een SSD in komt.
pcies.. als daar nou is zfs 28 inzit..

Acties:
  • 0 Henk 'm!
#ProductPrijsSubtotaal
64Western Digital Caviar Green WD30EZRSDTL, 3TB€ 139,38€ 8.920,32
8Intel RAID Controller SASUC8I€ 126,72€ 1.013,76
1Intel Core i7 2600K Boxed€ 242,-€ 242,-
1Cooler Master Silent Pro Gold 1200W€ 188,50€ 188,50
2Kingston HyperX T1 KHX2000C9D3T1K2/8GX€ 164,35€ 328,70
1MSI Big Bang MARSHAL (B3)€ 316,46€ 316,46
Bekijk collectie
Importeer producten
Totaal€ 11.010


Ok, zo dan? :) Een kast bouw ik zelf wel als ik dit krijg :+ Desnoods van ijslollystokjes!

Even niets...


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

FireDrunk schreef op woensdag 20 april 2011 @ 21:51:
#ProductPrijsSubtotaal
64Western Digital Caviar Green WD30EZRSDTL, 3TB€ 139,38€ 8.920,32
8Intel RAID Controller SASUC8I€ 126,72€ 1.013,76
1Intel Core i7 2600K Boxed€ 242,-€ 242,-
1Cooler Master Silent Pro Gold 1200W€ 188,50€ 188,50
2Kingston HyperX T1 KHX2000C9D3T1K2/8GX€ 164,35€ 328,70
1MSI Big Bang MARSHAL (B3)€ 316,46€ 316,46
Bekijk collectie
Importeer producten
Totaal€ 11.010


Ok, zo dan? :) Een kast bouw ik zelf wel als ik dit krijg :+ Desnoods van ijslollystokjes!
Men neemt een van deze, http://www.chenbro.com/co...oducts_detail.php?sku=179
+ http://www.chenbro.com/co...oducts_detail.php?sku=144 en die lassen we even boven op elkaar en halen we uit een de bovenkant andere de onderkant, prop je hem vervolgens helemaal vol ook nog de onboard sata met 2x Intel SSD RAID1 om van te booten :+ En dan nog een zware ups en een glasvezel lijn voor de GoT Users leech bak O+

[/keep on dreaming]

Acties:
  • 0 Henk 'm!

Verwijderd


Acties:
  • 0 Henk 'm!

  • Snow_King
  • Registratie: April 2001
  • Laatst online: 00:10

Snow_King

Konijn is stoer!

Je kan ook aan de slag met een externe SAS poort en zo tot wel 256 disks aan één systeem hangen.

768TB als je 3TB disks gebruikt, mwa, lijkt me voldoende?

Back naar zfsonlinux, heb het ook even geïnstalleerd (PPA, Ubuntu 10.04), best gaaf! Heb even snel een pool gemaakt op 6 LV's en wat mee gespeeld, werkt gewoon prima voor de basics die ik er even mee getest heb,

Dit zie ik wel zitten :)

Acties:
  • 0 Henk 'm!
#ProductPrijsSubtotaal
48Western Digital Caviar Green WD30EZRSDTL, 3TB€ 139,38€ 6.690,24
8Intel RAID Controller SASUC8I€ 126,72€ 1.013,76
1Intel Core i7 2600K Boxed€ 242,-€ 242,-
1Cooler Master Silent Pro Gold 1200W€ 188,50€ 188,50
16OCZ Vertex 3 240GB€ 431,-€ 6.896,-
2Kingston HyperX T1 KHX2000C9D3T1K2/8GX€ 164,35€ 328,70
1MSI Big Bang MARSHAL (B3)€ 316,46€ 316,46
Bekijk collectie
Importeer producten
Totaal€ 15.676


SSD L2ARC :+


#ProductPrijsSubtotaal
8Intel RAID Controller SASUC8I€ 126,72€ 1.013,76
1Intel Core i7 2600K Boxed€ 242,-€ 242,-
1Cooler Master Silent Pro Gold 1200W€ 188,50€ 188,50
72OCZ Vertex 3 240GB€ 431,-€ 31.032
2Kingston HyperX T1 KHX2000C9D3T1K2/8GX€ 164,35€ 328,70
1MSI Big Bang MARSHAL (B3)€ 316,46€ 316,46
Bekijk collectie
Importeer producten
Totaal€ 33.121


ICM: http://www.supermicro.com...U/417/SC417E16-R1400U.cfm

Zal vast leuk performen :+

17TB aan SSD, holy crap dat geeft vast meer dan 1.000.000 IOPS :D

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

probeer het is te vermommen als 'case mod'..wie weet vind je een sponser.. :+

[ Voor 97% gewijzigd door Verwijderd op 20-04-2011 22:06 ]


Acties:
  • 0 Henk 'm!
ROFL, dat zou wel super vet zijn... Beetje reclame maken voor OCZ, SuperMicro, ZFS, en MSI :+
Als ze allemaal nou 10k gaven :D

Even niets...


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

FireDrunk schreef op woensdag 20 april 2011 @ 22:09:
ROFL, dat zou wel super vet zijn... Beetje reclame maken voor OCZ, SuperMicro, ZFS, en MSI :+
Als ze allemaal nou 10k gaven :D
Dan kan het nog extremer met een areca 1880ix 24 ofzo :+

Acties:
  • 0 Henk 'm!

  • Splendid
  • Registratie: April 2005
  • Laatst online: 10-09 13:54
Verwijderd schreef op woensdag 20 april 2011 @ 21:50:
[...]


pcies.. als daar nou is zfs 28 inzit..
Ik las vanmiddag dat dit er inderdaad in moet zitten. Zou mooi zijn want dan kan ik echt serieus gaan kijken of ik over ga van Nexenta naar FreeNas :)

Acties:
  • 0 Henk 'm!

Verwijderd

Splendid schreef op woensdag 20 april 2011 @ 22:26:
[...]

Ik las vanmiddag dat dit er inderdaad in moet zitten. Zou mooi zijn want dan kan ik echt serieus gaan kijken of ik over ga van Nexenta naar FreeNas :)
FreeNAS zal niet zo snel zijn met ZFS 28.. zitten nu ook nog op 15

Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 11-09 14:49

Ultraman

Moderator Harde Waren

Boefje

v28 zou idd in FreeBSD 9.0 zitten voor zover mij bekend is.
Ik zit zelf ook te kijken om naar FreeBSD over te stappen en 9 lijkt mij ook een mooie milestone om het te doen. Nu lekker experimenteren en wennen zodat ik straks weet hoe het allemaal in elkaar steekt.

Als je stil blijft staan, komt de hoek wel naar jou toe.

Pagina: 1 ... 3 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.