Acties:
  • 0 Henk 'm!
Of je nou 1 of 10 pools hebt, als het aantal clients en de belasting gelijk blijft kan je toch prima toe met dezelfde CPU?

Ah brazos... even niet gezien. Te weinig pcie lanes dus. Da zou ik voor een G1610 gaan icm een ASrock B75 Pro3-M icm 1 M1015.

[ Voor 34% gewijzigd door FireDrunk op 25-07-2013 17:50 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Vandaag wat hardware mee kunnen nemen van werk, zat dernet te rekenen en bedacht mij dat ik mijn huidige server (Ubuntu, LVM+MDADM) om kan zetten naar ZFS. Dat wordt eerst 7TB data verplaatsten om het daarna terug te plaatsen. Ik roep al maanden dat ik ZFS wil, dus dat komt mooi uit!

Ik ga FreeBSD draaien met 7x2TB in raidz1, is 4GB prima om geen nadelen ervan te ondervinden?

Nu heb ik RAID6 (4x100GB) voor belangrijke data, nu wil ik het liefst eigenlijk deze ook 2x hebben staan op ZFS. De 2TB schijven zelf gaan in raidz1, is het mogelijk dat snapshots van bepaalde mappen maak waarbij ik zeg hij moet perse op deze HDD? Of nog andere slimme oplossingen hiervoor?

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Dennisik schreef op donderdag 25 juli 2013 @ 20:46:
Nu heb ik RAID6 (4x100GB) voor belangrijke data, nu wil ik het liefst eigenlijk deze ook 2x hebben staan op ZFS. De 2TB schijven zelf gaan in raidz1, is het mogelijk dat snapshots van bepaalde mappen maak waarbij ik zeg hij moet perse op deze HDD? Of nog andere slimme oplossingen hiervoor?
Wil je dit dan op een aparte pool (welke dan dus in RAIDZ2 staat) of is het voldoende om dit op dezelfde pool te hebben, maar dan met extra reduntantie (aka, een filesystem/volume welke je copies=2 of copies=3 geeft)?

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Twee keer hebben staan op ZFS lijkt mij weinig uitmaken, twee schijven dood en het is weg, hoe vaak het er ook op staat. Zou dan eerder 1x2TB erbij kopen en voor RAIDZ2 gaan.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Xudonax schreef op donderdag 25 juli 2013 @ 21:29:
[...]


Wil je dit dan op een aparte pool (welke dan dus in RAIDZ2 staat) of is het voldoende om dit op dezelfde pool te hebben, maar dan met extra reduntantie (aka, een filesystem/volume welke je copies=2 of copies=3 geeft)?
Dit inderdaad.
Tsurany schreef op donderdag 25 juli 2013 @ 21:32:
Twee keer hebben staan op ZFS lijkt mij weinig uitmaken, twee schijven dood en het is weg, hoe vaak het er ook op staat. Zou dan eerder 1x2TB erbij kopen en voor RAIDZ2 gaan.
Hangt beetje vanaf hoe goed ZFS pools te recoveren zijn.

Maar ik ga nog 2de ZFS server maken, deze wordt een VM met 4x1TB voor ESX cluster. Hierop komt dan een snapshot van mijn data op mijn 1ste server. Kan ook 4x1TB lokaal aanbieden, gezien het in dezelfde cluster komt. Maar zo kan ik leuk met ESXi en ISCSI spelen.

Ik dacht eerst dat ik FreeBSD wou vanwege Sickbeard en dergelijke, maar heb nu ZFSGuru opstaan. Jesus wat is dat een mooi OS. Eens kijken of Sickbead/CP/Sab en Torrents daar ook op kunnen.

[ Voor 5% gewijzigd door Dennisik op 25-07-2013 21:42 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Nieuwe ZFSguru build heeft moderne SABnzbd+ service met alles erop en eraan en alles updated. Staat op het punt van release nu. :)

De huidige service heeft oudere versies en kan niet normaal automatisch starten. De nieuwe release is sterk verbeterd op tal van punten.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:05
ItsValium schreef op donderdag 25 juli 2013 @ 12:51:
Ik gebruik ondertussen ZFS al een tweetal jaar in productie. Tot nu toe nog geen één keer spijt gehad van de omschakeling van mijn vroegere netapp naar de huidige omgeving. Momenteel druk bezig met het testen van de haalbaarheid om van betaalde Nexenta over te stappen naar een vrije vorm ...

Voor de prijs van de netapp omgeving heb ik nu 5 keer meer storage, dubbel zo veel performance ... Ok het vergt iets meer werk van mijn kant (hoewel ik zelfs dat niet echt meer kan zeggen, de netapp had ook wel zijn werk/maintenance nodig) maar dat heb ik er graag voor over.

Voor veel van mijn klanten is de overstap ook reeds een feit, enkel een aantal diehards blijven volhouden aan hun duurbetaalde bagger performende omgevingen. Maar daar komt meestal wel verandering in als het tijd word om uit te breiden of te vervangen ;)
Op wat voor soort hardware platform draai je deze storage? Puur als NAS of ook als SAN?

Acties:
  • 0 Henk 'm!

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 12-10 16:59
Q schreef op vrijdag 26 juli 2013 @ 02:19:
[...]


Op wat voor soort hardware platform draai je deze storage? Puur als NAS of ook als SAN?
99% Als NAS, draait op zelf samengestelde configuraties maar wel met hardware support van de leverancier. Deze heb ik zorgvuldig uitgezocht aan de hand van de HCL lijsten en ook gekeken naar de verkochte kant-en-klare oplossingen van bv Nexenta of Truenas. Vooral supermicro hardware met LSI controllers. Ik moet zeggen dat bij vele van mijn klanten hun Vmware Essentials Kit perfect draait op de storage bakken die ik hen heb voorgesteld en in de meeste gevallen overgedimensioneerd zijn. Maar beter zo dan dat ze later komen klagen over de slechte performance. Qua prijs zitten ze toch een pak onder de aanbiedingen van de grote storagebedrijven.

Om maar een voorbeeldje te geven van een niet redundante opstelling bij één van mijn klanten:

Supermicro SC936 chassis (16 hotswap bays, redundante voedingen)
Supermicro X9SRL-F moederbord met E5-2620 cpu en 64 GB RAM
2 250gb WD RE4 schijven voor mirror OS (mobo sata2)
2 Intel 313 SLC 24 GB SSD schijven voor dedicated ZIL in mirror (mobo sata2)
2 intel 320 180 GB SSD schijven beide als losse L2ARC (mobo sata3)
LSI SAS 9211-8i HBA controller
10 WD RE4 2 TB drives, waarvan acht op de LSI in 4 mirror vdev's en 2 niet aangesloten als cold spares (wel in de behuizing geschoven). Effectief 8 TB bruikbaar.
Intel X540 dual port 10 Gbit NIC
APC UPS eronder.

Performt enorm en voor de prijs kan je niets beter vinden. Draait momenteel een betaalde Nexenta licentie maar dat zal binnenkort veranderen éénmaal ik wat verder geraakt ben met de testjes van de open distro's (BSD based). Er draaien een hoop VM's op klant is zeer tevreden en betaald met plezier de facturen voor de support die in het niets vallen bij de licentiekosten/support kosten van de grote aanbieders.

[ Voor 38% gewijzigd door ItsValium op 26-07-2013 10:35 ]


Acties:
  • 0 Henk 'm!
Hoe zijn de backups ingericht? En waarom wel Intel 320 voor L2ARC maar niet voor ZIL? Als je vertrouwd op je UPS kan je beter veel snellere SSD's nemen voor ZIL en L2ARC. Dat komt de performance *direct* ten goede?

[ Voor 75% gewijzigd door FireDrunk op 26-07-2013 12:34 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 12-10 16:59
Backups lopen elke dag richting DC, de keuze van SSD's was gebaseerd op de best verkrijgbare op de moment van aanschaf. Net geen jaar terug waren de 320's nog goed verkrijgbaar, voor een redelijke prijs. In dit soort opstellingen is het altijd balanceren tussen betrouwbaarheid (de 313 zijn SLC ssd's), performance en betaalbaarheid. Ondanks de capacitors op de 320 reeks raad ik altijd nog een UPS aan, je weet maar nooit wat er nog gebeurd en zo worden spanningspieken/dalen ook opgevangen. Het zijn vooral MKB's die geen geconditioneerde serverruimtes hebben.

Acties:
  • 0 Henk 'm!
Klopt, maar dan kan je de 320's ook wel vervangen voor een snellere SSD in mijn ogen, de UPS vangt de spanningsonderbreking toch op...

Even niets...


Acties:
  • 0 Henk 'm!

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 12-10 16:59
Klopt maar toendertijd waren de 320's prijs/kwaliteit de beste koop. En om nu al naar de klant te lopen en de boel te vervangen, vrij nutteloos. Eenmaal ze de drie jaar benaderen is het tijd om te vervangen en dan zullen het wel andere worden. Of de monitoring zou ineens moeten aangeven dat ze problemen vertonen dan is het een andere zaak natuurlijk.

[ Voor 18% gewijzigd door ItsValium op 26-07-2013 13:48 ]


Acties:
  • 0 Henk 'm!
Uiteraard, ik doelde ook meer dat je het bij volgende klanten aan kon passen ;)

Preventief vervangen is ook weer niet nodig inderdaad ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 12-10 16:59
Momenteel een aantal offertes uitstaan en ipv de 320's worden nu de 335's gebruikt, zijn een pak sneller, toch de intelnaam en een stuk goeiekoper zelfs. Zoals je kan zien kan je tegenwoordig voor een beperkt budget echt wel een goeie storage oplossing aanbieden waar veel grote namen qua prijs en performance niet kunnen aan tippen. Je moet natuurlijk wel de klant uitgebreid informeren over het hoe en waarom en de voor- en nadelen. In mijn ervaring heb ik nog geen énkele klant gehad die er geen oren naar had.

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Waarom ga je afstappen van Nexenta? Motivatie?

Acties:
  • 0 Henk 'm!

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 12-10 16:59
analog_ schreef op vrijdag 26 juli 2013 @ 16:12:
Waarom ga je afstappen van Nexenta? Motivatie?
Momenteel zitten mijn nexenta nodes allen aan hun limiet qua licentie/raw storage. Uitbreidingen kosten een bom geld als ik alle licenties nog maar één trap hoger wil en dat budget is er simpelweg niet. Dat is dan ook de enige reden. Tot nu toe altijd enorm tevreden geweest van Nexenta, maar de uitbreidingen qua capaciteit zijn gewoonweg te duur. De upgrade kost mij ongeveer 15k per node en ik heb er 4 die terzelfdertijd moeten geupgrade worden.

Als ik éénmaal door alle testjes succesvol geraakt ben voor mijn eigen nodes, dan kan ik het net zo goed ook zo aanbieden aan mijn klanten met een open distro. Support ervoor ligt toch bij mij en spaart hen weer geld uit en/of brengt mij geld op.

[ Voor 17% gewijzigd door ItsValium op 26-07-2013 22:02 ]


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op donderdag 25 juli 2013 @ 22:59:
Nieuwe ZFSguru build heeft moderne SABnzbd+ service met alles erop en eraan en alles updated. Staat op het punt van release nu. :)

De huidige service heeft oudere versies en kan niet normaal automatisch starten. De nieuwe release is sterk verbeterd op tal van punten.
Ah, top!

Wat is ongeveer de release datum?

Ziet er echt goed uit man, mooi werk!

[ Voor 4% gewijzigd door Dennisik op 26-07-2013 22:07 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dat weet ik vanavond als het goed is, heb over een krap uur een online meeting met Jason. :)

Ik hoop morgen, kan ook zijn dat hij al aan het uploaden is. Voordat hij ook echt beschikbaar is kan nog een aantal uur na het uploaden zijn doordat de databases moeten worden bijgewerkt en hij (en ik) meestal een laatste test doen voor het online gooien.

offtopic:
Een beetje humor mag af en toe wel, dus hier een plaatje waar de release mij om doet denken: D3 Servers Online. >:)

Acties:
  • 0 Henk 'm!
Ik moet eerlijk zeggen dat ik niet (meer) zo sta te trappelen. Ik draai nu op een test NAS (in mijn eigen test Active Directory) NAS4Free en dat bevalt eigenlijk uitstekend. Een hoop kritiek die ik hier en daar lees vind ik eerlijk gezegd wel meevallen.

Enige echte nadeel is dat het geen Root-on-ZFS doet, maar in een VM is dat weer minder erg. Maar op mijn eigen fysieke server zou ik dat wel graag willen.

Verder vind ik het configuratie-in-een-database concept helemaal niet slecht, het werkt eigenlijk prima,en je kan meteen zien of je missende disks hebt, waar je dat bij ZFSGuru bijvoorbeeld alleen maar kan zien als ZFS dat zegt. Een single disk zou je dus niet missen in je webconfig, terwijl NAS4Free dat verschil wel ziet omdat hij een database aanlegt met disks.

Nadeel daar van is dus dat je die database soms handmatig moet synchroniseren. Maar ja, als je weinig veranderd heb je daar ook weer geen last van.

Even niets...


Acties:
  • 0 Henk 'm!

  • Mauser.NET
  • Registratie: Juli 2007
  • Laatst online: 13-10 10:54
Verwijderd schreef op vrijdag 26 juli 2013 @ 22:35:
Dat weet ik vanavond als het goed is, heb over een krap uur een online meeting met Jason. :)

Ik hoop morgen, kan ook zijn dat hij al aan het uploaden is. Voordat hij ook echt beschikbaar is kan nog een aantal uur na het uploaden zijn doordat de databases moeten worden bijgewerkt en hij (en ik) meestal een laatste test doen voor het online gooien.
Spannend hoor :P

Ik heb nu beta8 draaien via Root-on-ZFS. Kan ik straks beta9 hier gewoon naast installeren en dan kiezen welke ik wil booten?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@Mauser.NET: klopt helemaal. Je kunt straks via System->Install gewoon de nieuwe versie (9.1-006) installeren en die wordt automatisch actief als je reboot. Wil je later weer terug, dan kun je via System->Booting de oude versie activeren en dan boot je weer in de 9.1-005 installatie.

@FireDrunk: ieder ZFS project heeft zijn eigen sterke punten en zwakheden. Bij ZFSguru is dat ongetwijfeld de beperkte features en fluctuerende vooruitgang, bij andere projecten zijn het de legacy structuren die veel issues en beperkingen met zich meebrengen, gekoppeld met nerdy interfaces die niet iedereen werkend kan krijgen. Het is altijd een afweging welk project op dit moment het beste voor je is; net zoals AMD vs. Intel lange tijd een afweging was. Sommige mensen blijven loyaal ook al is hun keuze op dat moment minder een hoogvlieger dan de concurrentie. Maar je ziet ook wel dat Intel na Conroe weer meer marktaandeel kreeg. Kortom, alles gaat met een vertraging maar je ziet wel degelijk verschuivingen.

Persoonlijk vind ik FreeNAS en NAS4Free wel heel compleet en professioneler dan ZFSguru, maar mist het de vernieuwende architectuur en kent het veel beperkingen en legacy-achtige structuur die ZFSguru niet heeft. Bovendien is de interface niet altijd gebruikersvriendelijk. Het rebelse karakter en unieke interface van ZFSguru was voor mij de reden om hieraan mee te werken. Zolang je de keuze hebt om te migreren van project A naar B zie ik het probleem niet zo. Draai gewoon wat je fijn vindt en wat goed werkt voor jou.

Acties:
  • 0 Henk 'm!

  • Mauser.NET
  • Registratie: Juli 2007
  • Laatst online: 13-10 10:54
Ik heb eerst FreeNAS een tijdje gebruikt, toen NAS4Free een paar maanden en nu sinds een paar weken ZFSguru. Natuurlijk zijn de eerste twee wat volwassener en hebben op dit moment meer opties in de webgui, maar dat weegt voor mij gewoon niet op tegen de Root-on-ZFS functie in ZFSguru en dat het een complete ongestripte FreeBSD is. Juist daarom vind ik het ook heel fijn dat ZFSguru géén gebruik maakt van een aparte db voor de configuratie. Nu kan ik ook lekker via de CLI werken zonder dat de webgui dan out of sync loopt.

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op vrijdag 26 juli 2013 @ 22:35:
Dat weet ik vanavond als het goed is, heb over een krap uur een online meeting met Jason. :)

Ik hoop morgen, kan ook zijn dat hij al aan het uploaden is. Voordat hij ook echt beschikbaar is kan nog een aantal uur na het uploaden zijn doordat de databases moeten worden bijgewerkt en hij (en ik) meestal een laatste test doen voor het online gooien.

offtopic:
Een beetje humor mag af en toe wel, dus hier een plaatje waar de release mij om doet denken: D3 Servers Online. >:)
Top!

Ik zal van de week eens huidige ZFSguru upgraden. Even weekje testen in VMware om te kijken hoe het bevalt. Zo te lezen kan je dat doen naast je huidige versie, neemt nieuwe boot image dan ook alle programma's over of dat moet weer opnieuw geïnstalleerd worden?

Kan de gene die een raidz1 heeft met 2TB eens zijn output posten hoeveel GB die daadwerkelijk vrij heeft, twijfel tussen 6x2TB of 7x2TB voor raidz1, heb nu ongeveer 7,5TB aan data staan.

[ Voor 9% gewijzigd door Dennisik op 27-07-2013 02:03 ]


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Missing feature: Email notifications upon degraded/failed pool.

Dat is wel jammer, dat deze functie er nog niet is. Ik las wel ergens dat Nagios erop kan, kan nagios dan deze taak overnemen?

Nog moeilijk zat een OS kiezen.

Dedup is een mooie optie van ZFS zo te zien, al kost dit veel geheugen.
Heb nu 4GB en pool zal wss 10TB worden met 95% aan media bestanden.
Als ik berekeningen hiervoor lees, zijn SSD's dan verstandiger.

Kan ik dedup ook gebruiken met SSD's? Dan kan ik ook 2x32GB SSD aanschaffen voor ZIL en L2ARC
Dedup kan zo te zien met L2ARC, kost zo te lezen ook veel CPU power. Heb 'maar' een G530.
Dit is huidige setup: gallery: Dennisik

Al las ik een tijd terug dat als je veel media bestanden opslaat, L2ARC niet het meeste eruit gaat halen. Mijn data zal voor 95% aan media bestanden bestaan.

pricewatch: Sandisk ReadyCache Solid State Drive 32GB
Deze kan ik dan aansluiten op een Highpoint 620 met 2x600 sata aansluiting.

[ Voor 78% gewijzigd door Dennisik op 27-07-2013 03:41 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Een vraagje voor mijn toekomstige build rond de pricewatch: ASRock B75 Pro3-M :

Ik zou graag wat functies combineren omdat de NAS niet continu in gebruik zal zijn, dus ik had graag een ESXi-tje gedraaid. Nu wil ik wel ZFS ten volle benutten, dus dan wou ik via Passthrough de zes schijven via de onboard controller rechtstreeks doorgeven aan een OS zoals FreeNAS, ZFSguru of NAS4Free. Geeft dit enige prestatienadelen en is het uberhaupt mogelijk ? ESXi plaats ik op een USB-stick in dit geval.

Ik heb momenteel het volgende gepland:
- pricewatch: ASRock B75 Pro3-M
- pricewatch: Intel Pentium G2020 Boxed (geen VT-d)
of
- pricewatch: Intel Core i5 3330 Boxed (wel VT-d)
- pricewatch: Crucial Ballistix Sport BLS2C4G3D1609ES2LX0CEU

Alhoewel ik ook voor de Haswell versie kan gaan van bovenstaande setup, maar dan met 2 SATA-poorten minder:
- pricewatch: ASRock B85M Pro4
- pricewatch: Intel Core i5 4430 Boxed
Dus dan ben ik sowieso aangewezen op een extra controller voor meer disks, maar mijn case heeft sowieso maar plek voor max 7-8 schijven. Dus eventueel een goedkoop 2-port HBA'tje daarvoor.

Voor de CPU zit ik in dubio, het kost 100€ meer voor eentje met VT-d support, maar ik denk dat er geen andere mogelijkheid is als ik naast een ZFS-NAS OS ook nog één of twee andere Linux OS'en wil draaien.

[ Voor 22% gewijzigd door Phuncz op 27-07-2013 10:14 ]


Acties:
  • 0 Henk 'm!
Je hebt een tweede controller nodig voor ESXi zelf. Je kan ESXi wel van USB stick draaien, maar geen vm's.

Even niets...


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat was ik inderdaad wel van plan, maar had het niet gemeld, zal mijn post aanpassen !

Acties:
  • 0 Henk 'm!
Wat is nou je vraag? Of je je controller kan doorgeven aan een NAS4Free VM en of dat traag is? Nee hoor, niet als je er de goede hardware tegenover zet.

ZFS zelf is niet bijzonder zwaar, het wil alleen graag veel geheugen. Qua CPU hou je zeker over als je een 3330 neemt, en met een G2020 ook nog wel. Dus 2 Linux VM's er naast moet prima kunnen.

Even niets...


Acties:
  • 0 Henk 'm!

  • Mauser.NET
  • Registratie: Juli 2007
  • Laatst online: 13-10 10:54
Je kan het natuurlijk niet helemaal vergelijken met ESXi, maar ik heb ZFSguru als main OS draaien en daarin een paar VMs op VirtualBox.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Voornamelijk of er een alternatief is om niet aan de VT-d te moeten voor ZFS te hebben onder een VM-hypervisor.

Mauser.NET haalt al VirtualBox aan, maar daar heb ik helemaal geen ervaring of kennis mee. Ik draai een aantal applicaties waar ik geen omkijk naar wil hebben en die stabiel moeten draaien, ook nadat ik de hypervisor reboot. Ik weet hoe dit in VMware moet en dat het kan aangezien men dat zelfs in productie zeer extensief draait. Maar ik heb geen ervaring met VirtualBox dus :)

Acties:
  • 0 Henk 'm!
Als ze echt zo kritisch zijn, zou ik twee machines maken...

Even niets...


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het is zeker niet mission-critical, anders kocht ik niet low-end consumer hardware :)
Maar ik vraag me af of die 160€ extra kosten voor VT-d support de moeite is om via ESXi te gaan, omdat ik sterk wisselende verhalen lees over VirtualBox.

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Phuncz schreef op zaterdag 27 juli 2013 @ 12:15:
Het is zeker niet mission-critical, anders kocht ik niet low-end consumer hardware :)
Maar ik vraag me af of die 160€ extra kosten voor VT-d support de moeite is om via ESXi te gaan, omdat ik sterk wisselende verhalen lees over VirtualBox.
Voor minder dan 160€ moet VT-d wel haalbaar zijn
Niks gezegd, 160 is inderdaad de goedkoopste VT-d processor. Het is in mijn ogen wel aan te raden, zeker als je ZFS in een VM wilt stoppen.

[ Voor 11% gewijzigd door Dennisik op 27-07-2013 12:23 ]


Acties:
  • 0 Henk 'm!

  • Mystic Spirit
  • Registratie: December 2003
  • Laatst online: 10-10 22:13

Mystic Spirit

PSN: mr_mysticspirit

Ik ben sinds kort wat aan het testen met ZFS op mijn ESXi server met vt-d en een IBM serveraid naar IT mode geflashed.

Nu ben ik aan het testen met ZFSGuru, maar krijg het niet voor elkaar om te booten van de pool na een zfs-on-root install. De embeded installatie die mijn voorkeur zou hebben als die alles zou onthouden, maar zoals in de interface staat doet doet die het nog niet.

Wie heeft er ervaring met ZFSGuru installen onder ESXi en kan mij een stapje verder helpen?

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Mystic Spirit schreef op zaterdag 27 juli 2013 @ 13:02:
Ik ben sinds kort wat aan het testen met ZFS op mijn ESXi server met vt-d en een IBM serveraid naar IT mode geflashed.

Nu ben ik aan het testen met ZFSGuru, maar krijg het niet voor elkaar om te booten van de pool na een zfs-on-root install. De embeded installatie die mijn voorkeur zou hebben als die alles zou onthouden, maar zoals in de interface staat doet doet die het nog niet.

Wie heeft er ervaring met ZFSGuru installen onder ESXi en kan mij een stapje verder helpen?
Had donderdag nog ZFSguru geinstalleerd met zfs-on-root install, deze deed het prima op ESXi 5.1.

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Je kan met 5x2TB en 1x3TB toch netjes een pool van 6x2TB in raidz1 maken,
waarbij je van de 3TB gewoon 1 TB vrij houd waar je nog mee kan spelen?

Acties:
  • 0 Henk 'm!

  • Mystic Spirit
  • Registratie: December 2003
  • Laatst online: 10-10 22:13

Mystic Spirit

PSN: mr_mysticspirit

Dennisik schreef op zaterdag 27 juli 2013 @ 13:04:
[...]

Had donderdag nog ZFSguru geinstalleerd met zfs-on-root install, deze deed het prima op ESXi 5.1.
Had je die dan op je pool die via een controler met VT-D doorgegeven was staan, of had je die op virtual disks?

Ik krijg de melding "no operating system"

Acties:
  • 0 Henk 'm!

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 22:10
Phuncz schreef op zaterdag 27 juli 2013 @ 12:15:
Het is zeker niet mission-critical, anders kocht ik niet low-end consumer hardware :)
Maar ik vraag me af of die 160€ extra kosten voor VT-d support de moeite is om via ESXi te gaan, omdat ik sterk wisselende verhalen lees over VirtualBox.
Vraag je eigenlijk niet of je voor die 160 euro (of ietsje erboven) niet beter een klein apart esxi servertje kan opzetten? Die kan dan zonder vt-d en heb je het voordeel dat als aan het klooien bent met vm's je storage iig blijft draaien.

- raid does not fix stupid -


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Mystic Spirit schreef op zaterdag 27 juli 2013 @ 13:21:
[...]

Had je die dan op je pool die via een controler met VT-D doorgegeven was staan, of had je die op virtual disks?

Ik krijg de melding "no operating system"
Ik heb 4x75GB SAS in raid 10 staan, dat is een datastore op de ESXi node.

Ik heb iso op datastore gegooid, VM aangezet en dan iso gemound. Je krijgt dan als goed is nog een no operating system, dat is omdat die eerst via het netwerk zoekt dacht ik. Druk daarna op enter en hij gaat door naar de ISO.

Acties:
  • 0 Henk 'm!
Mystic Spirit schreef op zaterdag 27 juli 2013 @ 13:21:
[...]

Had je die dan op je pool die via een controler met VT-D doorgegeven was staan, of had je die op virtual disks?

Ik krijg de melding "no operating system"
Je kan niet booten van een controller die via VT-d is doorgegeven (onder ESXi). Je zult een vDisk toe moeten voegen en daar ZFSGuru op moeten installeren.

Even niets...


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Patatjemet schreef op zaterdag 27 juli 2013 @ 13:29:
[...]


Vraag je eigenlijk niet of je voor die 160 euro (of ietsje erboven) niet beter een klein apart esxi servertje kan opzetten? Die kan dan zonder vt-d en heb je het voordeel dat als aan het klooien bent met vm's je storage iig blijft draaien.
Op zich ook een oplossing want ik heb nog een dual-core Atom met 2GB RAM liggen, maar ik was wel gecharmeerd voor de snelheid van het interne netwerk als ZFS-NAS OS en de servertjes binnen ESXi communiceren.

Acties:
  • 0 Henk 'm!
Een Atom wil je niet met ZFS, zijn bijna allemaal 32bit en kunnen max 4GB geheugen aan. En ZFS lust graag iets meer...

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Ik wil graag volgende week overstappen naar ZFSguru, maar heb nog een aantal vragen over SSD caching.
ZFS zal vooral veel media bestanden opslaan, ik lees daarbij dat ZIL, L2ARC en Dedup daar niet het meest geschikt voor zijn. Toch lijkt mij het zeer leuk om SSD's aan te schaffen, zodat ik hiermee kan experimenteren (Dat kan als het goed is live op je pool, aan te raden is wat anders)

Misschien dat ik hem later ook met 2x of 4x1GB eth ga gebruiken als ISCSi target voor ESXi, maar dat is helemaal lange termijn.

Dedup wordt verplaatst naar L2ARC ipv RAM, ZIL wordt raid1, L2ARC wordt raid0 en dan root filesystem wordt ook raid1.

Ik zat eerst naar deze schijven te kijken: pricewatch: Sandisk ReadyCache Solid State Drive 32GB maar vroeg mij af of de performance daar genoeg voor is om er serieus wat van te merken.

Nu klik ik verder en kom ik deze tegen.
pricewatch: Adata S511 60GB
Kwa specs zo te zien zeer goed, ruimte meer dan zat.

Nu lees ik alleen als L2ARC te groot wordt, dat RAM mee moet groeien.
Er zit nu maar 4GB ram in en een G530.

Ik neig naar de Adata 2x. Geinsperieerd hierdoor:
FireDrunk in "Het grote ZFS topic"

Dan doe ik
root = 2x10GB RAID1
zil = 2x10GB RAID1
L2ARC = 2x40GB RAID0

Zo heeft ZIl volgens mij al veel te veel, maar L2ARC of root heeft niet meer nodig.
Is dit een verstandige keuze en is 4GB ram hiervoor geschikt, of heeft het meer nodig?
Is mijn CPU van G530 hiervoor nog geschikt, of is een krachtigere aan te raden?

[ Voor 8% gewijzigd door Dennisik op 27-07-2013 14:04 ]


Acties:
  • 0 Henk 'm!
L2ARC RAID0 is helemaal niet nodig, je kan gewoon 2 L2ARC devices toevoegen, ZFS regelt zelf de verdeling.

En kies alsjeblieft voor fatsoenlijke SSD's (Intel 320, Crucial M500 of Seagate 600 Pro) met Powercaps, of neem een UPS.

Het risico als je dat niet doet is dat je bij power failure (tot maximaal) een aantal minuten aan data kwijt raakt, en de kans dat bijvoorbeeld iSCSI images daardoor corrupt zijn (vanwege missende NTFS writes).

Als je niet super veel belangrijke data op je pool zet (films en meuk die je opnieuw kan downloaden) is het een aanvaardbaar risico ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Die Sandiskjes heb ik hier ook een tijd gehad en werkten goed. Ik heb ze echter weggegeven aan familieleden omdat ik ze onterecht de schuld gaf van stabiliteitsissues met ZFS on Linux. (Lang verhaal kort: de kernel daarbij was een beetje kapoet)

In principe leveren ze genoeg performance, maar die Sandisk dingen zijn echt puur geschikt als L2ARC. Voor ZIL wil je een kwaliteits SSD hebben. CiPHER gooit hier waarschijnlijk zo wel zijn SSD blog neer, maar heel simpel gezegd wil je een SSD hebben die uitvallende stroom fatsoenlijk kan afhandelen. De enige opties hiervoor zijn op dit moment de Intel 320 (relatief oud), Crucial M500 en de gloednieuwe Seagate 600 Pro. En tsja, als je tóch al zo'n SSD hebt kun je die natuurlijk net zo goed meteen óók gebruiken voor je L2ARC :P

[ Voor 0% gewijzigd door Xudonax op 27-07-2013 14:18 . Reden: FireDrunk heeft natuurlijk weer gelijk :P ]


Acties:
  • 0 Henk 'm!
Je bedoelt de Seagate 600 Pro ;)

http://tweakers.net/product/329912/seagate-600-pro/

De specs in de PW kloppen trouwens niet, die dingen halen wel hogere snelheden dan daar staat...

[ Voor 36% gewijzigd door FireDrunk op 27-07-2013 14:14 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
FireDrunk schreef op zaterdag 27 juli 2013 @ 14:09:
L2ARC RAID0 is helemaal niet nodig, je kan gewoon 2 L2ARC devices toevoegen, ZFS regelt zelf de verdeling.

En kies alsjeblieft voor fatsoenlijke SSD's (Intel 320, Crucial M500 of Seagate 600 Pro) met Powercaps, of neem een UPS.

Het risico als je dat niet doet is dat je bij power failure (tot maximaal) een aantal minuten aan data kwijt raakt, en de kans dat bijvoorbeeld iSCSI images daardoor corrupt zijn (vanwege missende NTFS writes).

Als je niet super veel belangrijke data op je pool zet (films en meuk die je opnieuw kan downloaden) is het een aanvaardbaar risico ;)
Ah true, dat bedoel ik.

Dat risico wil ik wel aanvaren, VM's komen eerst op een ander ISCSi target. Wil eerst even heel het netwerk omschoppen.

Ik vraag mij alleen sterk af, is 4GB voldoende voor de hoeveelheid L2ARC? Als je te weinig hebt, kan je daardoor problemen krijgen. Die vermijd ik liever.
Xudonax schreef op zaterdag 27 juli 2013 @ 14:10:

Die Sandiskjes heb ik hier ook een tijd gehad en werkten goed. Ik heb ze echter weggegeven aan familieleden omdat ik ze onterecht de schuld gaf van stabiliteitsissues met ZFS on Linux. (Lang verhaal kort: de kernel daarbij was een beetje kapoet)

In principe leveren ze genoeg performance, maar die Sandisk dingen zijn echt puur geschikt als L2ARC. Voor ZIL wil je een kwaliteits SSD hebben. CiPHER gooit hier waarschijnlijk zo wel zijn SSD blog neer, maar heel simpel gezegd wil je een SSD hebben die uitvallende stroom fatsoenlijk kan afhandelen. De enige opties hiervoor zijn op dit moment de Intel 320 (relatief oud), Crucial M500 en de gloednieuwe Seagate M600. En tsja, als je tóch al zo'n SSD hebt kun je die natuurlijk net zo goed meteen óók gebruiken voor je L2ARC :P
Hehe, ja power failure komt mij bekend voor maar dat is voor wat media data niet de moeite waard.
Liefst koop ik ook 2x een M500, maar heb daar nu geen zin om dat eraan uit te geven.

Nu staat Ubuntu met LVM te draaien, en heel plat gezegd als ik dalijk veranderd naar ZFS zal het streamen van media niet beter gaan. Wil de SSD voornamelijk om ermee te kunnen spelen en performance halen waar het kan. Maar niet ten koste van 150 per SSD, vind eigenlijk 50 euro per SSD nu wel even de max.

Bedankt iig voor de snelle antwoorden!

Acties:
  • 0 Henk 'm!
Waarom zou 4GB L2ARC je in de problemen brengen? Je wil toch geen dedup?

[ Voor 5% gewijzigd door FireDrunk op 27-07-2013 14:23 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
FireDrunk schreef op zaterdag 27 juli 2013 @ 14:19:
Waarom zou 4GB L2ARC je in de problemen brengen? Je wil toch geen dedup?
Vanwege het gene wat je schreef:
"Voor L2ARC geld meestal hoe meer hoe beter, maar bedenk je wel dat je meer geheugen gebruik krijgt door het gebruik van L2ARC. ZFSGuru berekend van te voren ook netjes hoeveel meer geheugen je nodig hebt. Wordt dit meer dan 50% van het geheugen dat de machine uberhaupt heeft, is er een kans dat je dit in sequentiele transfers gaat zien"
Dedup zou ik opzich wel willen aanzetten, alle winst is mooi mee genomen als dat maar niet ten koste gaat van het RAM geheugen. Vandaar ook de SSD's voor L2ARC.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

FireDrunk schreef op zaterdag 27 juli 2013 @ 13:41:
Een Atom wil je niet met ZFS, zijn bijna allemaal 32bit en kunnen max 4GB geheugen aan. En ZFS lust graag iets meer...
Die Atom bedoelde ik voor VMware ESXi voor een paar basis Linux servers. Echter als ik de beperkte hoeveelheid ervaringen vind mbt. de hardware van dat toestel, betwijfel ik of het wel een goed idee is. Het zit recht aan de minimum systeemeisen van ESXi 5.x.

Acties:
  • 0 Henk 'm!
Dennisik schreef op zaterdag 27 juli 2013 @ 14:28:
[...]


Vanwege het gene wat je schreef:
[...]
Dedup zou ik opzich wel willen aanzetten, alle winst is mooi mee genomen als dat maar niet ten koste gaat van het RAM geheugen. Vandaar ook de SSD's voor L2ARC.
Oh zo, ik dacht dat je bedoelde om maar 4GB L2ARC te gaan gebruiken.

Er zwerven ergens tabellen rond hoeveel dat is, en ZFSGuru rekent het ook voor je uit, het zal niet meer dan een paar honderd MB zijn, maar dat gaat al af van een hoeveelheid die eigenlijk te weinig is (4GB).

Liever even naar 8GB upgraden...
Phuncz schreef op zaterdag 27 juli 2013 @ 14:39:
[...]

Die Atom bedoelde ik voor VMware ESXi voor een paar basis Linux servers. Echter als ik de beperkte hoeveelheid ervaringen vind mbt. de hardware van dat toestel, betwijfel ik of het wel een goed idee is. Het zit recht aan de minimum systeemeisen van ESXi 5.x.
Buiten dat wil je tegenwoordig 64bit machines, en zonder VT-x extensie kan je geen 64 bit virtualiseren.

[ Voor 27% gewijzigd door FireDrunk op 27-07-2013 14:43 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
FireDrunk schreef op zaterdag 27 juli 2013 @ 14:43:
[...]

Oh zo, ik dacht dat je bedoelde om maar 4GB L2ARC te gaan gebruiken.

Er zwerven ergens tabellen rond hoeveel dat is, en ZFSGuru rekent het ook voor je uit, het zal niet meer dan een paar honderd MB zijn, maar dat gaat al af van een hoeveelheid die eigenlijk te weinig is (4GB).

Liever even naar 8GB upgraden...


[...]


Buiten dat wil je tegenwoordig 64bit machines, en zonder VT-x extensie kan je geen 64 bit virtualiseren.
Mijn L2ARC wordt 2x40GB dus 80GB totaal.

Ik ga hem denk maar inderdaad even upgraden naar 8GB of 12GB.

Acties:
  • 0 Henk 'm!

  • Mystic Spirit
  • Registratie: December 2003
  • Laatst online: 10-10 22:13

Mystic Spirit

PSN: mr_mysticspirit

FireDrunk schreef op zaterdag 27 juli 2013 @ 13:39:
[...]


Je kan niet booten van een controller die via VT-d is doorgegeven (onder ESXi). Je zult een vDisk toe moeten voegen en daar ZFSGuru op moeten installeren.
Dennisik schreef op zaterdag 27 juli 2013 @ 13:30:
[...]

Ik heb 4x75GB SAS in raid 10 staan, dat is een datastore op de ESXi node.

Ik heb iso op datastore gegooid, VM aangezet en dan iso gemound. Je krijgt dan als goed is nog een no operating system, dat is omdat die eerst via het netwerk zoekt dacht ik. Druk daarna op enter en hij gaat door naar de ISO.
Ik ben er inmiddels uit. Heb een root-on-zfs install op de vDisk. Vraag me nog wel af of dat verstandig is, gezien er veel aangegeven wordt dat ZFS en vDisks niet goed samen gaan.

Acties:
  • 0 Henk 'm!
Klopt, maar voor je root partitie scheelt dat weinig, in het ergste geval raakt die corrupt en herinstalleer je ZFSGuru en kan je je pool gewoon weer importeren.

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Mmh, dit is jammer.

Ik wou deze 2x bestellen: pricewatch: Adata S511 60GB

Maar de Highpoint rocket waar ik ze op aan wou sluiten heeft maar een throughput van 500MB/s.
En moederbord heeft maar 1 Sata600.

Dat wordt dus 1 op het moederbord en 1 op de controller naast een 2TB schijf.
Zal kwa performance hooguit 5% verliezen als ik ze in RAID0 zet, maar het blijft jammer.

Acties:
  • 0 Henk 'm!
Waarom ben je zo gebrand op RAID0? :S

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
FireDrunk schreef op zaterdag 27 juli 2013 @ 20:56:
Waarom ben je zo gebrand op RAID0? :S
Performance, vind het erg leuk om het maximale eruit te halen. :9
Misschien dat ik OS in RAID0 gooi voor performance en voor backup daarvan snapshots maak.

Zeer nutteloos, maar het blijft leuk :9

Acties:
  • 0 Henk 'm!
Tja, je OS gaat toch niets doen, beetje idlen de hele dag... Zet dan RAID0 in je desktop, daar heeft het (soms) tenminste nog zin...

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
FireDrunk schreef op zaterdag 27 juli 2013 @ 21:10:
Tja, je OS gaat toch niets doen, beetje idlen de hele dag... Zet dan RAID0 in je desktop, daar heeft het (soms) tenminste nog zin...
Je hebt helemaal gelijk. SSD's zijn besteld, nu nog even wat geheugen scoren en dan gaan we met ZFSguru spelen!

[ Voor 4% gewijzigd door Dennisik op 27-07-2013 21:25 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Met alle respect, maar als je performance wilt, moet je geen Sandforce bestellen. Voor L2ARC zul je het niet merken verder. Verder zijn je moederbord chipset poorten veel beter dan een Highpoint controller. Zolang die highpoint controller maar AHCI-compatible is, heb je wel TRIM overigens. Dat kun je simpelweg zien doordat je SSDs 'ada' heten.

Bedenk ook dat je een gedeelte niet kunt/wilt gebruiken als je je SSD als cache SSD gaat gebruiken; je wilt overprovisioning toepassen. Veel ruimte heb je overigens niet nodig; 40GiB als cache is eigenlijk al zat. Sandforce SSDs kun je niet als ZIL/SLOG schijf gebruiken; dat is niet veilig.

Persoonlijk raad ik deze SSD aan: pricewatch: Crucial 2.5" M500 120GB.

Geschikt voor SLOG, vele malen betrouwbaarder en goedkoper dan 2x60GB Sandforce SSDs. Bovendien past hij mooi op je ene SATA/600 poort. Als je je order nog kunt aanpassen/cancellen kun je dit overwegen.

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op zaterdag 27 juli 2013 @ 21:51:
Met alle respect, maar als je performance wilt, moet je geen Sandforce bestellen. Voor L2ARC zul je het niet merken verder. Verder zijn je moederbord chipset poorten veel beter dan een Highpoint controller. Zolang die highpoint controller maar AHCI-compatible is, heb je wel TRIM overigens. Dat kun je simpelweg zien doordat je SSDs 'ada' heten.

Bedenk ook dat je een gedeelte niet kunt/wilt gebruiken als je je SSD als cache SSD gaat gebruiken; je wilt overprovisioning toepassen. Veel ruimte heb je overigens niet nodig; 40GiB als cache is eigenlijk al zat. Sandforce SSDs kun je niet als ZIL/SLOG schijf gebruiken; dat is niet veilig.

Persoonlijk raad ik deze SSD aan: pricewatch: Crucial 2.5" M500 120GB.

Geschikt voor SLOG, vele malen betrouwbaarder en goedkoper dan 2x60GB Sandforce SSDs. Bovendien past hij mooi op je ene SATA/600 poort. Als je je order nog kunt aanpassen/cancellen kun je dit overwegen.
Controller is AHCI-compatible, link doet het btw niet.

Hoezo is Sansforce SSD niet veilig als ZIL/SLOG, dit vanwege power failure verhaal of dat ze niet SLC zijn?

Ik ben bekend met de problemen van Sandforce controllers, geldt dat ook bij deze specifieke sandforce controller? Dacht namelijk dat die problemen al tijdje terug zijn, na diverse test te lezen komen ze prima uit de bus.

Overprovisioning zal ik op letten, thanks!

Acties:
  • 0 Henk 'm!

  • mca2
  • Registratie: Augustus 2000
  • Laatst online: 01:49
Momenteel draait mijn NAS op FreeBSD 9.1 met een Athlon 3000+ en 4GB in een Gbit LAN. Hierin zitten zit een 200GB voor het besturingssysteem en 3 x 320GB voor mijn zpool in RAID-Z1 op onboard IDE controllers. Ik gebruik ZFS omdat ik redundantie wil van mijn NAS, ik ben niet zozeer opzoek naar enorme performance. De NAS wordt gebruikt als TimeMachine, opslag voor al mijn RAW foto's, waaruit Lightroom put, en diverse install files.

Omdat ik wat meer functionaliteit uit mijn HDHomerun wil halen (DVB-C tuners), zou ik graag TVHeadend installeren om mijn server maar zover ik kan zien, wil dat (nog) niet op FreeBSD. Ik overweeg dus (terug) te migreren naar Ubuntu maar zo graag mijn zpool willen behouden. Dit zou met een kernel module moeten kunnen http://zfsonlinux.org

Mijn vragen zijn dan ook:
1. is de performance van zfs onder ubuntu toereikend voor mijn doelen en met mijn hardware?
2. kan ik mijn huidige zpool eenvoudig migreren naar ubuntu?

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 27 juli 2013 @ 21:51:
Met alle respect, maar als je performance wilt, moet je geen Sandforce bestellen. Voor L2ARC zul je het niet merken verder. Verder zijn je moederbord chipset poorten veel beter dan een Highpoint controller. Zolang die highpoint controller maar AHCI-compatible is, heb je wel TRIM overigens. Dat kun je simpelweg zien doordat je SSDs 'ada' heten.

Bedenk ook dat je een gedeelte niet kunt/wilt gebruiken als je je SSD als cache SSD gaat gebruiken; je wilt overprovisioning toepassen. Veel ruimte heb je overigens niet nodig; 40GiB als cache is eigenlijk al zat. Sandforce SSDs kun je niet als ZIL/SLOG schijf gebruiken; dat is niet veilig.

Persoonlijk raad ik deze SSD aan: pricewatch: Crucial 2.5" M500 120GB.

Geschikt voor SLOG, vele malen betrouwbaarder en goedkoper dan 2x60GB Sandforce SSDs. Bovendien past hij mooi op je ene SATA/600 poort. Als je je order nog kunt aanpassen/cancellen kun je dit overwegen.
Volgens mij moet jij eens met Emile gaan praten over SSD's ;)
Ik begreep van hem dat de allernieuwste lading SandForce SSD's juist toppertjes waren.

(Bijvoorbeeld de nieuwe Intel 335 series...)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dennisik schreef op zaterdag 27 juli 2013 @ 22:18:
Hoezo is Sansforce SSD niet veilig als ZIL/SLOG, dit vanwege power failure verhaal of dat ze niet SLC zijn?
Sansforce (zonder kracht :P) is een onveilige SSD door het gebrek aan power-safe capacitors, wat slechts een aantal SSDs hebben, waaronder de Crucial M500. Voor L2ARC maakt dit niet uit; je kunt heel onveilige SSDs prima gebruiken als cache. Voor SLOG is dit echter zeer gevaarlijk. SLOG feature is sowieso gevaarlijk omdat je een cruciale bescherming uitschakelt; de hardeschijven zullen deze feature niet meer vervullen en daar zit hem dan ook de snelheidswinst. In plaats daarvan wordt de Intent Log op de SSD geplaatst. Als dit een onveilige SSD is (geen power-safe capacitors) dan heb je feitelijk geen werkende ZIL meer.
Ik ben bekend met de problemen van Sandforce controllers, geldt dat ook bij deze specifieke sandforce controller? Dacht namelijk dat die problemen al tijdje terug zijn, na diverse test te lezen komen ze prima uit de bus.
Ja reviews zijn altijd prachtig. Met allerlei zero-write benchmarks die gebruikt worden. Verder valt betrouwbaarheid zeer lastig te testen; dat doet vrijwel geen enkele reviewer.

De uitval zal lang niet zo slecht zijn als in het verleden. Maar het feit dat het een Sandforce is betekent wel lagere performance (88MB/s sequential write; lage 4K performance van 65MB/s; zie mijn hyperlink in het vorige bericht) en het gebrek aan power-safe capacitors, bovendien waarschijnlijk hogere kans op uitval. Gezien dat je nu meer uitgeeft voor minder opslag is dit wellicht niet de beste keus. Zolang je geen SLOG gebruikt maakt het niet veel uit, ga je wel SLOG gebruiken zou ik echt je keuze heroverwegen.

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op zaterdag 27 juli 2013 @ 22:26:
[...]

Sansforce (zonder kracht :P) is een onveilige SSD door het gebrek aan power-safe capacitors, wat slechts een aantal SSDs hebben, waaronder de Crucial M500. Voor L2ARC maakt dit niet uit; je kunt heel onveilige SSDs prima gebruiken als cache. Voor SLOG is dit echter zeer gevaarlijk. SLOG feature is sowieso gevaarlijk omdat je een cruciale bescherming uitschakelt; de hardeschijven zullen deze feature niet meer vervullen en daar zit hem dan ook de snelheidswinst. In plaats daarvan wordt de Intent Log op de SSD geplaatst. Als dit een onveilige SSD is (geen power-safe capacitors) dan heb je feitelijk geen werkende ZIL meer.


[...]

Ja reviews zijn altijd prachtig. Met allerlei zero-write benchmarks die gebruikt worden. Verder valt betrouwbaarheid zeer lastig te testen; dat doet vrijwel geen enkele reviewer.

De uitval zal lang niet zo slecht zijn als in het verleden. Maar het feit dat het een Sandforce is betekent wel lagere performance (88MB/s sequential write; lage 4K performance van 65MB/s; zie mijn hyperlink in het vorige bericht) en het gebrek aan power-safe capacitors, bovendien waarschijnlijk hogere kans op uitval. Gezien dat je nu meer uitgeeft voor minder opslag is dit wellicht niet de beste keus. Zolang je geen SLOG gebruikt maakt het niet veel uit, ga je wel SLOG gebruiken zou ik echt je keuze heroverwegen.
Maar zoals in de vorige pagina is gezegd, zolang het niet uitmaakt als je systeem uitvalt en je bent daarvan de laatste 3 minuten aan schrijfdata kwijt is het geen probleem om een niet power safe capacitors SSD te gebruiken?

De sandforce SF2281 heeft wel power safe capacitors als ik het zo doorlees.

Hyperlink werkt btw niet.

SLOG wil ik wel gaan gebruiken, maar L2ARC heeft meer prio omdat read cache meer gebruikt zal worden. Dan het cachen van metadata tijdens het schrijven. In eerste instantie.

[ Voor 4% gewijzigd door Dennisik op 27-07-2013 22:37 ]


Acties:
  • 0 Henk 'm!
BAM! HIER!

Soms voelt het echt goed om even iets te *hacken* :+

Afbeeldingslocatie: http://i39.tinypic.com/11bq0ec.png

NAS4Free met Root-on-ZFS.

Volgens mij ben ik de eerste die dat heeft ;), heb er veelvudig naar gegoogled, maar niemand had het nog.

Dan maar zelf doen...

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
FireDrunk schreef op zaterdag 27 juli 2013 @ 22:35:
BAM! HIER!

Soms voelt het echt goed om even iets te *hacken* :+

[afbeelding]

NAS4Free met Root-on-ZFS.

Volgens mij ben ik de eerste die dat heeft ;), heb er veelvudig naar gegoogled, maar niemand had het nog.

Dan maar zelf doen...
Nice, tof gedaan!

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
FireDrunk schreef op zaterdag 27 juli 2013 @ 22:25:
[...]

Volgens mij moet jij eens met Emile gaan praten over SSD's ;)
Ik begreep van hem dat de allernieuwste lading SandForce SSD's juist toppertjes waren.

(Bijvoorbeeld de nieuwe Intel 335 series...)
Dat is nice, deze hebben dezelfde controller als de Adata S511 60GB.

Beiden een SandForce SF-2281

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dennisik schreef op zaterdag 27 juli 2013 @ 22:35:
Maar zoals in de vorige pagina is gezegd, zolang het niet uitmaakt als je systeem uitvalt en je bent daarvan de laatste 3 minuten aan schrijfdata kwijt is het geen probleem om een niet power safe capacitors SSD te gebruiken?
Voor L2ARC geldt dat zeker, maar voor SLOG geldt dat niet. De ZIL is er juist om de recente schrijfacties op te slaan. Als dat niet lukt, heb je praktisch geen ZIL meer. Dus dan kun je net zo goed de ZIL uitschakelen en verlies je een hoop bescherming op je ZFS pool.
De sandforce SF2281 heeft wel power safe capacitors als ik het zo doorlees.
Er waren wat PCIe 'enterprise' SSDs op basis van Sandforce met powercaps, maar voor zover ik weet zijn er geen of vrijwel geen Sandforce SATA SSDs met powercaps. Waar lees je dat dit wel het geval zou zijn?
Hyperlink werkt niet.
Soms moet je eerst even naar de site toegang ivm hotlink protection. Maar zo dan maar:
https://www.google.com/se...-Review%252F5%3B513%3B511

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op zaterdag 27 juli 2013 @ 22:40:
[...]

Voor L2ARC geldt dat zeker, maar voor SLOG geldt dat niet. De ZIL is er juist om de recente schrijfacties op te slaan. Als dat niet lukt, heb je praktisch geen ZIL meer. Dus dan kun je net zo goed de ZIL uitschakelen en verlies je een hoop bescherming op je ZFS pool.


[...]

Er waren wat PCIe 'enterprise' SSDs op basis van Sandforce met powercaps, maar voor zover ik weet zijn er geen of vrijwel geen Sandforce SATA SSDs met powercaps. Waar lees je dat dit wel het geval zou zijn?


[...]

Soms moet je eerst even naar de site toegang ivm hotlink protection. Maar zo dan maar:
https://www.google.com/se...-Review%252F5%3B513%3B511
Ik probeerde naar de site toe te gaan, maar deze redirect mij naar http://ww2.jmkeoc.com/

Betreft die power capacitor lees ik verkeerd, ik zoek de datasheet van die controller.

Als dat niet lukt, is in het geval van een power failure?. Ik las in de vorige versies dat het zomaar uittrekken van je ZIL/SLOG SSD je ZFS pool in gevaar kan brengen, maar dat dit sinds V28 is opgelost.

Heeft het niet inderdaad, excuses voor de verwarring:
http://content.hwigroup.n...andforce-sf2000-groot.jpg

Als server uitvalt, zeer kleine kans en dat daarmee de laatste 10 minuten aan schrijfacties weg zijn maar mijn raidz1 pool gewoon nog intact is, dan is dat mijn kleinste probleem. Als dat als ware je enige punt van kritiek is, neem ik die voor lief. :9

Waardeer uiteraard je commentaar en alle overige punten neem ik van harte mee!

[ Voor 17% gewijzigd door Dennisik op 27-07-2013 22:56 ]


Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 11-10 19:46

mux

99% efficient!

FireDrunk schreef op zaterdag 27 juli 2013 @ 22:25:
[...]

Volgens mij moet jij eens met Emile gaan praten over SSD's ;)
Ik begreep van hem dat de allernieuwste lading SandForce SSD's juist toppertjes waren.

(Bijvoorbeeld de nieuwe Intel 335 series...)
Mwoh, zo zwart-wit is het nou ook weer niet. Ja, ik zou zeggen dat een Intel Sandforce-based SSD best een plek zou kunnen hebben als ZIL, ware het niet dat ze bijna even duur zijn als battery-backed SSDs die fundamenteel nog net iets beter zijn voor die functie. Op een array van €1000+ aan HDDs en €400+ aan NICs weet ik niet hoe nuttig het is om te besparen op je ZIL. Daarnaast: SF-2281 is inmiddels echt een oude controller die niet meer kan meekomen met de concurrentie.

In het algemeen: Sandforce is geniale techniek, maar buiten Intel om vertrouw ik SSD-makers niet zo erg met SF, alleen Intel heeft grote tamtam gemaakt rondom hun idiote hoeveelheid validatie. En ik zou geen enkele SF drive vertrouwen die op OCZ-generatie firmware loopt.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dennisik schreef op zaterdag 27 juli 2013 @ 22:43:
Als dat niet lukt, is in het geval van een power failure?. Ik las in de vorige versies dat het zomaar uittrekken van je ZIL/SLOG SSD je ZFS pool in gevaar kan brengen, maar dat dit sinds V28 is opgelost.
Sinds V19 ja. Praktisch V28 omdat FreeBSD van v15 naar v28 is gegaan.

Maar een ZIL is ook niet strict noodzakelijk voor ZFS. Ook zonder ZIL blijft de pool zelf intact. Wel verlies je hiermee de historie; als je niet veel writes hebt gedaan kan dit betekenen dat je pool ver in het verleden terug gaat. Als je een pool een jaar lang niet gebruikt en dan na booten gelijk een unclean shutdown hebt, dan verlies je dus data tot een jaar terug.
Als server uitvalt, zeer kleine kans en dat daarmee de laatste 10 minuten aan schrijfacties weg zijn maar mijn raidz1 pool gewoon nog intact is, dan is dat mijn kleinste probleem. Als dat als ware je enige punt van kritiek is, neem ik die voor lief. :9
Draaien zonder een ZIL is niet erg bevorderlijk. Als je SSD geen power-caps heeft, betekent het in feite dat je geen ZIL draait. Dan hoef je de SSD ook niet als SLOG te gebruiken en kun je in de /boot/loader.conf de ZIL gewoon uitschakelen. Ik raad dit niet aan, maar als je Sandforce of andere onbeveiligde SSDs als SLOG gaat gebruiken komt dit op hetzelfde neer.

Het punt van mijn kritiek is dat je keuze voor 2x Sandforce 60GB SSDs op vrijwel alle punten inferieur is aan één keer Crucial M500 120GB. Qua performance is het minder, qua betrouwbaarheid is het flink slechter en het is tevens duurder. Dus je kunt het ook omdraaien: waarom zou je wél deze oplossing willen? Je kunt denk ik echt veel beter je order wijzigen naar 1x Crucial M500 120GB en die lekker op je chipset SATA draaien dat is sowieso sneller dan via zo'n Highpoint kaartje wat via PCIe x1 werkt en daardoor een hogere latency zal hebben dan je chipset SATA poort.
mux schreef op zaterdag 27 juli 2013 @ 23:08:
Mwoh, zo zwart-wit is het nou ook weer niet. Ja, ik zou zeggen dat een Intel Sandforce-based SSD best een plek zou kunnen hebben als ZIL
Waarom dan? Het hele nut van een ZIL is dat bij onverwacht stroomfalen je informatie over de meeste recente (sync) writes hebt. Als je SSD geen powercaps heeft, verlies je deze functie. Je ZIL is niets waard als deze niet de meest recente informatie kan leveren in een situatie als deze. Dat komt neer op het uitschakelen van de ZIL.
ware het niet dat ze bijna even duur zijn als battery-backed SSDs die fundamenteel nog net iets beter zijn voor die functie. Op een array van €1000+ aan HDDs en €400+ aan NICs weet ik niet hoe nuttig het is om te besparen op je ZIL. Daarnaast: SF-2281 is inmiddels echt een oude controller die niet meer kan meekomen met de concurrentie.
Dus wat is dan precies het punt om voor 2x Sandforce SSDs te gaan als dit op vrijwel alle punten slechter is voor dennisik:
  • lagere performance
  • slechtere betrouwbaarheid
  • ongeschiktheid voor SLOG feature
  • duurder qua aanschaf
  • maakt gebruik van 2 SATA poorten, waardoor hij min of meer gedwongen is de SSD op zijn Highpoint kaartje te gebruiken; dit verhoogt de latency ook weer wat ook weer performanceverlagend werkt, terwijl een enkele SATA poort op SATA/600 geleverd door de chipset juist perfect zou zijn voor een enkele Crucial M500 120GB
Kortom, is een M500 120GB niet op alle vlakken een betere keuze voor dennisik? Of ben ik nou bevooroordeeld zoals sommigen vinden? :)
In het algemeen: Sandforce is geniale techniek, maar buiten Intel om vertrouw ik SSD-makers niet zo erg met SF, alleen Intel heeft grote tamtam gemaakt rondom hun idiote hoeveelheid validatie. En ik zou geen enkele SF drive vertrouwen die op OCZ-generatie firmware loopt.
Mee eens. De Quality Assurance van Intel is enorm goed. Dat is voornamelijk ook wel de reden dat Intel lagere uitval heeft. Toch is ook de uitval van Intel verdubbeld sinds ze aan de Sandforce SSDs zijn gegaan. Toch erg jammer vind ik. Maar de SSD discussie over Sandforce voeren we wel een andere keer; ik ben nog bezig met een blogpost dus wellicht kunnen we de discussie daar voortzetten. :)

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
CiPHER, je hebt met deze mooie post mij overgehaald!

Order is geannuleerd, ik zal mij eens verdiepen in de M500. Grote kans dat, dat hem wordt.
Eens kijken hoe ik die 120GB het mooiste kan verdelen, zo te zien heb ik dan redelijk wat ruimte over voor L2ARC als root maar hooguit 5GB nodig heeft en ZIL circa 4 tot 8GB.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Another soul saved! oOo *O* oOo

Mooie indeling zou kunnen zijn:
  • 32GB partitie voor boot/systeem voor ZFSguru (booten van je SSD is leuker, bedenk wel hoeveel data je services kunnen opslaan, al kun je dit ook op je HDD pool overschakelen)
  • 60GB partitie voor L2ARC
  • 4GB partitie voor SLOG
De rest (24GB) laat je dan over als overprovisioning. Wil je dat helemaal goed doen, dan maak je je L2ARC partitie slechts 50GB of zelfs 40GB. 40GB is al behoorlijk qua L2ARC cache.

Acties:
  • 0 Henk 'm!

  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
Verwijderd schreef op zaterdag 27 juli 2013 @ 23:50:
Maar een ZIL is ook niet strict noodzakelijk voor ZFS. Ook zonder ZIL blijft de pool zelf intact. Wel verlies je hiermee de historie; als je niet veel writes hebt gedaan kan dit betekenen dat je pool ver in het verleden terug gaat. Als je een pool een jaar lang niet gebruikt en dan na booten gelijk een unclean shutdown hebt, dan verlies je dus data tot een jaar terug.
Ik snap dit niet zo. Verzamelt ZFS een jaar aan writes in de ZIL? Schrijft ie niet van tijd tot tijd (en zeker bij een clean shutdown) de data uit de ZIL naar de pool zelf?

Beschik jij trouwens zelf over een M500?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
ZFS is een transaction based filesystem. Als je dus je pool een jaar niet gebruikt is de vorige transaction group van een jaar terug. Zolang je regelmatig writes hebt zal eens per x seconden de transaction group worden gesynct. Dat is een 'heilige' procedure waar ZFS dankzij copy on write en transaction-based metadata zijn betrouwbaarheid aan ontleent. De metadata geeft als het ware een inhoudsopgave aan en kun je beschouwen als een 'state' van het filesystem; een momentopname. De metadata loopt normaliter achter op de daadwerkelijk geschreven data. Als er dan iets raars gebeurt (stroomfalen, crash) dan geldt de meest recente metadata als een veilige staat waarin het filesystem consistent is (zonder corruptie). De ZIL voegt daarbij dan een herstel van de actieve transaction group die recente writes kan herstellen.

Kortom, ook zonder een ZIL - ZFS Intent Log - draait het zaakje prima. Maar toch kan dit vervelende gevolgen hebben. Ik raad het aan om het gewoon 'goed' te regelen en ofwel de ZIL op de hardeschijven te laten (zonder SLOG feature) of een voor SLOG-geschikte SSD te gebruiken als ZIL die beschikt over power-safe capacitors.
Beschik jij trouwens zelf over een M500?
Haha, nee, helaas. :P

Maar ik aas al wel een tijdje op de M500 960GB. Ik wacht nog even tot hij goedkoper wordt, want dit lijkt me een hele leuke koop voor een ultra low-power ZFS NAS die ik voor ogen heb. Gezien het feit dat 1TB voor 0,1 watt standby power wel enorm efficient is. De idle power efficiency is voor mij ook een soort van sport. 8)

offtopic:
Fix je post even, dat leest makkelijker ;)

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op zondag 28 juli 2013 @ 00:08:
Another soul saved! oOo *O* oOo

Mooie indeling zou kunnen zijn:
  • 32GB partitie voor boot/systeem voor ZFSguru (booten van je SSD is leuker, bedenk wel hoeveel data je services kunnen opslaan, al kun je dit ook op je HDD pool overschakelen)
  • 60GB partitie voor L2ARC
  • 4GB partitie voor SLOG
De rest (24GB) laat je dan over als overprovisioning. Wil je dat helemaal goed doen, dan maak je je L2ARC partitie slechts 50GB of zelfs 40GB. 40GB is al behoorlijk qua L2ARC cache.
Top, waarschijnlijk maak ik boot wat kleiner. Er komen geen grote services op.
Wil bij Torrents/nieuwsgroepen dan op een andere HDD downloaden, even kijken of dat de raid array of een 2,5" schijf wordt.

Dan doe ik
  • 20GB boot/systeem
  • 50GB L2ARC
  • 8GB SLOG
  • 42GB overprovisioning.
Dan heb ik een week de tijd om 2x7TB te kopieren. Voor vrijdag moet eigenlijk alles klaar zijn, genoeg te doen!

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Lijkt mij een mooie partitie indeling voor jou bij weinig services! Succes en hoop dat je je bevindingen hier wilt posten als het zover is. :)

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op zondag 28 juli 2013 @ 00:32:
Lijkt mij een mooie partitie indeling voor jou bij weinig services! Succes en hoop dat je je bevindingen hier wilt posten als het zover is. :)
Dat komt zeker goed, ongetwijfeld ook met de nodige vragen! :9
Dennisik schreef op zaterdag 27 juli 2013 @ 13:11:
Je kan met 5x2TB en 1x3TB toch netjes een pool van 6x2TB in raidz1 maken,
waarbij je van de 3TB gewoon 1 TB vrij houd waar je nog mee kan spelen?
Even een dubbelcheck, dan kan ik aan de slag.

Gameplan
  • Tijdelijke Ubuntu server met 4x2TB
  • 7TB data naar temp Ubuntu
  • Storage server wordt ZFSguru met M500 SSD root
  • L2ARC en ZIL
  • 7TB terug kopiëren
  • Temp ubuntu wordt ESXi 5.1
  • vCenter met 2x ESXi 5.1 (2x16GB + 2x E5 Xeon Quad core)
  • vCenter krijgt 2de ZFSguru met 4x250GB of 5x75GB SAS 15k voor ISCSi target naar vCenter
  • OpenWRT op TP1043 voor VLAN routing voor de 2 ESX nodes.
  • Storage server krijgt extra NIC erbij en wordt 2de ISCSi target
Hopelijk krijg ik storage server klaar voor vakantie, alle configuratie en vervolgstappen komen later wel.

Voordat ik deze lijst begin moet ik nog eerste bestelling regelen, M500 binnen krijgen, extra ram geheugen regelen en de extra 2TB binnen krijgen.

[ Voor 10% gewijzigd door Dennisik op 28-07-2013 01:16 ]


Acties:
  • 0 Henk 'm!

  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
Verwijderd schreef op zondag 28 juli 2013 @ 00:29:
ZFS is een transaction based filesystem. Als je dus je pool een jaar niet gebruikt is de vorige transaction group van een jaar terug. Zolang je regelmatig writes hebt zal eens per x seconden de transaction group worden gesynct. Dat is een 'heilige' procedure waar ZFS dankzij copy on write en transaction-based metadata zijn betrouwbaarheid aan ontleent. De metadata geeft als het ware een inhoudsopgave aan en kun je beschouwen als een 'state' van het filesystem; een momentopname. De metadata loopt normaliter achter op de daadwerkelijk geschreven data. Als er dan iets raars gebeurt (stroomfalen, crash) dan geldt de meest recente metadata als een veilige staat waarin het filesystem consistent is (zonder corruptie). De ZIL voegt daarbij dan een herstel van de actieve transaction group die recente writes kan herstellen.

Kortom, ook zonder een ZIL - ZFS Intent Log - draait het zaakje prima. Maar toch kan dit vervelende gevolgen hebben. Ik raad het aan om het gewoon 'goed' te regelen en ofwel de ZIL op de hardeschijven te laten (zonder SLOG feature) of een voor SLOG-geschikte SSD te gebruiken als ZIL die beschikt over power-safe capacitors.
Maar zo'n transaction group duurt maar enkele seconden volgens mij. Aan het einde sluit ie de group en vervolgens wordt de boel gesynced. Vandaar dat ik niet echt begrijp waarom je zei dat je tot een jaar aan data kan verliezen.

[ Voor 128% gewijzigd door onox op 29-07-2013 00:38 ]


Acties:
  • 0 Henk 'm!
Een paar procent, meer bij enterprise SSD's, maar dat is een M500 niet, dus verwacht 3-5%.
Ik denk eerlijk gezegd dat die SSD gewoon st0ek is...

On another note:
Ik ben bezig met een deftige vergelijking tussen ZFS platformen, zijn er nog onderdelen die mensen graag willen zien?

Afbeeldingslocatie: http://i41.tinypic.com/2ura0sl.png

Ik bedenk me nu, dat ik Linux niet meegenomen heb, die kan ik nog wel toevoegen.

PS: Opmerkingen worden zeer gewaardeerd! Maar misschien makkelijker om eventueel via DM te doen, anders vervuild dit topic zo. Als de comparison af is, kan hij in de topic start.

[ Voor 17% gewijzigd door FireDrunk op 28-07-2013 14:15 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Posted on 27 July 2013 @ 15:39
Just a heads up: 9.1-006 system image has almost finished uploading by now. I still need to update the serverside databases before it becomes visible within the ZFSguru web-interface. But that shouldn't take very long.
Nice!

Wanneer zal die te downloaden zijn middels web interface? In Development forum zag ik nog geen nieuwe thread.

[ Voor 191% gewijzigd door Dennisik op 28-07-2013 14:42 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

FireDrunk schreef op zondag 28 juli 2013 @ 14:14:
On another note:
Ik ben bezig met een deftige vergelijking tussen ZFS platformen, zijn er nog onderdelen die mensen graag willen zien?

[afbeelding]

Ik bedenk me nu, dat ik Linux niet meegenomen heb, die kan ik nog wel toevoegen.

PS: Opmerkingen worden zeer gewaardeerd! Maar misschien makkelijker om eventueel via DM te doen, anders vervuild dit topic zo. Als de comparison af is, kan hij in de topic start.
Zeer handig, want hier dacht ik zelf over: "damn wat zou het leuk zijn als er een duidelijk overzicht is van de verschillende distro's." Ik ben benieuwd naar de Linux-ZFS !

Opmerkingen:
- eventuele extra velden: installatiegemak, beheersgemak, ZFS-feature support,
- Root-on-ZFS staat bij FreeNAS in het groen, moet rood zijn denk ik
- Reasonable, Fine, Decent, Excellent, Good zijn nogal "ruime" woorden ter interpretatie, misschien een aanduiding geven met bv. een aantal tekens zoals Excellent ••••. en Decent •••.. ?

Acties:
  • 0 Henk 'm!
Ja klopt, maar wat de een decent vind, vind de ander misschien waardeloos... En het is niet een in-depth vergelijking op bitniveau, het is meer mijn mening in verhouding tot de ervaring die ik met al die platforms heb.

Maar het afspreken van een paar woorden is prima. Roep eens een lijstje ;)

Linux-ZFS heb ik niet zo heel veel ervaring mee, dus dat is een beetje giswerk. Maar ik zal hem toevoegen.

Even niets...


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik ben altijd voorstaander geweest van niet téveel gradaties, dus misschien moet je het gewoon houden op iets in de zin van terrible - bad - average - good - excellent ?

Acties:
  • 0 Henk 'm!
Zie hier, versie 2:

Afbeeldingslocatie: http://i43.tinypic.com/2lo6x6f.png

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Als ESXi erbij staat, misschien ook KVM, Hyper-V en VirtualBox?

Ah en welke bij ZFSguru mist, welke ik wel belangrijk vind is email support als een pool degraded is.
Om het generieker te maken, notifications for pool/disk errors oid.

[ Voor 61% gewijzigd door Dennisik op 28-07-2013 16:10 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Zeer netjes FireDrunk, het maakt een hele hoop dingen duidelijker.

Acties:
  • 0 Henk 'm!
Dennisik schreef op zondag 28 juli 2013 @ 16:04:
Als ESXi erbij staat, misschien ook KVM, Hyper-V en VirtualBox?

Ah en welke bij ZFSguru mist, welke ik wel belangrijk vind is email support als een pool degraded is.
Om het generieker te maken, notifications for pool/disk errors oid.
Goed idee! Ga ik doen!

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Misschien dat ik wat fout doe.

Maar als ik bij Disks -> Formatting zit.

Ik maak eerst 3 partities aan. Ik klik vervolgens op 1 partitie om deze GPT te maken.
Ik laat dan de Reserve Space op default (1 MiB) maar dan pakt hij heel de grootte van de disk en niet van de partitie welke ik zojuist heb aangemaakt en geselecteerd hebt.

Waarbij dan Reserve Space is voor de GPT disk welke je niet aanmaakt in plaats van andersom, is wat verwarrend.

Ander puntje, is dat als je de partition aanmaakt kan je netjes voor MiB of GiB kiezen. Maar als je hem vervolgens gaat resizen heb je alleen sectors waarmee je kan rekenen.

Mocht dit niet het topic zijn voor ZFSguru vragen/tips dan zal ik ze ergens anders plaatsen.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ik maak eerst 3 partities aan. Ik klik vervolgens op 1 partitie om deze GPT te maken.
Ik laat dan de Reserve Space op default (1 MiB) maar dan pakt hij heel de grootte van de disk en niet van de partitie welke ik zojuist heb aangemaakt.
Je drukt dan toch echt op de verkeerde knop? Je hebt namelijk de nieuwe manier van partities aanmaken, de Partition Map Editor. En je hebt de oude manier, onderaan onder het kopje Quick Format. Die laatste zou binnenkort verwijderd worden omdat de nieuwe Partition Map editor veel functionaliteit heeft en inmiddels wel aardig getest is. Ik heb geen bugs gehoord verder.
Ander puntje, is dat als je de partition aanmaakt kan je netjes voor MiB of GiB kiezen. Maar als je hem vervolgens gaat resizen heb je alleen sectors waarmee je kan rekenen.
Dat klopt, daar was een technische reden voor. Volgens mij te doen met de javascript slider. Ik weet het niet precies meer. Maar als je gaat resizen achteraf is de slider opzich meestal voldoende om in te schatten. Maar zou zou eventueel nog wel beter kunnen inderdaad.

Ps: 9.1-006 staat online, maar de services is nog een issue mee. Daar is Jason nu mee bezig om dat te fixen.

[ Voor 4% gewijzigd door Verwijderd op 28-07-2013 16:44 ]


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op zondag 28 juli 2013 @ 16:43:
[...]

Je drukt dan toch echt op de verkeerde knop? Je hebt namelijk de nieuwe manier van partities aanmaken, de Partition Map Editor. En je hebt de oude manier, onderaan onder het kopje Quick Format. Die laatste zou binnenkort verwijderd worden omdat de nieuwe Partition Map editor veel functionaliteit heeft en inmiddels wel aardig getest is. Ik heb geen bugs gehoord verder.


[...]

Dat klopt, daar was een technische reden voor. Volgens mij te doen met de javascript slider. Ik weet het niet precies meer. Maar als je gaat resizen achteraf is de slider opzich meestal voldoende om in te schatten. Maar zou zou eventueel nog wel beter kunnen inderdaad.

Ps: 9.1-006 staat online, maar de services is nog een issue mee. Daar is Jason nu mee bezig om dat te fixen.
Dan druk ik inderdaad op de verkeerde knop, ik drukte op Quick Format.

Nice, ik was net klaar met 005 installeren op een 2de VM, dit wordt nummer 3!

Running official system image 9.1-006 featuring FreeBSD 9.1-RELEASE-p4 with ZFS v28. :9~

[ Voor 4% gewijzigd door Dennisik op 28-07-2013 17:18 ]


Acties:
  • 0 Henk 'm!
@CiPHER, over die Sector bug, je kan toch altijd de javascript laten sliden op sectoren, maar het omrekenen naar MB's voor de gebruiker? Dan maak je het de gebruiker een stuk makkelijker. Ik vind die sectoren echt onhandig... Sinds de era van zeg 1990 zijn sectoren niet meer boeiend, behalve voor alignment ;)

En v3:
Afbeeldingslocatie: http://i43.tinypic.com/2w3nzvm.png

[ Voor 11% gewijzigd door FireDrunk op 28-07-2013 16:58 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Was Easy SMB Security niet bij release van 006 voor ZFSguru?
Nope, dat zit hem in de GUI die nog aan moet komen:
"The next ZFSguru release - 0.2-beta9 - will be released soon."

Om te mierenneuken, het is ZFSguru en niet ZFSGuru :+
Hele mooie sheet al geworden!

[ Voor 40% gewijzigd door Dennisik op 28-07-2013 18:06 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
FireDrunk schreef op zondag 28 juli 2013 @ 16:57:
@CiPHER, over die Sector bug, je kan toch altijd de javascript laten sliden op sectoren, maar het omrekenen naar MB's voor de gebruiker? Dan maak je het de gebruiker een stuk makkelijker. Ik vind die sectoren echt onhandig... Sinds de era van zeg 1990 zijn sectoren niet meer boeiend, behalve voor alignment ;)
Klopt maar dat omrekenen gebeurt dus wel wanneer je een partitie aanmaakt in lege ruimte; dan kun je wel alles selecteren en als je dan MiB klikt wordt via javascript de slider opnieuw uitgerekend. Ik kan me vaag herinneren dat er een technisch probleempje was met het resizen dat het om die reden niet kon. Maar de details weet ik even niet.

Opzich hoeft het geen groot issue te zijn, maar natuurlijk wel een schoonheidsfoutje. Verder ben ik wel heel tevreden over partitiemanagement. Zou dat wellicht ook nog in je tabel opgenomen kunnen worden?

Dus Partition management en eigenlijk zou je ook kunnen opnemen of er een grafische desktop bij zit.

Partition Management: simple management, single (partition), multiple partition
Graphical desktop: No, Yes, Optional. Bij ZFSguru dus het laatste; optioneel

Verder kan ZFSGuru natuurlijk écht niet. :P :+

Acties:
  • 0 Henk 'm!
v5:
Afbeeldingslocatie: http://i43.tinypic.com/2u558o5.png

[ Voor 38% gewijzigd door FireDrunk op 28-07-2013 18:36 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Ik ben het niet helemaal eens met ZFS Speed "average" voor Linux. Ik spreek dan welliswaar over Fedora met kernel 3.9.9, maar ik kan met random data ~350MByte/s schrijven op een RAIDZ2 pool bestaande uit 6x Hitachi TravelStar 5K1000, snelheid per disk is volgens verschillende reviews 88~90MByte/s. Dit is volgens mij vrij dicht tegen het theoretische maximum wat deze schijven kunnen schrijven aan (360MByte/s als ik het goed uitreken) :P

Lezen gaat op grofweg dezelfde snelheid, dus mogelijk dat daar nog wel iets van winst in te behalven is :)

(ik zal even wat testjes uitvoeren met het wegschrijven van een aantal grote ISO bestanden)

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
maar ik kan met random data ~350MByte/s schrijven op een RAIDZ2 pool bestaande uit 6x Hitachi TravelStar 5K1000
Je hardeschijven sustained random write @ 350MB/s?! no way!

Random read voor RAID-Z familie is max van een enkele disk en dat is dus 60 IOps * 4K = 240KB/s. Random write is wel hoger. Maar ik vermoed dat je gewoon RAM snelheden aan het meten bent. Maak je test size 8 keer je RAM minimaal en test dan nog eens.

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Nee, random data sequentieel schrijven bedoel ik. In de zin van, het is geen dd if=/dev/zero of=/zfs_pool/test.bin :)

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dat maakt verder niet uit tenzij je compressie gebruikt. dd if=/dev/zero is prima.

Maar heb je ook lang genoeg getest; anders heb je burst snelheden getest en geen sustained. Je moet echt minimaal 8 keer je RAM snelheid testen dus minimaal 64GiB - 256GiB dat is een goede test.
Pagina: 1 ... 80 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.