Nee het is vergelijkbaar met RAID50, er mag in elke vdev 1 disk failen...

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 05-07 23:03
Anoniem: 187449 schreef op donderdag 11 augustus 2011 @ 08:42:
[...]


ah vandaar .. en ik maar denken dat het aan mijn hardware ligt .. 8)
Jij hebt gewoon het probleem dat je alleen maar RAIDZ kan draaien omdat je bak maar twee discs aankan.

De CSL/OT kroeg !


Anoniem: 77995

Phorze schreef op woensdag 10 augustus 2011 @ 22:57:
kan dit?
  • zpool create pool1 disk1 disk2 disk3 disk4 disk5 disk6
  • van disk 7 en 8 de bestaande data overpompen naar de pool(NTFS)
  • disk 7 en disk 8 partities verwijderen
  • zpool pool1 attach disk7 disk 8 (of iets dergelijks voor een raidz2)
Hehe, tja, dat probleem heb ik ook: allerlei data op 2TB schijven, waarvan zowel de data als de schijven naar m'n Z2 setup zouden mogen... Maar helaas :)

Mooi systeem hoor, ZFS, maar dit is best een gemis.

  • Phorze
  • Registratie: December 2004
  • Laatst online: 02-07 22:25
Anoniem: 77995 schreef op donderdag 11 augustus 2011 @ 10:34:
[...]


Hehe, tja, dat probleem heb ik ook: allerlei data op 2TB schijven, waarvan zowel de data als de schijven naar m'n Z2 setup zouden mogen... Maar helaas :)

Mooi systeem hoor, ZFS, maar dit is best een gemis.
Ja, de raid50(raidz1+raidz1 striped) is dan een oplossing. Maar dan ga je toch weer afwegen om voor een normale 8 disk raid6 te gaan.
Dat wordt afwegen...
Een van de belangrijkste redenen waarom ik nog steeds MDADM gebruik... Migratie is veel makkelijker...
Als je alles nieuw koopt is ZFS een prima optie, maar als je je oude disks wil hergebruiken heb je een probleem...

Even niets...


  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 16:05

Ultraman

Moderator Harde Waren

Boefje

Wat in theorie ook kan is een "broken" RAIDZ2 maken met 6 fysieke disks en 2 virtuele gnop's, geeft 8 vdevs.
Dat is voor zover ZFS weet redundant, maar technisch natuurlijk niet.
Mogelijk moet je na het maken van 8 vdev RAIDZ2 pool de gnop devs uit de RAIDZ2 trekken, zo houdt je dan een acht vdev raidz2 over die 2 disken mist en dus niet meer redundant is.
Pomp dan de data over naar de raidz2 pool, wipe de NTFS geformateerde disks en voeg die twee echte schijven weer aan de pool toe.

De 4disk raidz + 4 disk raidz is ook een optie natuurlijk.

[ Voor 39% gewijzigd door Ultraman op 11-08-2011 12:44 ]

Als je stil blijft staan, komt de hoek wel naar jou toe.


  • Phorze
  • Registratie: December 2004
  • Laatst online: 02-07 22:25
Ultraman schreef op donderdag 11 augustus 2011 @ 12:40:
Wat in theorie ook kan is een "broken" RAIDZ2 maken met 6 fysieke disks en 2 virtuele gnop's, geeft 8 vdevs.
Dat is voor zover ZFS weet redundant, maar technisch natuurlijk niet.
Mogelijk moet je na het maken van 8 vdev RAIDZ2 pool de gnop devs uit de RAIDZ2 trekken, zo houdt je dan een acht vdev raidz2 over die 2 disken mist en dus niet meer redundant is.
Pomp dan de data over naar de raidz2 pool, wipe de NTFS geformateerde disks en voeg die twee echte schijven weer aan de pool toe.

De 4disk raidz + 4 disk raidz is ook een optie natuurlijk.
Klinkt aanlokkelijk, heb je een idee hoe precies te werk te gaan met die gnops? het is in feite een imagebestand toch?

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
FireDrunk schreef op donderdag 11 augustus 2011 @ 11:28:
Een van de belangrijkste redenen waarom ik nog steeds MDADM gebruik... Migratie is veel makkelijker...
Als je alles nieuw koopt is ZFS een prima optie, maar als je je oude disks wil hergebruiken heb je een probleem...
Ach, je verklooit gewoon je mdadm RAID en dan heb je gewoon alle schijven vrij om een ZFS pool te bakken :o
En ook nog eens 100% free :+

[ Voor 4% gewijzigd door Sleepie op 11-08-2011 14:01 ]

Mwoh, dan moet er heel wat gebeuren :) RAID6 ftw!

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
FireDrunk schreef op donderdag 11 augustus 2011 @ 14:17:
Mwoh, dan moet er heel wat gebeuren :) RAID6 ftw!
Dat zei ik ook tegen mezelf.... ;)

Anoniem: 77995

Sleepie schreef op donderdag 11 augustus 2011 @ 15:29:
[...]
Dat zei ik ook tegen mezelf.... ;)
Heb je dat verhaal hier al eens gepost? Ben wel benieuwd.

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
Anoniem: 77995 schreef op donderdag 11 augustus 2011 @ 21:45:
Heb je dat verhaal hier al eens gepost? Ben wel benieuwd.
Er staat wel wat van in Het grote DIY RAID NAS topic deel 3

In het kort:
- Het was een net opgebouwde 10 disk mdadm RAID6 set
- Begon met een disk met nogal wat bad sectors, die vervangen.
- Toen begon een tweede disk ook raar te doen.
- mdadm vond dat er een rebuild moest plaatsvinden
- tijdens de rebuild ging er iets fout (echt geen idee wat, mss weer een hit op een bad sector ofzo)
- het rebuild proces (of iig een of ander mdadm process) hing compleet vast met 98% CPU load
- Daardoor hing dus gewoon mn hele server 'vast'
- Kreeg hem wat ik ook probeerde niet gereboot
- Uiteindelijk maar 'op hoop van zegen' de reset knop ingeramd
- de mdadm raid kwam niet meer op
- na een hoop klooien had ik iets wat op een degraded raid leek terug
- toen bleek filesystem corrupt
- en ik had dat niet moeten proberen te fixen met een of ander op Internet gevonden 'wijsheid' :+

Resultaat: Da's pech, data weg :)

Voordeel:
Ik kon toen wel meteen overstappen naar ZFS, wat ik ooit toch al van plan was.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-06 20:43

Pantagruel

Mijn 80486 was snel,....was!

Sleepie schreef op donderdag 11 augustus 2011 @ 23:34:
[...]


Er staat wel wat van in Het grote DIY RAID NAS topic deel 3

In het kort:
- Het was een net opgebouwde 10 disk mdadm RAID6 set
- Begon met een disk met nogal wat bad sectors, die vervangen.
- Toen begon een tweede disk ook raar te doen.
- mdadm vond dat er een rebuild moest plaatsvinden
- tijdens de rebuild ging er iets fout (echt geen idee wat, mss weer een hit op een bad sector ofzo)
- het rebuild proces (of iig een of ander mdadm process) hing compleet vast met 98% CPU load
- Daardoor hing dus gewoon mn hele server 'vast'
- Kreeg hem wat ik ook probeerde niet gereboot
- Uiteindelijk maar 'op hoop van zegen' de reset knop ingeramd
- de mdadm raid kwam niet meer op
- na een hoop klooien had ik iets wat op een degraded raid leek terug
- toen bleek filesystem corrupt
- en ik had dat niet moeten proberen te fixen met een of ander op Internet gevonden 'wijsheid' :+

Resultaat: Da's pech, data weg :)

Voordeel:
Ik kon toen wel meteen overstappen naar ZFS, wat ik ooit toch al van plan was.
Pfew, gelukkig is mijn RAID stoelen dans van de afgelopen twee dagen soepeltjes en zonder ongewenste nevenwerkingen verlopen.

In 't kort, switch van een voorheen werkende XP install naar linux, dit ivm een dode hdd.
Betekend data migratie en array herformatteren omdat ntfs-3g en linux naar mijn gevoel toch niet kan.
Het verplicht hebben/krijgen van twee degraded arrays, de een omdat ik eerder moedwillig een hdd had gestolen voor een ander project en de ander om dat een hdd er de brui aan gaf.
Omdat de RAID kaart echter een array plafond heeft van 2 TB :x, stond ik alsnog dom te kijken met 4 x 2 TB WDAC EARS in m'n handen.
Maar geluk bij een ongeluk, JBOD werkte wel en heeft het uiteindelijk geresulteerd in een array uitbreiding en de overstap naar mdadm (soft RAID 5) en lvm. Zodra de andere 4x 2TB WDAC EARS binnen zijn gaat de array groeien en omgevormd worden in een soft RAID 6 geheel. Het resultaat zal dan net geen 11 TB geformatteerde capaciteit zijn.

Misschien d'er maar es een blogje aan besteden.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!
Yak, LVM.... :S
Waarom?

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-06 20:43

Pantagruel

Mijn 80486 was snel,....was!

Na je opmerking ben ik eens even gaan Googlen en inderdaad er is geen dwingende reden om een LVM tussenlaag toe te voegen (mdadm array/LVM laag/ext4 of welk format partitie dan ook). Het was mijn foutieve aanname dat dit nodig zou zijn om een array te kunnen growen (nog 4 x 2 TB EARS onderweg voor de array). Aangezien de ouder arrays hardware based waren heb ik nooit met mdadm en consorten hoeven spelen,maar de RAID adapter beperkingen dwingen me er min of meer toe

Voorlopig kan de array nog alle kanten op, de aanwezige data is een duplicaat en eigenlijk alleen aanwezig om een succesvolle grow van de array te kunnen controleren.

Maar als ik je dus goed begrijp, mdadm array en dan direct een partitie definiëren met een FS van keuze.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!
Ja, in een heel enkel geval kan LVM handig zijn omdat het bijvoorbeeld kan extenten, maar of je dat wil...

Ik heb gewoon /dev/md0 gepartitioneerd met XFS :)

En mensen die beweren dat je LVM nodig hebt om XFS te shrinken (ja die zijn er :) ) moeten even beter googlen :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-06 20:43

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op vrijdag 12 augustus 2011 @ 10:46:
Ja, in een heel enkel geval kan LVM handig zijn omdat het bijvoorbeeld kan extenten, maar of je dat wil...

Ik heb gewoon /dev/md0 gepartitioneerd met XFS :)

En mensen die beweren dat je LVM nodig hebt om XFS te shrinken (ja die zijn er :) ) moeten even beter googlen :)
Tja of dat nodig is, da's een tweede.

Wat dat betreft ben ik me er niet zeker van welke kant het op gaat.

Aan de ene kant wil ik eerst proberen of de oude NAS bak een mdadm RAID6 array in redelijke mate trekt en t netwerk (Gbit) kan bedienen (8x 2TB WDAC EARS in soft RAID6). Ook al is 't een boel oud ijzer, toch maar eens zien wat er nog in zit want de opbrengst uit een V&A zal niet overhouden (Ouwe meuk: Intel SAI2; dual Tualatin, 1,26 GHz; 2,5 GB ECC PC-133 SDRAM).

Andere andere kant lonkt een snelle nieuwe bak (Xeon E3-1220, 16 GB ECC, tyan S5512WGM2NR) en de belofte van een ZFS NAS (en een gat in de begroting van ca €650).

Zoals onze oosterburen zo mooi zeggen: "Die Qual der Wahl"

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • CAPSLOCK2000
  • Registratie: Februari 2003
  • Laatst online: 06-07 13:30

CAPSLOCK2000

zie teletekst pagina 888

FireDrunk schreef op vrijdag 12 augustus 2011 @ 10:46:
Ja, in een heel enkel geval kan LVM handig zijn omdat het bijvoorbeeld kan extenten, maar of je dat wil...

Ik heb gewoon /dev/md0 gepartitioneerd met XFS :)

En mensen die beweren dat je LVM nodig hebt om XFS te shrinken (ja die zijn er :) ) moeten even beter googlen :)
AFAIK kan XFS helemaal niet shrinken? Of probeer je dat erg indirect te zeggen?

Als je partities wil gebruiken en je wil je XFS online kunnen growen dan heb je AFAIK toch echt LVM nodig. Zelfs als het offline kan doe ik het liever met LVM dan dat ik met fdisk aan gang moet.

(Met ZFS kan het denk ik ook, maar dat station waren we al gepasseerd toen we over mdadm begonnen).

[ Voor 6% gewijzigd door CAPSLOCK2000 op 12-08-2011 11:37 ]

This post is warranted for the full amount you paid me for it.


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
Maar waarom zou je uberhaupt partities willen gebruiken met alleen maar het risico van mis-aligned partities?

Gewoon mdadm -Cv -l 6 -n 8 /dev/md0 /dev/sd[ah] (aanpassen naar eigen smaak pls :P) om je array aan temaken. Daarna een filesystem op /dev/md0 knallen en klaar.
Geen gedoe met alignment van partities.

En met XFS als filesystem prima te growen hoor.
Ik ben van 4 --> 6 --> 8 disks gegaan en dat werkte prima. Disks toevoegen aan je array, dan xfs-grow /dev/md0 en klaar. Geen fdisk nodig of wat dan ook.
Dat het daarna misging heeft daar verder niks mee te maken

[ Voor 8% gewijzigd door Sleepie op 12-08-2011 13:29 ]


Acties:
  • 0 Henk 'm!
CAPSLOCK2000 schreef op vrijdag 12 augustus 2011 @ 11:36:
[...]

AFAIK kan XFS helemaal niet shrinken? Of probeer je dat erg indirect te zeggen?

Als je partities wil gebruiken en je wil je XFS online kunnen growen dan heb je AFAIK toch echt LVM nodig. Zelfs als het offline kan doe ik het liever met LVM dan dat ik met fdisk aan gang moet.

(Met ZFS kan het denk ik ook, maar dat station waren we al gepasseerd toen we over mdadm begonnen).
Dat probeerde ik inderdaad te zeggen.. En ik heb ook inderdaad geen partities... En with good reason... Geeft alleen maar meer onduidelijkheid

Wat Sleepie zegt klopt als een bus... Gewoon mdadm --grow en daarna xfs_grow doen. Geen gehannis met partities.

Even niets...


Acties:
  • 0 Henk 'm!

  • Snow_King
  • Registratie: April 2001
  • Laatst online: 20:40

Snow_King

Konijn is stoer!

Wij hebben inmiddels een storage omgeving met Nexenta 3.1 in productie genomen, maar komen er toch achter te weinig RAM te hebben, een klein stukje advies van de ZFS kenner is welkom!

Onze pool bestaat uit 20 1TB SAS disken die elk mirrors van elkaar zijn, effectief is de pool dus zo'n 10TB (na afronding 9.06TB).

Daarbij hebben we vervolgens 2 STEC 8GB SSD's als ZIL en 6 160GB SSD's als L2ARC.

Het totale RAM hierbij is 24GB Ram, maar dat blijkt te weinig.

De geheugen prijzen staan nu laag, dus we overwegen naar 48GB of 96GB Ram te upgraden. Wat is redelijk in dit geval?

More is better bij ZFS, maar er is volgens mij geen punt waar ZFS geen gebruik meer kan maken van een overvloed aan geheugen, correct?

Acties:
  • 0 Henk 'm!

  • paul999
  • Registratie: November 2005
  • Laatst online: 30-05 20:13
Zijn er meer mensen welke niet op de site van zfsguru kunnen komen? Krijg hier al de gehele dag een timeout.
Ik zat serieus te twijfelen om over te stappen van plain freebsd naar zfsguru, maar ik mis momenteel sowieso nog een aantal features in de software zelf, en mijn VM geeft nu ook allerlei meldingen hierdoor, waardoor ik het idee heb dat de software relatief veel van de site afhangt. Iemand hier meer ervaring mee hoe vaak dit gebeurd?

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 05-07 23:03
Yep, zelfde probleem. Het is een keer eerder gebeurd, maar toen was er al een tijd niets meer vernomen van Jason, de ontwikkelaar. Maar een tijdje terug was er opeens weer wat teken van leven.
De meest recente versie zou wat minder afhankelijk moeten zijn van de site middels caching, maar de afhankelijkheid is er nog wel. Dit zou op termijn moeten worden afgevangen. Ik zou je graag wijzen op de informatie daaromtrent, maar dat staat op het forum waar je nu ook niet bij kan. Even geduld dus.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
Yep, zfsguru.com ligt al de hele dag plat :(

Als ik zo eens kijk is vooral de "Status" page van ZFSguru afhankelijk van de site.
De "Pool" en "Disks" menu's bijvoorbeeld doen het hier prima.

Acties:
  • 0 Henk 'm!

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 04-07 18:59
Toch jammer voor een project met zo veel potentie. Ik ga niet gelijk van het ergste uit, dus ik denk dat de site snel weer online zal komen. Mocht dit niet het geval zijn, dan wacht ik op de release van FreeBSD 9.

Het wordt bij FreeBSD 9 heel makkelijk om root-on-ZFS te installeren en ik heb nu al iets meer ervaring met FreeBSD, dus kan het ook wel zonder webinterface

Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
Jason was de laatste weken toch weer aardig actief op het forum. Dus ik vermoed dat de site weer wel online zal komen.
Natuurlijk kan het allemaal ook wel zonder GUI, maar het maakt het allemaal wel een stukje gemakkelijker. Bovendien vind ik het deel van ZFSguru wat af is gewoon goed in elkaar zitten, dus ik hoop toch echt dat het project door zal gaan.

edit:

Het weekend is voorbij en de ZFSguru site is nog steeds down.
Ziet er niet goed uit..... :(

[ Voor 13% gewijzigd door Sleepie op 15-08-2011 15:29 ]


Acties:
  • 0 Henk 'm!

  • Splendid
  • Registratie: April 2005
  • Laatst online: 03-07 20:39
Goed nieuws voor de KVM liefhebbers! http://dtrace.org/blogs/bmc/2011/08/15/kvm-on-illumos/

KVM onder OpenIndiana! :D

[ Voor 13% gewijzigd door Splendid op 15-08-2011 20:35 ]


Acties:
  • 0 Henk 'm!
NICE! Dat maakt het voor mij interresant! Dan kan ik een Ubuntu VM bouwen met de kleine dingen die ik liever onder Ubuntu draai dan onder OpenIndiana :)

Ik juich dit soort dingen alleen maar toe!

Even niets...


Acties:
  • 0 Henk 'm!

  • magistus
  • Registratie: December 2001
  • Laatst online: 18-07-2024
Erg mooie ontwikkeling! Hopelijk kan KVM hiermee los komen van Linux en breder ingezet worden, wat de portabiliteit van virtuele systemen en de functionaliteit van KVM alleen maar ten goede gaat komen. KVM (ik gebruik het prive overal) heeft nog een lange/behoorlijke weg te gaan t.o.v. Xen/VMWare (in mijn persoonlijke ervaring, met name op het gebied van stabiliteit inzake non-Linux OS'en) maar dit doet mij als oud Solaris-admin toch enthousiast in de handjes wrijven :)
Keuze tussen (solaris) zones en hardware virtualisatie dmv. KVM = me happy.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 05-07 23:03
Sleepie schreef op zaterdag 13 augustus 2011 @ 23:01:
Jason was de laatste weken toch weer aardig actief op het forum. Dus ik vermoed dat de site weer wel online zal komen.
Natuurlijk kan het allemaal ook wel zonder GUI, maar het maakt het allemaal wel een stukje gemakkelijker. Bovendien vind ik het deel van ZFSguru wat af is gewoon goed in elkaar zitten, dus ik hoop toch echt dat het project door zal gaan.

edit:

Het weekend is voorbij en de ZFSguru site is nog steeds down.
Ziet er niet goed uit..... :(
Sinds kort op de site:
ZFSguru is temporarily offline

A server outage has occured. Unfortunately, the person allowing me free use of this server is on vacation. I temporarily moved to a new server. Downloads and other ZFSguru services (Forum/Updates) are still offline.

My apologies to everyone relying on this service. I will improve the reliability of the server hosting as soon as possible. Thank you for your patience and understanding.

-Jason

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 04-07 18:59
Kijk dat is toch weer goed nieuws.

Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 20:59
Ik ben van plan om binnenkort te beginnen met m'n thuis-mediacenter/server. Voor alsnog word dit op het moment eerst mijn oude Phenom II X4 955. Hier ben ik van plan 16 GB ram in te prikken met Windows Server 2008 R2 als OS.

Middels Hyper-V had ik bedacht om hier FreeNAS op te zetten en RAW 5 2 TB (Samsung F4's) aan toe te wijzen voor een ZFS storage pool (RAIDZ). 10 GB van de 16 GB geheugen zal worden toegewezen aan de storage VM. (Aldus de vuistregel in openingspost)

Heeft iemand suggesties voor een alternatief OS of zou FreeNAS goed genoeg moeten werken? Ik heb even wat rond gekeken en Solaris lijkt een degelijk alternatief, alleen is management wat minder makkelijk (Webinterface?)

Verder, kan iemand een inschatting doen over de performance van een gevirtualiseerde storage machine? Ik zit op 1 Gbit LAN, is 90-100 MB/sec realistisch? Het gaat voornamelijk om 'grotere' files 1-15 GB.

Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
NetXtreme schreef op dinsdag 16 augustus 2011 @ 08:29:
Ik ben van plan om binnenkort te beginnen met m'n thuis-mediacenter/server. Voor alsnog word dit op het moment eerst mijn oude Phenom II X4 955. Hier ben ik van plan 16 GB ram in te prikken met Windows Server 2008 R2 als OS.

Middels Hyper-V had ik bedacht om hier FreeNAS op te zetten en RAW 5 2 TB (Samsung F4's) aan toe te wijzen voor een ZFS storage pool (RAIDZ). 10 GB van de 16 GB geheugen zal worden toegewezen aan de storage VM. (Aldus de vuistregel in openingspost)

Heeft iemand suggesties voor een alternatief OS of zou FreeNAS goed genoeg moeten werken? Ik heb even wat rond gekeken en Solaris lijkt een degelijk alternatief, alleen is management wat minder makkelijk (Webinterface?)

Verder, kan iemand een inschatting doen over de performance van een gevirtualiseerde storage machine? Ik zit op 1 Gbit LAN, is 90-100 MB/sec realistisch? Het gaat voornamelijk om 'grotere' files 1-15 GB.
Ik haal zelf niet meer dan 60-65 MB/sec van mijn NAS naar mijn Hyper-V VMs (en andersom). Schijnbaar vreet Hyper-V toch een behoorlijk stuk van je bandbreedte.
Ter vergelijk: van NAS naar werkstation haal ik gewoon 100MB/sec, volle Gbit snelheid dus.

Zorg er inderdaad voor dat de VM waarop je ZFS wilt draaien direct toegang heeft tot je schijven, anders gaat het waarschijnlijk niet werken (ESXi met RDMs bijvoorbeeld werkt in mijn ervaring niet).

Als je richting Solaris wil gaan, kun je bijvoorbeeld OpenIndiana of NexentaCore met napp-it gebruiken. Napp-it biedt je een heel duidelijke web GUI voor ZFS.

Acties:
  • 0 Henk 'm!
Volgens mij komt dat vooral omdat je de slechte NIC gebruikt ipv de geparavirtuliseerde... Maar ja, hyper-v en goede linux/bsd/unix drivers is weer een lastig verhaal...

Even niets...


Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 20:59
FireDrunk schreef op dinsdag 16 augustus 2011 @ 09:50:
Volgens mij komt dat vooral omdat je de slechte NIC gebruikt ipv de geparavirtuliseerde... Maar ja, hyper-v en goede linux/bsd/unix drivers is weer een lastig verhaal...
Wat bedoel je hiermee? Zou ik voor een 2e NIC moeten zorgen en dit device rechtstreeks toewijzen aan de storage VM?

Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
FireDrunk schreef op dinsdag 16 augustus 2011 @ 09:50:
Volgens mij komt dat vooral omdat je de slechte NIC gebruikt ipv de geparavirtuliseerde... Maar ja, hyper-v en goede linux/bsd/unix drivers is weer een lastig verhaal...
Nu ik erover nadenk, in die machines zitten wat oude 500GB harddisks (4 stuks) in een RAID10 opstelling.
Die zouden ook nog best wel eens de bottleneck kunnen zijn :)

Acties:
  • 0 Henk 'm!
NetXtreme schreef op dinsdag 16 augustus 2011 @ 10:06:
Wat bedoel je hiermee? Zou ik voor een 2e NIC moeten zorgen en dit device rechtstreeks toewijzen aan de storage VM?
Hyper-V ondersteund nog geen VT-d, dus hoe zou je dat willen doen?
Wat ik bedoel, is als je een VM aanmakt in Hyper-V die non-windows is, krijgt het ding een E1000 achtige controller (net als vmware) alleen performt dat ding nog slechter dan onder ESX, omdat er heel veel vertaal slagen gedaan moeten worden.

Net als VMware VMXNET3 heeft, heeft Hyper-V ook een 10G NIC, (ben de naam even kwijt). Die zal je veel meer performance geven, maar is zeer waarschijnlijk niet ondersteund onder iets anders dan Windows :)

Even niets...


Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 20:59
FireDrunk schreef op dinsdag 16 augustus 2011 @ 10:53:
[...]


Hyper-V ondersteund nog geen VT-d, dus hoe zou je dat willen doen?
Wat ik bedoel, is als je een VM aanmakt in Hyper-V die non-windows is, krijgt het ding een E1000 achtige controller (net als vmware) alleen performt dat ding nog slechter dan onder ESX, omdat er heel veel vertaal slagen gedaan moeten worden.

Net als VMware VMXNET3 heeft, heeft Hyper-V ook een 10G NIC, (ben de naam even kwijt). Die zal je veel meer performance geven, maar is zeer waarschijnlijk niet ondersteund onder iets anders dan Windows :)
We zullen zien. Ga binnenkort nieuwe hardware aanschaffen voor mijn desktokp. Oude hardware (Phenom II X4 955), moederbord en 16 GB DDR3 gaan naar server. Dan experimenteren met ZFS via een gevirtualiseerd OS. Ik zal mijn resultaten wel even kenbaar maken, misschien dat mensen er nog wat aan hebben.

OS keuze blijft nog even open voor discussie.

Acties:
  • 0 Henk 'm!
Je hebt geen VT-d ondersteuning, dus blijf je beperkt tot (een vorm van) RDM.

Even niets...


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
FireDrunk schreef op dinsdag 16 augustus 2011 @ 14:30:
Je hebt geen VT-d ondersteuning, dus blijf je beperkt tot (een vorm van) RDM.
En dat vindt ZFS weer niet leuk....

Maar je kunt in Hyper-V wel fysieke disks toewijzen aan een VM toch?
Ik heb het zelf nog nooit geprobeerd, misschien dat dat werkt, of is dat ook via een soort van RDM achtige oplossing?

[ Voor 29% gewijzigd door Sleepie op 16-08-2011 15:44 ]


Acties:
  • 0 Henk 'm!

  • CAPSLOCK2000
  • Registratie: Februari 2003
  • Laatst online: 06-07 13:30

CAPSLOCK2000

zie teletekst pagina 888

Mij is gevraagd om volgende week bij een bevriende universiteit langs te gaan om hun ZFS-gebaseerd storage systeem te bekijken, uiteraard met de gedachte om er zelf ook een aan te schaffen. Ik volg ZFS al jaren maar heb het nooit serieus gebruikt. Wat moet ik vragen en waar moet ik op letten? (Met het oog op ZFS). Ik heb zelf de volgende vragen bedacht:

Welk OS wordt er gebruikt?
Welke ZFS versie?
Welke ZFS features worden daadwerkelijk gebruikt?
Hoeveel IOPS? Gemiddelde througput?
Worden er ook zdevs gebruikt?
Wordt het systeem ook gebackupped?
Hoe zijn de schijven verdeeld?
Worden er ook SSDs gebruikt?
Hoeveel RAM?
Is er een support-contract?

Ik wil hier geen algemeen "beoordeel een NAS" topic van maken maar het specifiek bij ZFS houden. Zijn er nog andere dingen waar ik naar moet vragen?

achtergrond: onze onderzoekers produceren vele terrabytes aan data maar gaan daar niet handig mee om, stapeltjes bekraste DVDs zijn geen uitzondering. We zijn op zoek naar een manier om die data goedkoop en betrouwbaar op te slaan. Snelheid is niet zo belangrijk, betrouwbaarheid wel, vandaar dat we interesse hebben in de checksums van ZFS. We hebben goede ervaringen met zelfbouw-NASsen en overwegen nu dus een Backblaze-achtig iets te bouwen. We willen het spul wel graag binnen de deur houden, ruimte kopen bij Backblaze is dus geen optie.

This post is warranted for the full amount you paid me for it.


Acties:
  • 0 Henk 'm!
Je zou inderdaad de storage pods na kunnen maken. Goede vraag is dan, wat kost het nu, en wat kostte het voorheen? Misschien kan je use-cases en verbetervoorstellen krijgen die zij ooit gemaakt hebben om het plan door de (noem een mooie managementterm) raad heen te krijgen...

Wat ik ook vooral interresant vind is, hoe realiseer je groei, plaats je vdevs bij, of hele servers. Hoe partitioneer je je data, hoe regel je de authenticatie/authorisatie, hoe word de data gedeeld op het netwerk?

Niet zo zeer interessant voor ZFS zelf, maar wel, hoe heb je ZFS in je omgeving ingezet.

Even niets...


Acties:
  • 0 Henk 'm!

  • CAPSLOCK2000
  • Registratie: Februari 2003
  • Laatst online: 06-07 13:30

CAPSLOCK2000

zie teletekst pagina 888

FireDrunk schreef op dinsdag 16 augustus 2011 @ 19:23:
Je zou inderdaad de storage pods na kunnen maken. Goede vraag is dan, wat kost het nu, en wat kostte het voorheen? Misschien kan je use-cases en verbetervoorstellen krijgen die zij ooit gemaakt hebben om het plan door de (noem een mooie managementterm) raad heen te krijgen...

Wat ik ook vooral interresant vind is, hoe realiseer je groei, plaats je vdevs bij,
Dat is een erg goed vraag, opgenomen.
of hele servers. Hoe partitioneer je je data, hoe regel je de authenticatie/authorisatie, hoe word de data gedeeld op het netwerk?
Zit er ook een ZFS component aan deze onderwerpen?
Ik dacht dat ZFS het concept parititie niet gebruikt.
Authenticatie/authorisatie lijkt me ook meer iets voor het OS dan voor ZFS.
Sharing idem ditto of heeft ZFS een ingebouwde NFS/SMB/??? server?

[ Voor 0% gewijzigd door CAPSLOCK2000 op 19-08-2011 11:20 . Reden: quote gefixed ]

This post is warranted for the full amount you paid me for it.


Acties:
  • 0 Henk 'm!
Ja en nee, omdat ZFS geen partities gebruikt, is er een speciale manier van ACL's setten, en tools als Samba en NFSd moeten hier wel gebruik van (kunnen) maken. Dat levert natuurlijk de nodige complicaties op.

ZFS is in eerste instantie gebouwd voor het Solaris platform, dit platform heeft een kernel implementatie van een SMB server. ZFS is erg geintegreerd met deze SMB server.

Op FreeBSD is dat dus weer heel anders...

Even niets...


Acties:
  • 0 Henk 'm!

  • paul999
  • Registratie: November 2005
  • Laatst online: 30-05 20:13
Op de site van zfsguru staat trouwens weer een update:
Recovering from this server failure may still take some time. I expect ZFSguru.com to be online again in one week. To protect against future service interruptions, I began working on features like multiple master servers, already implemented in development builds. I hope to release an update soon which will make ZFSguru handle website interruptions much more gracefully, as well as setup multiple webservers to allow for redundancy in case of failure. Hope you guys have a little more patience; thanks alot!

Acties:
  • 0 Henk 'm!
Ik snap echt niet waarom je uberhaupt een product zou ontwikkelen wat direct afhankelijk is van internet...
En al helemaal niet voor NAS software :+

Maar dat terzijde :P

Even niets...


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
FireDrunk schreef op vrijdag 19 augustus 2011 @ 13:20:
Ik snap echt niet waarom je uberhaupt een product zou ontwikkelen wat direct afhankelijk is van internet...
En al helemaal niet voor NAS software :+

Maar dat terzijde :P
De GUI kijkt op die webpage of er een update beschikbaar is en dat wordt dan netjes in de "status" pagina weergegeven.
Bovendien is Jason bezig om wat "Services" te maken (dat zijn packaged installaties voor populaire dingen zoals SABnzbd, SickBeard, etc.). Deze kun je dan ook met 1 klik installeren ... en dat gebeurt -voorlopig iig nog voor zover ik weet- ook vanaf die webpage ;)

Dus als de ZFSguru web interface start, checkt hij op beschikbaarheid van updates en nieuwe Services.
Dat stukje werkte uiteraard niet en daardoor was het opstarten van ZFSguru wat traag.

Alle ZFS functionaliteit die erin zit werkte vervolgens gewoon prima :)

Acties:
  • 0 Henk 'm!
oooh, ik las verhalen dat je halve ZFSguru installatie slecht werkte door dat geneuzel...

Even niets...


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
FireDrunk schreef op vrijdag 19 augustus 2011 @ 13:38:
oooh, ik las verhalen dat je halve ZFSguru installatie slecht werkte door dat geneuzel...
Ik heb er geen last van gehad in ieder geval.
Ik heb gewoon een nieuw "ZFS file system" kunnen aanmaken, en die kunnen sharen via zowel SMB als NFS. Werkt als een tierelier :)

Acties:
  • 0 Henk 'm!

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 04-07 18:59
FireDrunk schreef op vrijdag 19 augustus 2011 @ 13:38:
oooh, ik las verhalen dat je halve ZFSguru installatie slecht werkte door dat geneuzel...
Dit was bij de eerste release wel het geval, maar de dev heeft dit een tijd geleden al aangepast.
Nu werkt alles, zoals het hoort. Ook zonder internet connectie.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-06 20:43

Pantagruel

Mijn 80486 was snel,....was!

Met wat copy 'n paste uit dit topic

M'n huidige fileserver lijkt me niet krachtig genoeg om ZFS te doen (Intel SAI2, 2x 1,26GHz Tualatin, 2 GB PC133 ECC SDRAM, onboard ATI rage II, 3Ware 8500-8 RAID kaart (in gebruik als domme SATA adapter ivm 2TB beperking van de kaart), 120 GB OS HDD en 8x 2TB WD EARS, Intel 1000GT nic.)

Nu staat een ZFSGuru/OpenIndiana/FreeBSD+ZFS file server wel op t verlanglijstje, maar je kunt niet alles tegelijk hebben.

Voor een binnenkort te bouwen ZFS machine had ik t volgende in gedachten:

#ProductPrijsSubtotaal
1LSI SAS 9211-8i (SAS9211-8I/SGL)€ 208,90€ 208,90
1Intel Xeon E3-1230 Boxed€ 184,-€ 184,-
2Kingston ValueRAM KVR1333D3E9SK2/8G€ 66,53€ 133,06
1Supermicro X9SCM-F€ 167,90€ 167,90
Bekijk collectie
Importeer producten
Totaal€ 693,86


De RAID kaart en t mobo zou je kunnen vervangen door een TYAN S5512WGM2NR, maar dat bordje is eigenlijk slecht te verkrijgen en net zo duur als de losse combo van RAID en mobo.


Wat denken de heren ZFS guru's er van??

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
Lijkt me een prima setup, ik weet alleen niet of dat kaartje onder de verschillende ZFS oplossingen ondersteund wordt.
Met 8 schijven zou je in principe met 8GB totaal ook nog wel uit de voeten kunnen, maar met de huidige geheugenprijzen zou ik er zelf ook meteen 16GB inzetten, dan heb je meteen genoeg als je later nog eens een tweede HBA met 8 schijven wil toevoegen.

Acties:
  • 0 Henk 'm!

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 04-07 18:59
Mooie setup.
Die controller heeft op dit moment nog geen goede ondersteuning onder FreeBSD 8
De drivers schijnen al, beter te zijn, maar nog niet 100%. Dit zal bij FreeBSD 9 wel, nog beter zijn.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-06 20:43

Pantagruel

Mijn 80486 was snel,....was!

Sleepie schreef op vrijdag 19 augustus 2011 @ 19:05:
Lijkt me een prima setup, ik weet alleen niet of dat kaartje onder de verschillende ZFS oplossingen ondersteund wordt.
Met 8 schijven zou je in principe met 8GB totaal ook nog wel uit de voeten kunnen, maar met de huidige geheugenprijzen zou ik er zelf ook meteen 16GB inzetten, dan heb je meteen genoeg als je later nog eens een tweede HBA met 8 schijven wil toevoegen.
Kriss1981 schreef op vrijdag 19 augustus 2011 @ 19:43:
Mooie setup.
Die controller heeft op dit moment nog geen goede ondersteuning onder FreeBSD 8
De drivers schijnen al, beter te zijn, maar nog niet 100%. Dit zal bij FreeBSD 9 wel, nog beter zijn.
De LSI SAS 9211-8i is in principe de LSI SAS 2008 die je ook op o.a. Tyan en Supermicro (X8SI6-F) bordjes kunt vinden en daar zijn wel wat vermeldingen dat ZFSGuru succesvol werkt. De kaart moet dan wel naar IT mode geflashed worden. Een andere optie is een Intel RAID Controller SASUC8I of een IBM ServeRAID BR10i 8-Port SAS, beiden dan ook in IT mode.

De 16 GB is inderdaad ivm de mogelijkheid op een uitbreiding naar 16 disks en laat nog 2 slots vrij om evt. naar 32 GB te gaan. Het toevoegen van ssd's tbv ZIL/L2ARC staan op t vervolg wenslijstje. Eén 80 GB Intel Postville heb ik al uit de huidige bak (ivm een overstap naar een Crucial M4 128 GB), de enige vraag is dan of die betere te gebruiken is voor ZIL of L2ARC? Wat dat betreft nog t nodige mbt ZFS na te lezen.

FreeBSD lijkt de controller wel te slikken

July 8th, 2011, 18:15
@rdeiriar, do it work perfect with 32-bit or 64-bit?

I'm building a rig now and it's Supermicro X8ST3-F (LSI 1068E) vs Supermicro X8DTH-6F (LSI 2008) which I am going to run together with HP SAS Expander and FreeBSD x64.

So if I can't be sure that LSI 2008 will do the job with FreeBSD x64 (I don't want any BS) I'll go for LSI 1068E but If there is good support for LSI 2008 I really want it.

I read around at other forums that they don't trust LSI 2008 and FreeBSD for some reason. So I made a account here to ask.

I hope anyone can help me out here :S

==================================================

We have FreeBSD 8.1 booting fine on the SuperMicro X8DTL-6F SAS port, and I have run some pretty extensive drive benchmarks with SAS OS and four SAS data drives. BUT, AFAIK, there is still no RAID1 support for this setup. We want to mirror the OS drive and then the other 6 SAS ports are for pass through data drives (no RAID).


De SuperMicro X8DTL-6F is voorzien van de LSI 6Gbps SAS 2008, dat klinkt dus bemoedigend.

Update-tje.

OpenIndiana heeft geen problemen met de LSI 9211-i8i


HBA Status OI release Notes Driver Contributor
Adaptec 6xxx Supported oi_151 aac Ken Mays
Areca ARC18xx Supported oi_151 acrmsr Ken Mays
LSI 92xx-xx Supported oi_151 mpt_sas Ken Mays
Qlogic QLE246x/QLE25xx Supported oi_151 qla Ken Mays

[ Voor 9% gewijzigd door Pantagruel op 21-08-2011 22:51 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!
guys, gewoon even kort jullie reactie, ik ben niet van plan (voorlopig) om een zware array te bouwen zoals enkelen hier doen met de Norco cases, SAS expanders, SuperMicro bordjes (nu dat laat ik nog even in het midden).

Ik ben wel geïnteresseerd in een oplossing voor ZFS. Ik heb al begrepen dat een kleine SSD een gigantische snelheidswinst is en ik veronderstel dat ik er dan best een neem met een agressieve garbage collection vanwege het gebrek aan trim, right?

Graag had de mogelijkheid om zeker 8 schijven aan te kunnen sluiten... Ga ik dan best voor een standaard moederbordje of koop ik een deftige kaartje met genoeg sata poorten zodat ik alle HDD's op één sata kaart kan hangen? of is dit niet nodig en is het ook perfect en zonder performanceverlies te doen dat ik een set op de sata-kaart hang en een setje op de onboard sata's?

Zuinigheid is wel een pre... Ik weet dat dat wel een beetje verloren gaat met iedere disk die er bij komt, maar ik wil graag alles zo zuinig mogelijk houden... een i3 met voldoende geheugen is meer dan genoeg CPU power lijkt me zo, niet?

Voorlopig heb ik dit setje samengesteld (wenslijst: ZFS NAS), voldoende geheugen, het moederbord ken ik van mijn ESXi-verhaal maar biedt wel veel te weinig SATA aansluitingen, net zoals de case... Die twee moeten uitgebreid worden... Bij voorkeur een tower case, compact is een pre...

[ Voor 13% gewijzigd door HyperBart op 21-08-2011 17:04 ]


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
HyperBart schreef op zondag 21 augustus 2011 @ 16:56:
guys, gewoon even kort jullie reactie, ik ben niet van plan (voorlopig) om een zware array te bouwen zoals enkelen hier doen met de Norco cases, SAS expanders, SuperMicro bordjes (nu dat laat ik nog even in het midden).

Ik ben wel geïnteresseerd in een oplossing voor ZFS. Ik heb al begrepen dat een kleine SSD een gigantische snelheidswinst is en ik veronderstel dat ik er dan best een neem met een agressieve garbage collection vanwege het gebrek aan trim, right?
Die snelheidswinst valt wel mee hoor. Dat is erg afhankelijk van wat je doet met je NAS. Als het een storage bak is voor series/movies heb je er eigenlijk weinig aan, aangezien je grote files slechts af en toe benaderd.
Het wordt een ander verhaal als je met 10 gebruikers van de NAS gebruik maakt of als je er VMs op hebt staan. Dan kan een read-cache SSD je wel winst opleveren ja.

Als je write-cache wilt toepassen, ga dan voor een SSD met supercap, zodat je bij een stroomuitval niet het risico loopt al je data kwijt te raken (tenzij je een UPS hebt, dan gaat dit weer niet op natuurlijk).
Graag had de mogelijkheid om zeker 8 schijven aan te kunnen sluiten... Ga ik dan best voor een standaard moederbordje of koop ik een deftige kaartje met genoeg sata poorten zodat ik alle HDD's op één sata kaart kan hangen? of is dit niet nodig en is het ook perfect en zonder performanceverlies te doen dat ik een set op de sata-kaart hang en een setje op de onboard sata's?
Maakt totaal niet uit waar je de disks aanhangt, zolang ZFS maar direct toegang tot de disk heeft.
Ik heb zelf nu 8 disks op een Intel SASUC8i (geflashed naar IT firmware) met 2 disks die op mijn moederbord hangen samen in een 10-disk RAIDZ2 ZFS pool hangen. Werkt prima, performance is ook prima (650MB/sec read/write).
Zuinigheid is wel een pre... Ik weet dat dat wel een beetje verloren gaat met iedere disk die er bij komt, maar ik wil graag alles zo zuinig mogelijk houden... een i3 met voldoende geheugen is meer dan genoeg CPU power lijkt me zo...
CPU power is eigenlijk niet zo belangrijk, zorg vooral dat je voldoende geheugen hebt.
Met de huidige geheugen prijzen moet dat niet zo'n probleem zijn.
Voorlopig heb ik dit setje samengesteld, voldoende geheugen, het moederbord ken ik van mijn ESXi-verhaal maar biedt wel veel te weinig SATA aansluitingen, net zoals de case... Die twee moeten uitgebreid worden... Bij voorkeur een tower case, compact is een pre...
Bijvoorbeeld een Sharkoon Rebel9 met een paar 4-in3 modules (al dan niet hotswap, ligt aan je budget) en je kunt makkelijk 10 disks of meer kwijt.

Acties:
  • 0 Henk 'm!
Bijvoorbeeld een Sharkoon Rebel9 met een paar 4-in3 modules (al dan niet hotswap, ligt aan je budget) en je kunt makkelijk 10 disks of meer kwijt.
Euh, welke modules?

Acties:
  • 0 Henk 'm!
Waarom niet S1155 ipv S1156?

Even niets...


Acties:
  • 0 Henk 'm!
Ik had de inventaris van ons esxi-bakje nog even meegekopieerd, dat zou idd een 1155 moeten/mogen zijn met een i3 2100 of meer... Dan kan je toch gebruik maken van de ingebouwde GPU met zo een 2100, toch?

Welke recentere chipsets zitten we tegenwoordig alweer?

[ Voor 23% gewijzigd door HyperBart op 21-08-2011 17:34 ]


Acties:
  • 0 Henk 'm!
HyperBart schreef op zondag 21 augustus 2011 @ 17:30:
Ik had de inventaris van ons esxi-bakje nog even meegekopieerd, dat zou idd een 1155 moeten/mogen zijn met een i3 2100 of meer... Dan kan je toch gebruik maken van de ingebouwde GPU met zo een 2100, toch?

Welke recentere chipsets zitten we tegenwoordig alweer?
Jup, maar dat heeft S1156 ook al, maar S1155 is iets zuiniger idle.
H61/H67/Q67 zijn goede chipsets. Van links naar rechts hebben ze steeds meer features...
H61 is het kaalst en daarom vaak heel zuinig, maar mist Sata 6Gbps.
H67 heeft vaak sata 6Gbps
Q67 heeft (vaak) VT-d ondersteuning.

Er zijn nog meer verschillen, maar die zijn niet zo relevant voor een ESXi bakje.

H61 is niet persé een garantie voor echte zuinigheid, bekijk mijn gevloek posts maar eens over mijn Biostar H61 bordje, die verbruikt 3! keer zoveel als een H67 CF van Intel.

[ Voor 13% gewijzigd door FireDrunk op 21-08-2011 17:46 ]

Even niets...


Acties:
  • 0 Henk 'm!
Ben nu zelfs sterk aan het denken om mijn ESXi met VT-d uit te rusten met bv dit Intel bordje:
pricewatch: Intel Desktop Board DQ67OWB3
en een nieuwe i5 2400:
pricewatch: Intel Core i5 2400

en dan volgend bordje van de ESXi:
pricewatch: MSI H55M-E33
in combinatie met de 8GB geheugen (of ik laat de 4 latjes zitten)
pricewatch: GeIL Value PLUS GVP38GB1333C9DC
pricewatch: Kingston ValueRAM KVR1333D3N9K2/8G

te gebruiken in combinatie met een pricewatch: Intel RAID Controller SASUC8I (en dat is gezien de post hierboven mij ergens nog een twijfelgeval of die daarop gaat...)

[ Voor 4% gewijzigd door HyperBart op 21-08-2011 17:55 ]


Acties:
  • 0 Henk 'm!

Anoniem: 361523

Iemand hier trouwens al eens geprobeerd om een HA oplossing op te zetten met ZFS?
Heb hier namelijk 2 HP Microservers staan met 8GB RAM, dual Intel Server NIC's en nog 2 40GB SSD's voor ZIL/L2ARC

De bedoeling is om HA storage te hebben voor een Hyper-V cluster.
Heb wel het één en ander gevonden bij OpenSolaris maar wou van de kenners hier even weten of er aan te beginnen is of het weinig meerwaarde gaat bieden.

Acties:
  • 0 Henk 'm!
Anoniem: 361523 schreef op zondag 21 augustus 2011 @ 18:02:
Iemand hier trouwens al eens geprobeerd om een HA oplossing op te zetten met ZFS?
Heb hier namelijk 2 HP Microservers staan met 8GB RAM, dual Intel Server NIC's en nog 2 40GB SSD's voor ZIL/L2ARC

De bedoeling is om HA storage te hebben voor een Hyper-V cluster.
Heb wel het één en ander gevonden bij OpenSolaris maar wou van de kenners hier even weten of er aan te beginnen is of het weinig meerwaarde gaat bieden.
Hoe bedoel je een HA oplossing? HA op het niveau van de virtualisatie-servers of op storage niveau?

HA op virtualisatieniveau is toch 'easy peasy'? Heb ik bij mijn eindwerk gedaan, weliswaar niet met ZFS, maar eender welk deftig filesysteem geserveerd via iSCSI of NFS moet het toch doen (bij VMware dan toch)

[ Voor 14% gewijzigd door HyperBart op 21-08-2011 18:09 ]


Acties:
  • 0 Henk 'm!

Anoniem: 361523

HA op Hyper-V heb ik al, probleem is als ik iets aan m'n SAN moet doen moet de hele boel offline.
Dus zou graag een HA storage oplossing hebben ;-)

Acties:
  • 0 Henk 'm!
Hmmm bij vmware heb je daar vsa voor :P

* HyperBart zoekt dekking ;)

http://milek.blogspot.com...ability-environments.html

[ Voor 33% gewijzigd door HyperBart op 21-08-2011 19:31 ]


Acties:
  • 0 Henk 'm!

  • d1ng
  • Registratie: Augustus 2009
  • Laatst online: 06-05-2024
In het geval van FreeBSD zou ik kijken naar HAST evt. icm CARP

Acties:
  • 0 Henk 'm!
Hej, dat is gaaf... Dan kan je dus HAST en CARP gebruiken met ZFS als onderlaag :D

Dat is wel leuk om eens te proberen :D

Even niets...


Acties:
  • 0 Henk 'm!

Anoniem: 361523

Hehe, speel genoeg met ESXi bij klanten, plus het feit dat met een Technet abonnement alle MS software te testen is...
d1ng schreef op zondag 21 augustus 2011 @ 21:29:
In het geval van FreeBSD zou ik kijken naar HAST evt. icm CARP
Dat ziet er inderdaad een optie uit.
Ok, ik weet ook weer wat te doen de volgende weken...

[ Voor 32% gewijzigd door Anoniem: 361523 op 22-08-2011 08:52 ]


Acties:
  • 0 Henk 'm!

Anoniem: 361523

Schitterend, deze week toch eens 2 FreeBSD VM's opzetten, gaat nog een uitdaging zijn aangezien ik eigenlijk enkel ervaring heb met Debian.

Acties:
  • 0 Henk 'm!
Ik ga ervanuit dat er ook wel CARP is voor Debian :)

Even niets...


Acties:
  • 0 Henk 'm!

Anoniem: 361523

Maar de ZFS ondersteuning in Debian is (nog) niet echt top als ik een beetje rond google :P

Acties:
  • 0 Henk 'm!
O, je wil persé ZFS voor je HA? :)

Even niets...


Acties:
  • 0 Henk 'm!

Anoniem: 361523

Uiteraard! :+

Heb nu 1 van de 2 Microservers draaien met Freenas 8 en een 40GB Intel 320 SSD als ZIL.
Deze wordt gebruikt door de Hyper-V cluster via iSCSI. Dat werkt perfect en al enkele maanden stabiel, de performance mag iets beter, 10 VM's tegelijk opstarten duurt wel even nu :P

Het probleem is nu natuurlijk dat als ik iets wil doen aan de storage, de hele omgeving offline moet.
Ik wil dus naar een oplossing die beter presteert (hoewel ik hier geen super prestaties verwacht) door ZFS op een ander distro, de SSD te gebruiken voor zowel ZIL als L2ARC en moest het mogelijk zijn 2 NIC's te trunken. Maar vooral een HA oplossing zodat ik 1 van de 2 storage nodes offline kan halen moest dat nodig zijn, zonder de VM's offline te moeten brengen...

Ik besef dat dit een redelijk complexe aangelegenheid gaat worden, maar daarvoor zitten we op Tweakers natuurlijk...

Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 20:59
Welk OS geeft op het moment de beste performance voor ZFS? Ik zat even door dit topic te lezen en zag dat OS ook nog wel eens een impact heeft op de performance.

Verder zit ik te twijfelen tussen
5x Samsung EcoGreen F4EG HD204UI, 2TB
of
5x Western Digital Caviar GreenPower WD20EARS, 2TB

Kan iemand hier een aanbeveling over doen plus onderbouwing?

Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
NetXtreme schreef op maandag 22 augustus 2011 @ 13:11:
Welk OS geeft op het moment de beste performance voor ZFS? Ik zat even door dit topic te lezen en zag dat OS ook nog wel eens een impact heeft op de performance.
Ik heb ze zowat allemaal geprobeerd en echt heel veel verschil zit er niet tussen. Het verschil wordt denk ik meer veroorzaakt door de gebruikte ZFS versie.
Maar puur naar de cijfertjes kijkend, was OpenIndiana (ZFS v28) bij mij het snelst.

Acties:
  • 0 Henk 'm!
Nexenta en OpenIndiana omdat die Solaris als core hebben, en daar performt het vooral goed met veel geheugen.

Wat Sleepie zegt dus :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
Even een vraagje voor de meer doorgewinterde ZFS gebruikers hier.
Ik moet een rotte disk vervangen, deze disk staat momenteel op "FAULTED", zie hieronder.
        NAME              STATE     READ WRITE CKSUM
        tank              DEGRADED     0     0     0
          raidz2-0        DEGRADED     0     0     0
            label/disk5   ONLINE       0     0     0
            label/disk10  ONLINE       0     0     0
            label/disk1   ONLINE       0     0     0
            label/disk2   FAULTED     18   330     2  too many errors
            label/disk3   ONLINE       0     0     0
            label/disk4   ONLINE       0     0     0
            label/disk6   ONLINE       0     0     0
            label/disk7   ONLINE       0     0     0
            label/disk8   ONLINE       0     0     0
            label/disk9   ONLINE       0     0     0




ZFSguru heeft nog geen GUI implementatie voor het replacen van een disk (is nog in ontwikkeling) en ik heb weinig zin om de boel opnieuw te verklooien ;)

Dus kan iemand even bevestigen hoe ik die faulted disk (hotswap) vervang?
Volgens mij zou het zo moeten zijn:
# zpool offline <poolname> <diskname>
<remove drive>
<insert new drive>
# glabel label <name> <disk>
# zpool replace <poolname> <olddisk> <newdisk>

Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
Replacen van de disk is intussen gelukt op bovenstaande manier :)
De pool staat nu te resilveren.

Acties:
  • 0 Henk 'm!

Anoniem: 187449

Sleepie schreef op maandag 22 augustus 2011 @ 18:58:
Replacen van de disk is intussen gelukt op bovenstaande manier :)
De pool staat nu te resilveren.
*O*

Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
Ik begin een beetje ziek te worden van de 1.5TB Samsung HD154UI schijven die ik binnen krijg van Azerty.
Gisteren dus een faulted disk vervangen en na het resilveren is dit het resultaat:

[root@wega /]# zpool status tank
  pool: tank
 state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
        repaired.
 scan: resilvered 430G in 5h37m with 0 errors on Mon Aug 22 22:35:08 2011
config:

        NAME              STATE     READ WRITE CKSUM
        tank              DEGRADED     0     0     0
          raidz2-0        DEGRADED     0     0     0
            label/disk5   ONLINE       0     0     0
            label/disk10  ONLINE       0     0    11
            label/disk1   ONLINE       0     0     0
            label/disk2   FAULTED      1    60     0  too many errors
            label/disk3   ONLINE       0     0     0
            label/disk4   ONLINE       0     0     0
            label/disk6   ONLINE       0     0     0
            label/disk7   ONLINE       0     0     0
            label/disk8   ONLINE       0     0     0
            label/disk9   ONLINE       0     0     0


Disk 2 is dus de nieuwe disk die gisteren is aangekomen.

Wat is er dan mis met die disk?
[root@wega /]# smartctl -A /dev/da1
smartctl 5.41 2011-06-09 r3365 [FreeBSD 8.2-STABLE amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   253   253   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0007   063   063   011    Pre-fail  Always       -       11800
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       3
  5 Reallocated_Sector_Ct   0x0033   001   001   010    Pre-fail  Always   FAILING_NOW 4295


Een nieuwe disk met alweer 4295 reallocated sectors ... zucht :/
Die kan dus ook weer retour :(

Acties:
  • 0 Henk 'm!

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 04-07 18:59
That Sucks

Ik heb zes keer 2TB F4 en heb gelukkig nog geen problemen gehad.

Acties:
  • 0 Henk 'm!

Anoniem: 77995

Ik begrijp waarom ZFS graag flink wat geheugen tot z'n beschikking heeft, maar zijn er ergens benchmarks beschikbaar met tests van dezelfde pool maar met verschillende hoeveelheden RAM?

Acties:
  • 0 Henk 'm!

  • paul999
  • Registratie: November 2005
  • Laatst online: 30-05 20:13
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
errors: No known data errors                                                                                                                                                                    
                                                                                                                                                                                                
  pool: tank                                                                                                                                                                                    
 state: ONLINE                                                                                                                                                                                  
 scrub: scrub in progress for 307445734561825858h18m, 2.25% done, 307445734561825774h41m to go                                                                                                  
config:

        NAME        STATE     READ WRITE CKSUM
        tank        ONLINE       0     0     0
          raidz1    ONLINE       0     0     0
            ad6     ONLINE       0     0     0
            ad8     ONLINE       0     0     0
            ad14    ONLINE       0     0     0

errors: No known data errors
Door een reboot veroorzaakt door stroomstoring tijdens een scrub die al bezig was. Geeft bijzondere resultaten.

Acties:
  • 0 Henk 'm!
Lokale tijd in de war?

Even niets...


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
Bij nadere inspectie is de reden van al die bad sectors op mijn nieuwe schijf nu wel duidelijk: Het ding is duidelijk een keer gestuiterd voor ik hem binnenkreeg. Er is zelfs een hoekje van de ijzeren behuizing afgebroken (dat vond ik opeens in het doosje...)

Goed, gelukkig doet Azerty niet moeilijk, maar weer een dag of 5 wachten op een vervangende schijf dus.
Ik draai nu al twee weken een degraded raidz2 pool :(

Acties:
  • 0 Henk 'm!
Wat voor disk? Wil je er eentje van mij lenen? Draaien we allebei met 1 disk minder in RAID6 :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
FireDrunk schreef op dinsdag 23 augustus 2011 @ 16:00:
Wat voor disk? Wil je er eentje van mij lenen? Draaien we allebei met 1 disk minder in RAID6 :+
Samsung 1.5TB SpinPoint F2 EcoGreen Desktop Class HD154UI

Ja, een diskje minder in een raid6/raidz2 set is natuurlijk niet zo heel erg, maar toch geeft het nooit een prettig gevoel. En ik blijf maar rotte disks binnenkrijgen die dan uit mijn pool gegooid worden :)

(Nou ja deze dus duidelijk gevallen, dan is het wel logisch)

Acties:
  • 0 Henk 'm!

  • Priet
  • Registratie: Januari 2001
  • Laatst online: 16:03

Priet

To boldly do what no one has..

Bekijk het van de zonnige kant: je hebt iig profijt van gehad van je keuze voor RAIDZ2 :+

Even een n00b vraag, want ik zie door de bomen het bos niet meer: een spindown van een RAIDZ pool met 4 disks onder OpenIndiana, is dat nu wel of niet mogelijk?

"If you see a light at the end of a wormhole, it's probably a photon torpedo!"


Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
Priet schreef op dinsdag 23 augustus 2011 @ 16:26:
Bekijk het van de zonnige kant: je hebt iig profijt van gehad van je keuze voor RAIDZ2 :+
Dat klopt helemaal, maar vergeet niet dat die keuze kwam nadat een mdadm raid inclusief al mijn data in /dev/null verdween. Dus ik zie toch graag zsm die degraded status verdwijnen ;)

Acties:
  • 0 Henk 'm!

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 04-07 18:59
Priet schreef op dinsdag 23 augustus 2011 @ 16:26:
Bekijk het van de zonnige kant: je hebt iig profijt van gehad van je keuze voor RAIDZ2 :+
Sleepie schreef op dinsdag 23 augustus 2011 @ 16:07:
Ja, een diskje minder in een raid6/raidz2 set is natuurlijk niet zo heel erg, maar toch geeft het nooit een prettig gevoel. En ik blijf maar rotte disks binnenkrijgen die dan uit mijn pool gegooid worden :)
+1. Uit ervaring weet ik dat het gevoel bij een degraded RAID5 veel minder prettig is. Dit weet je zelf natuurlijk ook, want je bent al een keer een array met data verloren.

To little, To late

Acties:
  • 0 Henk 'm!

  • Oid
  • Registratie: November 2002
  • Niet online

Oid

@ sleepie: waar heb je zfsguru op draaien, heb zelf nu freenas op usb-stick, en zou zfsguru ook op usb willen hebben dan, maar is dat wel mogelijk?

Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
Ik heb ZFSGuru op een Kingston 8GB SSDtje draaien :)
Omdat de installer perse een root-on-zfs install wil uitvoeren, is dat SSD-tje een degraded RAID0 array, misschien koop ik er nog eens eentje bij en doe ik een nieuwe install op een RAID1 arraytje van twee van die schijven :)

Volgens mij moet je dezelfde truc wel met een USB-stickje kunnen uithalen hoor.

Acties:
  • 0 Henk 'm!

  • glashio
  • Registratie: Oktober 2001
  • Laatst online: 28-06 08:10

glashio

C64 > AMIGA > PC

> Google Certified Searcher
> Make users so committed to Google that it would be painful to leave
> C64 Gospel
> [SjoQ] = SjoQing


Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 20:59
Voor zover ik begrijp is Nexenta of OpenIndiana mijn beste keus om te gebruiken als NAS OS, maar nou mijn vraag... Is er ook een soort van Webinterface om ZFS te managen en shares aan te maken (CIFS, NFS, iSCSI)? Of ben ik dan beter af met FreeNAS bijv? Ik heb 5x 2 TB WD's om op de hosten en wil graag wel een beetje aardige performance hebben.

Acties:
  • 0 Henk 'm!

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 18-05 16:23
kijk eens naar nexentastor (nexenta community edition met een mooie en bruikbare gui eroverheen) gelimiteerd tot 18 TB

Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
Andere optie is napp-it

Acties:
  • 0 Henk 'm!

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 20:59
Thanks, zal er eens naar kijken.

ZFSGuru word hier volgens mij ook wel vrij hoog in het vaandel gehouden. Zitten er nog drawbacks aan ZFSGuru? Ik ben niet vies van een beetje terminal werk, maar wil ruw-weg wel al m'n shares remote kunnen managen middels een webinterface.

Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 19:26
NetXtreme schreef op dinsdag 23 augustus 2011 @ 20:11:
Thanks, zal er eens naar kijken.

ZFSGuru word hier volgens mij ook wel vrij hoog in het vaandel gehouden. Zitten er nog drawbacks aan ZFSGuru? Ik ben niet vies van een beetje terminal werk, maar wil ruw-weg wel al m'n shares remote kunnen managen middels een webinterface.
Basic dingen die je nodig hebt zitten allemaal in ZFSguru. Alleen dingetjes als replacen van disks, link aggregation, L2ARC enzo niet.

Maar wel pools en disks beheren, maken van shares via SMB en/of NFS, smart info, etc.
Het is echt wel bruikbaar en de command-line zul je zelden nodig hebben.
Pagina: 1 ... 11 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.