Even niets...
Jij hebt gewoon het probleem dat je alleen maar RAIDZ kan draaien omdat je bak maar twee discs aankan.Anoniem: 187449 schreef op donderdag 11 augustus 2011 @ 08:42:
[...]
ah vandaar .. en ik maar denken dat het aan mijn hardware ligt ..
Anoniem: 77995
Hehe, tja, dat probleem heb ik ook: allerlei data op 2TB schijven, waarvan zowel de data als de schijven naar m'n Z2 setup zouden mogen... Maar helaasPhorze schreef op woensdag 10 augustus 2011 @ 22:57:
kan dit?
- zpool create pool1 disk1 disk2 disk3 disk4 disk5 disk6
- van disk 7 en 8 de bestaande data overpompen naar de pool(NTFS)
- disk 7 en disk 8 partities verwijderen
- zpool pool1 attach disk7 disk 8 (of iets dergelijks voor een raidz2)
Mooi systeem hoor, ZFS, maar dit is best een gemis.
Ja, de raid50(raidz1+raidz1 striped) is dan een oplossing. Maar dan ga je toch weer afwegen om voor een normale 8 disk raid6 te gaan.Anoniem: 77995 schreef op donderdag 11 augustus 2011 @ 10:34:
[...]
Hehe, tja, dat probleem heb ik ook: allerlei data op 2TB schijven, waarvan zowel de data als de schijven naar m'n Z2 setup zouden mogen... Maar helaas![]()
Mooi systeem hoor, ZFS, maar dit is best een gemis.
Dat wordt afwegen...
Als je alles nieuw koopt is ZFS een prima optie, maar als je je oude disks wil hergebruiken heb je een probleem...
Even niets...
Dat is voor zover ZFS weet redundant, maar technisch natuurlijk niet.
Mogelijk moet je na het maken van 8 vdev RAIDZ2 pool de gnop devs uit de RAIDZ2 trekken, zo houdt je dan een acht vdev raidz2 over die 2 disken mist en dus niet meer redundant is.
Pomp dan de data over naar de raidz2 pool, wipe de NTFS geformateerde disks en voeg die twee echte schijven weer aan de pool toe.
De 4disk raidz + 4 disk raidz is ook een optie natuurlijk.
[ Voor 39% gewijzigd door Ultraman op 11-08-2011 12:44 ]
Als je stil blijft staan, komt de hoek wel naar jou toe.
Klinkt aanlokkelijk, heb je een idee hoe precies te werk te gaan met die gnops? het is in feite een imagebestand toch?Ultraman schreef op donderdag 11 augustus 2011 @ 12:40:
Wat in theorie ook kan is een "broken" RAIDZ2 maken met 6 fysieke disks en 2 virtuele gnop's, geeft 8 vdevs.
Dat is voor zover ZFS weet redundant, maar technisch natuurlijk niet.
Mogelijk moet je na het maken van 8 vdev RAIDZ2 pool de gnop devs uit de RAIDZ2 trekken, zo houdt je dan een acht vdev raidz2 over die 2 disken mist en dus niet meer redundant is.
Pomp dan de data over naar de raidz2 pool, wipe de NTFS geformateerde disks en voeg die twee echte schijven weer aan de pool toe.
De 4disk raidz + 4 disk raidz is ook een optie natuurlijk.
Ach, je verklooit gewoon je mdadm RAID en dan heb je gewoon alle schijven vrij om een ZFS pool te bakkenFireDrunk schreef op donderdag 11 augustus 2011 @ 11:28:
Een van de belangrijkste redenen waarom ik nog steeds MDADM gebruik... Migratie is veel makkelijker...
Als je alles nieuw koopt is ZFS een prima optie, maar als je je oude disks wil hergebruiken heb je een probleem...
En ook nog eens 100% free
[ Voor 4% gewijzigd door Sleepie op 11-08-2011 14:01 ]
Even niets...
Dat zei ik ook tegen mezelf....FireDrunk schreef op donderdag 11 augustus 2011 @ 14:17:
Mwoh, dan moet er heel wat gebeurenRAID6 ftw!
Er staat wel wat van in Het grote DIY RAID NAS topic deel 3Anoniem: 77995 schreef op donderdag 11 augustus 2011 @ 21:45:
Heb je dat verhaal hier al eens gepost? Ben wel benieuwd.
In het kort:
- Het was een net opgebouwde 10 disk mdadm RAID6 set
- Begon met een disk met nogal wat bad sectors, die vervangen.
- Toen begon een tweede disk ook raar te doen.
- mdadm vond dat er een rebuild moest plaatsvinden
- tijdens de rebuild ging er iets fout (echt geen idee wat, mss weer een hit op een bad sector ofzo)
- het rebuild proces (of iig een of ander mdadm process) hing compleet vast met 98% CPU load
- Daardoor hing dus gewoon mn hele server 'vast'
- Kreeg hem wat ik ook probeerde niet gereboot
- Uiteindelijk maar 'op hoop van zegen' de reset knop ingeramd
- de mdadm raid kwam niet meer op
- na een hoop klooien had ik iets wat op een degraded raid leek terug
- toen bleek filesystem corrupt
- en ik had dat niet moeten proberen te fixen met een of ander op Internet gevonden 'wijsheid'
Resultaat: Da's pech, data weg
Voordeel:
Ik kon toen wel meteen overstappen naar ZFS, wat ik ooit toch al van plan was.
Pfew, gelukkig is mijn RAID stoelen dans van de afgelopen twee dagen soepeltjes en zonder ongewenste nevenwerkingen verlopen.Sleepie schreef op donderdag 11 augustus 2011 @ 23:34:
[...]
Er staat wel wat van in Het grote DIY RAID NAS topic deel 3
In het kort:
- Het was een net opgebouwde 10 disk mdadm RAID6 set
- Begon met een disk met nogal wat bad sectors, die vervangen.
- Toen begon een tweede disk ook raar te doen.
- mdadm vond dat er een rebuild moest plaatsvinden
- tijdens de rebuild ging er iets fout (echt geen idee wat, mss weer een hit op een bad sector ofzo)
- het rebuild proces (of iig een of ander mdadm process) hing compleet vast met 98% CPU load
- Daardoor hing dus gewoon mn hele server 'vast'
- Kreeg hem wat ik ook probeerde niet gereboot
- Uiteindelijk maar 'op hoop van zegen' de reset knop ingeramd
- de mdadm raid kwam niet meer op
- na een hoop klooien had ik iets wat op een degraded raid leek terug
- toen bleek filesystem corrupt
- en ik had dat niet moeten proberen te fixen met een of ander op Internet gevonden 'wijsheid'
Resultaat: Da's pech, data weg
Voordeel:
Ik kon toen wel meteen overstappen naar ZFS, wat ik ooit toch al van plan was.
In 't kort, switch van een voorheen werkende XP install naar linux, dit ivm een dode hdd.
Betekend data migratie en array herformatteren omdat ntfs-3g en linux naar mijn gevoel toch niet kan.
Het verplicht hebben/krijgen van twee degraded arrays, de een omdat ik eerder moedwillig een hdd had gestolen voor een ander project en de ander om dat een hdd er de brui aan gaf.
Omdat de RAID kaart echter een array plafond heeft van 2 TB :x, stond ik alsnog dom te kijken met 4 x 2 TB WDAC EARS in m'n handen.
Maar geluk bij een ongeluk, JBOD werkte wel en heeft het uiteindelijk geresulteerd in een array uitbreiding en de overstap naar mdadm (soft RAID 5) en lvm. Zodra de andere 4x 2TB WDAC EARS binnen zijn gaat de array groeien en omgevormd worden in een soft RAID 6 geheel. Het resultaat zal dan net geen 11 TB geformatteerde capaciteit zijn.
Misschien d'er maar es een blogje aan besteden.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Waarom?
Even niets...
Na je opmerking ben ik eens even gaan Googlen en inderdaad er is geen dwingende reden om een LVM tussenlaag toe te voegen (mdadm array/LVM laag/ext4 of welk format partitie dan ook). Het was mijn foutieve aanname dat dit nodig zou zijn om een array te kunnen growen (nog 4 x 2 TB EARS onderweg voor de array). Aangezien de ouder arrays hardware based waren heb ik nooit met mdadm en consorten hoeven spelen,maar de RAID adapter beperkingen dwingen me er min of meer toe
Voorlopig kan de array nog alle kanten op, de aanwezige data is een duplicaat en eigenlijk alleen aanwezig om een succesvolle grow van de array te kunnen controleren.
Maar als ik je dus goed begrijp, mdadm array en dan direct een partitie definiëren met een FS van keuze.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik heb gewoon /dev/md0 gepartitioneerd met XFS
En mensen die beweren dat je LVM nodig hebt om XFS te shrinken (ja die zijn er
Even niets...
Tja of dat nodig is, da's een tweede.FireDrunk schreef op vrijdag 12 augustus 2011 @ 10:46:
Ja, in een heel enkel geval kan LVM handig zijn omdat het bijvoorbeeld kan extenten, maar of je dat wil...
Ik heb gewoon /dev/md0 gepartitioneerd met XFS
En mensen die beweren dat je LVM nodig hebt om XFS te shrinken (ja die zijn er) moeten even beter googlen
Wat dat betreft ben ik me er niet zeker van welke kant het op gaat.
Aan de ene kant wil ik eerst proberen of de oude NAS bak een mdadm RAID6 array in redelijke mate trekt en t netwerk (Gbit) kan bedienen (8x 2TB WDAC EARS in soft RAID6). Ook al is 't een boel oud ijzer, toch maar eens zien wat er nog in zit want de opbrengst uit een V&A zal niet overhouden (Ouwe meuk: Intel SAI2; dual Tualatin, 1,26 GHz; 2,5 GB ECC PC-133 SDRAM).
Andere andere kant lonkt een snelle nieuwe bak (Xeon E3-1220, 16 GB ECC, tyan S5512WGM2NR) en de belofte van een ZFS NAS (en een gat in de begroting van ca €650).
Zoals onze oosterburen zo mooi zeggen: "Die Qual der Wahl"
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
AFAIK kan XFS helemaal niet shrinken? Of probeer je dat erg indirect te zeggen?FireDrunk schreef op vrijdag 12 augustus 2011 @ 10:46:
Ja, in een heel enkel geval kan LVM handig zijn omdat het bijvoorbeeld kan extenten, maar of je dat wil...
Ik heb gewoon /dev/md0 gepartitioneerd met XFS
En mensen die beweren dat je LVM nodig hebt om XFS te shrinken (ja die zijn er) moeten even beter googlen
Als je partities wil gebruiken en je wil je XFS online kunnen growen dan heb je AFAIK toch echt LVM nodig. Zelfs als het offline kan doe ik het liever met LVM dan dat ik met fdisk aan gang moet.
(Met ZFS kan het denk ik ook, maar dat station waren we al gepasseerd toen we over mdadm begonnen).
[ Voor 6% gewijzigd door CAPSLOCK2000 op 12-08-2011 11:37 ]
This post is warranted for the full amount you paid me for it.
Gewoon mdadm -Cv -l 6 -n 8 /dev/md0 /dev/sd[ah] (aanpassen naar eigen smaak pls
Geen gedoe met alignment van partities.
En met XFS als filesystem prima te growen hoor.
Ik ben van 4 --> 6 --> 8 disks gegaan en dat werkte prima. Disks toevoegen aan je array, dan xfs-grow /dev/md0 en klaar. Geen fdisk nodig of wat dan ook.
Dat het daarna misging heeft daar verder niks mee te maken
[ Voor 8% gewijzigd door Sleepie op 12-08-2011 13:29 ]
Dat probeerde ik inderdaad te zeggen.. En ik heb ook inderdaad geen partities... En with good reason... Geeft alleen maar meer onduidelijkheidCAPSLOCK2000 schreef op vrijdag 12 augustus 2011 @ 11:36:
[...]
AFAIK kan XFS helemaal niet shrinken? Of probeer je dat erg indirect te zeggen?
Als je partities wil gebruiken en je wil je XFS online kunnen growen dan heb je AFAIK toch echt LVM nodig. Zelfs als het offline kan doe ik het liever met LVM dan dat ik met fdisk aan gang moet.
(Met ZFS kan het denk ik ook, maar dat station waren we al gepasseerd toen we over mdadm begonnen).
Wat Sleepie zegt klopt als een bus... Gewoon mdadm --grow en daarna xfs_grow doen. Geen gehannis met partities.
Even niets...
Onze pool bestaat uit 20 1TB SAS disken die elk mirrors van elkaar zijn, effectief is de pool dus zo'n 10TB (na afronding 9.06TB).
Daarbij hebben we vervolgens 2 STEC 8GB SSD's als ZIL en 6 160GB SSD's als L2ARC.
Het totale RAM hierbij is 24GB Ram, maar dat blijkt te weinig.
De geheugen prijzen staan nu laag, dus we overwegen naar 48GB of 96GB Ram te upgraden. Wat is redelijk in dit geval?
More is better bij ZFS, maar er is volgens mij geen punt waar ZFS geen gebruik meer kan maken van een overvloed aan geheugen, correct?
Ik zat serieus te twijfelen om over te stappen van plain freebsd naar zfsguru, maar ik mis momenteel sowieso nog een aantal features in de software zelf, en mijn VM geeft nu ook allerlei meldingen hierdoor, waardoor ik het idee heb dat de software relatief veel van de site afhangt. Iemand hier meer ervaring mee hoe vaak dit gebeurd?
De meest recente versie zou wat minder afhankelijk moeten zijn van de site middels caching, maar de afhankelijkheid is er nog wel. Dit zou op termijn moeten worden afgevangen. Ik zou je graag wijzen op de informatie daaromtrent, maar dat staat op het forum waar je nu ook niet bij kan. Even geduld dus.
Als ik zo eens kijk is vooral de "Status" page van ZFSguru afhankelijk van de site.
De "Pool" en "Disks" menu's bijvoorbeeld doen het hier prima.
Het wordt bij FreeBSD 9 heel makkelijk om root-on-ZFS te installeren en ik heb nu al iets meer ervaring met FreeBSD, dus kan het ook wel zonder webinterface
Natuurlijk kan het allemaal ook wel zonder GUI, maar het maakt het allemaal wel een stukje gemakkelijker. Bovendien vind ik het deel van ZFSguru wat af is gewoon goed in elkaar zitten, dus ik hoop toch echt dat het project door zal gaan.
Het weekend is voorbij en de ZFSguru site is nog steeds down.
Ziet er niet goed uit.....
[ Voor 13% gewijzigd door Sleepie op 15-08-2011 15:29 ]
KVM onder OpenIndiana!
[ Voor 13% gewijzigd door Splendid op 15-08-2011 20:35 ]
NICE! Dat maakt het voor mij interresant! Dan kan ik een Ubuntu VM bouwen met de kleine dingen die ik liever onder Ubuntu draai dan onder OpenIndianaSplendid schreef op maandag 15 augustus 2011 @ 20:34:
Goed nieuws voor de KVM liefhebbers! http://dtrace.org/blogs/bmc/2011/08/15/kvm-on-illumos/
KVM onder OpenIndiana!
Ik juich dit soort dingen alleen maar toe!
Even niets...
Erg mooie ontwikkeling! Hopelijk kan KVM hiermee los komen van Linux en breder ingezet worden, wat de portabiliteit van virtuele systemen en de functionaliteit van KVM alleen maar ten goede gaat komen. KVM (ik gebruik het prive overal) heeft nog een lange/behoorlijke weg te gaan t.o.v. Xen/VMWare (in mijn persoonlijke ervaring, met name op het gebied van stabiliteit inzake non-Linux OS'en) maar dit doet mij als oud Solaris-admin toch enthousiast in de handjes wrijvenSplendid schreef op maandag 15 augustus 2011 @ 20:34:
Goed nieuws voor de KVM liefhebbers! http://dtrace.org/blogs/bmc/2011/08/15/kvm-on-illumos/
KVM onder OpenIndiana!
Keuze tussen (solaris) zones en hardware virtualisatie dmv. KVM = me happy.
Sinds kort op de site:Sleepie schreef op zaterdag 13 augustus 2011 @ 23:01:
Jason was de laatste weken toch weer aardig actief op het forum. Dus ik vermoed dat de site weer wel online zal komen.
Natuurlijk kan het allemaal ook wel zonder GUI, maar het maakt het allemaal wel een stukje gemakkelijker. Bovendien vind ik het deel van ZFSguru wat af is gewoon goed in elkaar zitten, dus ik hoop toch echt dat het project door zal gaan.
edit:
Het weekend is voorbij en de ZFSguru site is nog steeds down.
Ziet er niet goed uit.....
ZFSguru is temporarily offline
A server outage has occured. Unfortunately, the person allowing me free use of this server is on vacation. I temporarily moved to a new server. Downloads and other ZFSguru services (Forum/Updates) are still offline.
My apologies to everyone relying on this service. I will improve the reliability of the server hosting as soon as possible. Thank you for your patience and understanding.
-Jason
Middels Hyper-V had ik bedacht om hier FreeNAS op te zetten en RAW 5 2 TB (Samsung F4's) aan toe te wijzen voor een ZFS storage pool (RAIDZ). 10 GB van de 16 GB geheugen zal worden toegewezen aan de storage VM. (Aldus de vuistregel in openingspost)
Heeft iemand suggesties voor een alternatief OS of zou FreeNAS goed genoeg moeten werken? Ik heb even wat rond gekeken en Solaris lijkt een degelijk alternatief, alleen is management wat minder makkelijk (Webinterface?)
Verder, kan iemand een inschatting doen over de performance van een gevirtualiseerde storage machine? Ik zit op 1 Gbit LAN, is 90-100 MB/sec realistisch? Het gaat voornamelijk om 'grotere' files 1-15 GB.
Ik haal zelf niet meer dan 60-65 MB/sec van mijn NAS naar mijn Hyper-V VMs (en andersom). Schijnbaar vreet Hyper-V toch een behoorlijk stuk van je bandbreedte.NetXtreme schreef op dinsdag 16 augustus 2011 @ 08:29:
Ik ben van plan om binnenkort te beginnen met m'n thuis-mediacenter/server. Voor alsnog word dit op het moment eerst mijn oude Phenom II X4 955. Hier ben ik van plan 16 GB ram in te prikken met Windows Server 2008 R2 als OS.
Middels Hyper-V had ik bedacht om hier FreeNAS op te zetten en RAW 5 2 TB (Samsung F4's) aan toe te wijzen voor een ZFS storage pool (RAIDZ). 10 GB van de 16 GB geheugen zal worden toegewezen aan de storage VM. (Aldus de vuistregel in openingspost)
Heeft iemand suggesties voor een alternatief OS of zou FreeNAS goed genoeg moeten werken? Ik heb even wat rond gekeken en Solaris lijkt een degelijk alternatief, alleen is management wat minder makkelijk (Webinterface?)
Verder, kan iemand een inschatting doen over de performance van een gevirtualiseerde storage machine? Ik zit op 1 Gbit LAN, is 90-100 MB/sec realistisch? Het gaat voornamelijk om 'grotere' files 1-15 GB.
Ter vergelijk: van NAS naar werkstation haal ik gewoon 100MB/sec, volle Gbit snelheid dus.
Zorg er inderdaad voor dat de VM waarop je ZFS wilt draaien direct toegang heeft tot je schijven, anders gaat het waarschijnlijk niet werken (ESXi met RDMs bijvoorbeeld werkt in mijn ervaring niet).
Als je richting Solaris wil gaan, kun je bijvoorbeeld OpenIndiana of NexentaCore met napp-it gebruiken. Napp-it biedt je een heel duidelijke web GUI voor ZFS.
Even niets...
Wat bedoel je hiermee? Zou ik voor een 2e NIC moeten zorgen en dit device rechtstreeks toewijzen aan de storage VM?FireDrunk schreef op dinsdag 16 augustus 2011 @ 09:50:
Volgens mij komt dat vooral omdat je de slechte NIC gebruikt ipv de geparavirtuliseerde... Maar ja, hyper-v en goede linux/bsd/unix drivers is weer een lastig verhaal...
Nu ik erover nadenk, in die machines zitten wat oude 500GB harddisks (4 stuks) in een RAID10 opstelling.FireDrunk schreef op dinsdag 16 augustus 2011 @ 09:50:
Volgens mij komt dat vooral omdat je de slechte NIC gebruikt ipv de geparavirtuliseerde... Maar ja, hyper-v en goede linux/bsd/unix drivers is weer een lastig verhaal...
Die zouden ook nog best wel eens de bottleneck kunnen zijn
Hyper-V ondersteund nog geen VT-d, dus hoe zou je dat willen doen?NetXtreme schreef op dinsdag 16 augustus 2011 @ 10:06:
Wat bedoel je hiermee? Zou ik voor een 2e NIC moeten zorgen en dit device rechtstreeks toewijzen aan de storage VM?
Wat ik bedoel, is als je een VM aanmakt in Hyper-V die non-windows is, krijgt het ding een E1000 achtige controller (net als vmware) alleen performt dat ding nog slechter dan onder ESX, omdat er heel veel vertaal slagen gedaan moeten worden.
Net als VMware VMXNET3 heeft, heeft Hyper-V ook een 10G NIC, (ben de naam even kwijt). Die zal je veel meer performance geven, maar is zeer waarschijnlijk niet ondersteund onder iets anders dan Windows
Even niets...
We zullen zien. Ga binnenkort nieuwe hardware aanschaffen voor mijn desktokp. Oude hardware (Phenom II X4 955), moederbord en 16 GB DDR3 gaan naar server. Dan experimenteren met ZFS via een gevirtualiseerd OS. Ik zal mijn resultaten wel even kenbaar maken, misschien dat mensen er nog wat aan hebben.FireDrunk schreef op dinsdag 16 augustus 2011 @ 10:53:
[...]
Hyper-V ondersteund nog geen VT-d, dus hoe zou je dat willen doen?
Wat ik bedoel, is als je een VM aanmakt in Hyper-V die non-windows is, krijgt het ding een E1000 achtige controller (net als vmware) alleen performt dat ding nog slechter dan onder ESX, omdat er heel veel vertaal slagen gedaan moeten worden.
Net als VMware VMXNET3 heeft, heeft Hyper-V ook een 10G NIC, (ben de naam even kwijt). Die zal je veel meer performance geven, maar is zeer waarschijnlijk niet ondersteund onder iets anders dan Windows
OS keuze blijft nog even open voor discussie.
Even niets...
En dat vindt ZFS weer niet leuk....FireDrunk schreef op dinsdag 16 augustus 2011 @ 14:30:
Je hebt geen VT-d ondersteuning, dus blijf je beperkt tot (een vorm van) RDM.
Maar je kunt in Hyper-V wel fysieke disks toewijzen aan een VM toch?
Ik heb het zelf nog nooit geprobeerd, misschien dat dat werkt, of is dat ook via een soort van RDM achtige oplossing?
[ Voor 29% gewijzigd door Sleepie op 16-08-2011 15:44 ]
Welk OS wordt er gebruikt?
Welke ZFS versie?
Welke ZFS features worden daadwerkelijk gebruikt?
Hoeveel IOPS? Gemiddelde througput?
Worden er ook zdevs gebruikt?
Wordt het systeem ook gebackupped?
Hoe zijn de schijven verdeeld?
Worden er ook SSDs gebruikt?
Hoeveel RAM?
Is er een support-contract?
Ik wil hier geen algemeen "beoordeel een NAS" topic van maken maar het specifiek bij ZFS houden. Zijn er nog andere dingen waar ik naar moet vragen?
achtergrond: onze onderzoekers produceren vele terrabytes aan data maar gaan daar niet handig mee om, stapeltjes bekraste DVDs zijn geen uitzondering. We zijn op zoek naar een manier om die data goedkoop en betrouwbaar op te slaan. Snelheid is niet zo belangrijk, betrouwbaarheid wel, vandaar dat we interesse hebben in de checksums van ZFS. We hebben goede ervaringen met zelfbouw-NASsen en overwegen nu dus een Backblaze-achtig iets te bouwen. We willen het spul wel graag binnen de deur houden, ruimte kopen bij Backblaze is dus geen optie.
This post is warranted for the full amount you paid me for it.
Wat ik ook vooral interresant vind is, hoe realiseer je groei, plaats je vdevs bij, of hele servers. Hoe partitioneer je je data, hoe regel je de authenticatie/authorisatie, hoe word de data gedeeld op het netwerk?
Niet zo zeer interessant voor ZFS zelf, maar wel, hoe heb je ZFS in je omgeving ingezet.
Even niets...
Dat is een erg goed vraag, opgenomen.FireDrunk schreef op dinsdag 16 augustus 2011 @ 19:23:
Je zou inderdaad de storage pods na kunnen maken. Goede vraag is dan, wat kost het nu, en wat kostte het voorheen? Misschien kan je use-cases en verbetervoorstellen krijgen die zij ooit gemaakt hebben om het plan door de (noem een mooie managementterm) raad heen te krijgen...
Wat ik ook vooral interresant vind is, hoe realiseer je groei, plaats je vdevs bij,
Zit er ook een ZFS component aan deze onderwerpen?of hele servers. Hoe partitioneer je je data, hoe regel je de authenticatie/authorisatie, hoe word de data gedeeld op het netwerk?
Ik dacht dat ZFS het concept parititie niet gebruikt.
Authenticatie/authorisatie lijkt me ook meer iets voor het OS dan voor ZFS.
Sharing idem ditto of heeft ZFS een ingebouwde NFS/SMB/??? server?
[ Voor 0% gewijzigd door CAPSLOCK2000 op 19-08-2011 11:20 . Reden: quote gefixed ]
This post is warranted for the full amount you paid me for it.
ZFS is in eerste instantie gebouwd voor het Solaris platform, dit platform heeft een kernel implementatie van een SMB server. ZFS is erg geintegreerd met deze SMB server.
Op FreeBSD is dat dus weer heel anders...
Even niets...
Recovering from this server failure may still take some time. I expect ZFSguru.com to be online again in one week. To protect against future service interruptions, I began working on features like multiple master servers, already implemented in development builds. I hope to release an update soon which will make ZFSguru handle website interruptions much more gracefully, as well as setup multiple webservers to allow for redundancy in case of failure. Hope you guys have a little more patience; thanks alot!
En al helemaal niet voor NAS software
Maar dat terzijde
Even niets...
De GUI kijkt op die webpage of er een update beschikbaar is en dat wordt dan netjes in de "status" pagina weergegeven.FireDrunk schreef op vrijdag 19 augustus 2011 @ 13:20:
Ik snap echt niet waarom je uberhaupt een product zou ontwikkelen wat direct afhankelijk is van internet...
En al helemaal niet voor NAS software
Maar dat terzijde
Bovendien is Jason bezig om wat "Services" te maken (dat zijn packaged installaties voor populaire dingen zoals SABnzbd, SickBeard, etc.). Deze kun je dan ook met 1 klik installeren ... en dat gebeurt -voorlopig iig nog voor zover ik weet- ook vanaf die webpage
Dus als de ZFSguru web interface start, checkt hij op beschikbaarheid van updates en nieuwe Services.
Dat stukje werkte uiteraard niet en daardoor was het opstarten van ZFSguru wat traag.
Alle ZFS functionaliteit die erin zit werkte vervolgens gewoon prima
Even niets...
Ik heb er geen last van gehad in ieder geval.FireDrunk schreef op vrijdag 19 augustus 2011 @ 13:38:
oooh, ik las verhalen dat je halve ZFSguru installatie slecht werkte door dat geneuzel...
Ik heb gewoon een nieuw "ZFS file system" kunnen aanmaken, en die kunnen sharen via zowel SMB als NFS. Werkt als een tierelier
Dit was bij de eerste release wel het geval, maar de dev heeft dit een tijd geleden al aangepast.FireDrunk schreef op vrijdag 19 augustus 2011 @ 13:38:
oooh, ik las verhalen dat je halve ZFSguru installatie slecht werkte door dat geneuzel...
Nu werkt alles, zoals het hoort. Ook zonder internet connectie.
M'n huidige fileserver lijkt me niet krachtig genoeg om ZFS te doen (Intel SAI2, 2x 1,26GHz Tualatin, 2 GB PC133 ECC SDRAM, onboard ATI rage II, 3Ware 8500-8 RAID kaart (in gebruik als domme SATA adapter ivm 2TB beperking van de kaart), 120 GB OS HDD en 8x 2TB WD EARS, Intel 1000GT nic.)
Nu staat een ZFSGuru/OpenIndiana/FreeBSD+ZFS file server wel op t verlanglijstje, maar je kunt niet alles tegelijk hebben.
Voor een binnenkort te bouwen ZFS machine had ik t volgende in gedachten:
# | Product | Prijs | Subtotaal |
1 | LSI SAS 9211-8i (SAS9211-8I/SGL) | € 208,90 | € 208,90 |
1 | Intel Xeon E3-1230 Boxed | € 184,- | € 184,- |
2 | Kingston ValueRAM KVR1333D3E9SK2/8G | € 66,53 | € 133,06 |
1 | Supermicro X9SCM-F | € 167,90 | € 167,90 |
Bekijk collectie Importeer producten | Totaal | € 693,86 |
De RAID kaart en t mobo zou je kunnen vervangen door een TYAN S5512WGM2NR, maar dat bordje is eigenlijk slecht te verkrijgen en net zo duur als de losse combo van RAID en mobo.
Wat denken de heren ZFS guru's er van??
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Met 8 schijven zou je in principe met 8GB totaal ook nog wel uit de voeten kunnen, maar met de huidige geheugenprijzen zou ik er zelf ook meteen 16GB inzetten, dan heb je meteen genoeg als je later nog eens een tweede HBA met 8 schijven wil toevoegen.
Die controller heeft op dit moment nog geen goede ondersteuning onder FreeBSD 8
De drivers schijnen al, beter te zijn, maar nog niet 100%. Dit zal bij FreeBSD 9 wel, nog beter zijn.
Sleepie schreef op vrijdag 19 augustus 2011 @ 19:05:
Lijkt me een prima setup, ik weet alleen niet of dat kaartje onder de verschillende ZFS oplossingen ondersteund wordt.
Met 8 schijven zou je in principe met 8GB totaal ook nog wel uit de voeten kunnen, maar met de huidige geheugenprijzen zou ik er zelf ook meteen 16GB inzetten, dan heb je meteen genoeg als je later nog eens een tweede HBA met 8 schijven wil toevoegen.
De LSI SAS 9211-8i is in principe de LSI SAS 2008 die je ook op o.a. Tyan en Supermicro (X8SI6-F) bordjes kunt vinden en daar zijn wel wat vermeldingen dat ZFSGuru succesvol werkt. De kaart moet dan wel naar IT mode geflashed worden. Een andere optie is een Intel RAID Controller SASUC8I of een IBM ServeRAID BR10i 8-Port SAS, beiden dan ook in IT mode.Kriss1981 schreef op vrijdag 19 augustus 2011 @ 19:43:
Mooie setup.
Die controller heeft op dit moment nog geen goede ondersteuning onder FreeBSD 8
De drivers schijnen al, beter te zijn, maar nog niet 100%. Dit zal bij FreeBSD 9 wel, nog beter zijn.
De 16 GB is inderdaad ivm de mogelijkheid op een uitbreiding naar 16 disks en laat nog 2 slots vrij om evt. naar 32 GB te gaan. Het toevoegen van ssd's tbv ZIL/L2ARC staan op t vervolg wenslijstje. Eén 80 GB Intel Postville heb ik al uit de huidige bak (ivm een overstap naar een Crucial M4 128 GB), de enige vraag is dan of die betere te gebruiken is voor ZIL of L2ARC? Wat dat betreft nog t nodige mbt ZFS na te lezen.
FreeBSD lijkt de controller wel te slikken
July 8th, 2011, 18:15
@rdeiriar, do it work perfect with 32-bit or 64-bit?
I'm building a rig now and it's Supermicro X8ST3-F (LSI 1068E) vs Supermicro X8DTH-6F (LSI 2008) which I am going to run together with HP SAS Expander and FreeBSD x64.
So if I can't be sure that LSI 2008 will do the job with FreeBSD x64 (I don't want any BS) I'll go for LSI 1068E but If there is good support for LSI 2008 I really want it.
I read around at other forums that they don't trust LSI 2008 and FreeBSD for some reason. So I made a account here to ask.
I hope anyone can help me out here
==================================================
We have FreeBSD 8.1 booting fine on the SuperMicro X8DTL-6F SAS port, and I have run some pretty extensive drive benchmarks with SAS OS and four SAS data drives. BUT, AFAIK, there is still no RAID1 support for this setup. We want to mirror the OS drive and then the other 6 SAS ports are for pass through data drives (no RAID).
De SuperMicro X8DTL-6F is voorzien van de LSI 6Gbps SAS 2008, dat klinkt dus bemoedigend.
Update-tje.
OpenIndiana heeft geen problemen met de LSI 9211-i8i
HBA Status OI release Notes Driver Contributor
Adaptec 6xxx Supported oi_151 aac Ken Mays
Areca ARC18xx Supported oi_151 acrmsr Ken Mays
LSI 92xx-xx Supported oi_151 mpt_sas Ken Mays
Qlogic QLE246x/QLE25xx Supported oi_151 qla Ken Mays
[ Voor 9% gewijzigd door Pantagruel op 21-08-2011 22:51 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik ben wel geïnteresseerd in een oplossing voor ZFS. Ik heb al begrepen dat een kleine SSD een gigantische snelheidswinst is en ik veronderstel dat ik er dan best een neem met een agressieve garbage collection vanwege het gebrek aan trim, right?
Graag had de mogelijkheid om zeker 8 schijven aan te kunnen sluiten... Ga ik dan best voor een standaard moederbordje of koop ik een deftige kaartje met genoeg sata poorten zodat ik alle HDD's op één sata kaart kan hangen? of is dit niet nodig en is het ook perfect en zonder performanceverlies te doen dat ik een set op de sata-kaart hang en een setje op de onboard sata's?
Zuinigheid is wel een pre... Ik weet dat dat wel een beetje verloren gaat met iedere disk die er bij komt, maar ik wil graag alles zo zuinig mogelijk houden... een i3 met voldoende geheugen is meer dan genoeg CPU power lijkt me zo, niet?
Voorlopig heb ik dit setje samengesteld (wenslijst: ZFS NAS), voldoende geheugen, het moederbord ken ik van mijn ESXi-verhaal maar biedt wel veel te weinig SATA aansluitingen, net zoals de case... Die twee moeten uitgebreid worden... Bij voorkeur een tower case, compact is een pre...
[ Voor 13% gewijzigd door HyperBart op 21-08-2011 17:04 ]
Die snelheidswinst valt wel mee hoor. Dat is erg afhankelijk van wat je doet met je NAS. Als het een storage bak is voor series/movies heb je er eigenlijk weinig aan, aangezien je grote files slechts af en toe benaderd.HyperBart schreef op zondag 21 augustus 2011 @ 16:56:
guys, gewoon even kort jullie reactie, ik ben niet van plan (voorlopig) om een zware array te bouwen zoals enkelen hier doen met de Norco cases, SAS expanders, SuperMicro bordjes (nu dat laat ik nog even in het midden).
Ik ben wel geïnteresseerd in een oplossing voor ZFS. Ik heb al begrepen dat een kleine SSD een gigantische snelheidswinst is en ik veronderstel dat ik er dan best een neem met een agressieve garbage collection vanwege het gebrek aan trim, right?
Het wordt een ander verhaal als je met 10 gebruikers van de NAS gebruik maakt of als je er VMs op hebt staan. Dan kan een read-cache SSD je wel winst opleveren ja.
Als je write-cache wilt toepassen, ga dan voor een SSD met supercap, zodat je bij een stroomuitval niet het risico loopt al je data kwijt te raken (tenzij je een UPS hebt, dan gaat dit weer niet op natuurlijk).
Maakt totaal niet uit waar je de disks aanhangt, zolang ZFS maar direct toegang tot de disk heeft.Graag had de mogelijkheid om zeker 8 schijven aan te kunnen sluiten... Ga ik dan best voor een standaard moederbordje of koop ik een deftige kaartje met genoeg sata poorten zodat ik alle HDD's op één sata kaart kan hangen? of is dit niet nodig en is het ook perfect en zonder performanceverlies te doen dat ik een set op de sata-kaart hang en een setje op de onboard sata's?
Ik heb zelf nu 8 disks op een Intel SASUC8i (geflashed naar IT firmware) met 2 disks die op mijn moederbord hangen samen in een 10-disk RAIDZ2 ZFS pool hangen. Werkt prima, performance is ook prima (650MB/sec read/write).
CPU power is eigenlijk niet zo belangrijk, zorg vooral dat je voldoende geheugen hebt.Zuinigheid is wel een pre... Ik weet dat dat wel een beetje verloren gaat met iedere disk die er bij komt, maar ik wil graag alles zo zuinig mogelijk houden... een i3 met voldoende geheugen is meer dan genoeg CPU power lijkt me zo...
Met de huidige geheugen prijzen moet dat niet zo'n probleem zijn.
Bijvoorbeeld een Sharkoon Rebel9 met een paar 4-in3 modules (al dan niet hotswap, ligt aan je budget) en je kunt makkelijk 10 disks of meer kwijt.Voorlopig heb ik dit setje samengesteld, voldoende geheugen, het moederbord ken ik van mijn ESXi-verhaal maar biedt wel veel te weinig SATA aansluitingen, net zoals de case... Die twee moeten uitgebreid worden... Bij voorkeur een tower case, compact is een pre...
Euh, welke modules?Bijvoorbeeld een Sharkoon Rebel9 met een paar 4-in3 modules (al dan niet hotswap, ligt aan je budget) en je kunt makkelijk 10 disks of meer kwijt.
Even niets...
Ik had de inventaris van ons esxi-bakje nog even meegekopieerd, dat zou idd een 1155 moeten/mogen zijn met een i3 2100 of meer... Dan kan je toch gebruik maken van de ingebouwde GPU met zo een 2100, toch?FireDrunk schreef op zondag 21 augustus 2011 @ 17:29:
Waarom niet S1155 ipv S1156?
Welke recentere chipsets zitten we tegenwoordig alweer?
[ Voor 23% gewijzigd door HyperBart op 21-08-2011 17:34 ]
Niet hot-swap:HyperBart schreef op zondag 21 augustus 2011 @ 17:24:
Euh, welke modules?
pricewatch: Cooler Master 4-in-3 Device Module
Hot-swap 4-in-3:
pricewatch: Icydock MB454SPF-B
pricewatch: Chieftec SST-3141SAS
pricewatch: Addonics Disk Array AE4RCS35NSA (zie mijn sig
Hot-swap 5-in-3
pricewatch: Icydock MB455SPF-B Zwart
pricewatch: Norcotek SS-500
En er zijjn er vast nog wel meer ....
Jup, maar dat heeft S1156 ook al, maar S1155 is iets zuiniger idle.HyperBart schreef op zondag 21 augustus 2011 @ 17:30:
Ik had de inventaris van ons esxi-bakje nog even meegekopieerd, dat zou idd een 1155 moeten/mogen zijn met een i3 2100 of meer... Dan kan je toch gebruik maken van de ingebouwde GPU met zo een 2100, toch?
Welke recentere chipsets zitten we tegenwoordig alweer?
H61/H67/Q67 zijn goede chipsets. Van links naar rechts hebben ze steeds meer features...
H61 is het kaalst en daarom vaak heel zuinig, maar mist Sata 6Gbps.
H67 heeft vaak sata 6Gbps
Q67 heeft (vaak) VT-d ondersteuning.
Er zijn nog meer verschillen, maar die zijn niet zo relevant voor een ESXi bakje.
H61 is niet persé een garantie voor echte zuinigheid, bekijk mijn gevloek posts maar eens over mijn Biostar H61 bordje, die verbruikt 3! keer zoveel als een H67 CF van Intel.
[ Voor 13% gewijzigd door FireDrunk op 21-08-2011 17:46 ]
Even niets...
pricewatch: Intel Desktop Board DQ67OWB3
en een nieuwe i5 2400:
pricewatch: Intel Core i5 2400
en dan volgend bordje van de ESXi:
pricewatch: MSI H55M-E33
in combinatie met de 8GB geheugen (of ik laat de 4 latjes zitten)
pricewatch: GeIL Value PLUS GVP38GB1333C9DC
pricewatch: Kingston ValueRAM KVR1333D3N9K2/8G
te gebruiken in combinatie met een pricewatch: Intel RAID Controller SASUC8I (en dat is gezien de post hierboven mij ergens nog een twijfelgeval of die daarop gaat...)
[ Voor 4% gewijzigd door HyperBart op 21-08-2011 17:55 ]
Anoniem: 361523
Heb hier namelijk 2 HP Microservers staan met 8GB RAM, dual Intel Server NIC's en nog 2 40GB SSD's voor ZIL/L2ARC
De bedoeling is om HA storage te hebben voor een Hyper-V cluster.
Heb wel het één en ander gevonden bij OpenSolaris maar wou van de kenners hier even weten of er aan te beginnen is of het weinig meerwaarde gaat bieden.
Hoe bedoel je een HA oplossing? HA op het niveau van de virtualisatie-servers of op storage niveau?Anoniem: 361523 schreef op zondag 21 augustus 2011 @ 18:02:
Iemand hier trouwens al eens geprobeerd om een HA oplossing op te zetten met ZFS?
Heb hier namelijk 2 HP Microservers staan met 8GB RAM, dual Intel Server NIC's en nog 2 40GB SSD's voor ZIL/L2ARC
De bedoeling is om HA storage te hebben voor een Hyper-V cluster.
Heb wel het één en ander gevonden bij OpenSolaris maar wou van de kenners hier even weten of er aan te beginnen is of het weinig meerwaarde gaat bieden.
HA op virtualisatieniveau is toch 'easy peasy'? Heb ik bij mijn eindwerk gedaan, weliswaar niet met ZFS, maar eender welk deftig filesysteem geserveerd via iSCSI of NFS moet het toch doen (bij VMware dan toch)
[ Voor 14% gewijzigd door HyperBart op 21-08-2011 18:09 ]
Anoniem: 361523
Dus zou graag een HA storage oplossing hebben ;-)
* HyperBart zoekt dekking
http://milek.blogspot.com...ability-environments.html
[ Voor 33% gewijzigd door HyperBart op 21-08-2011 19:31 ]
Dat is wel leuk om eens te proberen
Even niets...
Anoniem: 361523
Hehe, speel genoeg met ESXi bij klanten, plus het feit dat met een Technet abonnement alle MS software te testen is...HyperBart schreef op zondag 21 augustus 2011 @ 19:25:
Hmmm bij vmware heb je daar vsa voor![]()
* HyperBart zoekt dekking
http://milek.blogspot.com...ability-environments.html
Dat ziet er inderdaad een optie uit.d1ng schreef op zondag 21 augustus 2011 @ 21:29:
In het geval van FreeBSD zou ik kijken naar HAST evt. icm CARP
Ok, ik weet ook weer wat te doen de volgende weken...
[ Voor 32% gewijzigd door Anoniem: 361523 op 22-08-2011 08:52 ]
Anoniem: 361523
Schitterend, deze week toch eens 2 FreeBSD VM's opzetten, gaat nog een uitdaging zijn aangezien ik eigenlijk enkel ervaring heb met Debian.
Even niets...
Anoniem: 361523
Even niets...
Anoniem: 361523
Heb nu 1 van de 2 Microservers draaien met Freenas 8 en een 40GB Intel 320 SSD als ZIL.
Deze wordt gebruikt door de Hyper-V cluster via iSCSI. Dat werkt perfect en al enkele maanden stabiel, de performance mag iets beter, 10 VM's tegelijk opstarten duurt wel even nu
Het probleem is nu natuurlijk dat als ik iets wil doen aan de storage, de hele omgeving offline moet.
Ik wil dus naar een oplossing die beter presteert (hoewel ik hier geen super prestaties verwacht) door ZFS op een ander distro, de SSD te gebruiken voor zowel ZIL als L2ARC en moest het mogelijk zijn 2 NIC's te trunken. Maar vooral een HA oplossing zodat ik 1 van de 2 storage nodes offline kan halen moest dat nodig zijn, zonder de VM's offline te moeten brengen...
Ik besef dat dit een redelijk complexe aangelegenheid gaat worden, maar daarvoor zitten we op Tweakers natuurlijk...
Verder zit ik te twijfelen tussen
5x Samsung EcoGreen F4EG HD204UI, 2TB
of
5x Western Digital Caviar GreenPower WD20EARS, 2TB
Kan iemand hier een aanbeveling over doen plus onderbouwing?
Ik heb ze zowat allemaal geprobeerd en echt heel veel verschil zit er niet tussen. Het verschil wordt denk ik meer veroorzaakt door de gebruikte ZFS versie.NetXtreme schreef op maandag 22 augustus 2011 @ 13:11:
Welk OS geeft op het moment de beste performance voor ZFS? Ik zat even door dit topic te lezen en zag dat OS ook nog wel eens een impact heeft op de performance.
Maar puur naar de cijfertjes kijkend, was OpenIndiana (ZFS v28) bij mij het snelst.
Wat Sleepie zegt dus
Even niets...
Ik moet een rotte disk vervangen, deze disk staat momenteel op "FAULTED", zie hieronder.
NAME STATE READ WRITE CKSUM tank DEGRADED 0 0 0 raidz2-0 DEGRADED 0 0 0 label/disk5 ONLINE 0 0 0 label/disk10 ONLINE 0 0 0 label/disk1 ONLINE 0 0 0 label/disk2 FAULTED 18 330 2 too many errors label/disk3 ONLINE 0 0 0 label/disk4 ONLINE 0 0 0 label/disk6 ONLINE 0 0 0 label/disk7 ONLINE 0 0 0 label/disk8 ONLINE 0 0 0 label/disk9 ONLINE 0 0 0
ZFSguru heeft nog geen GUI implementatie voor het replacen van een disk (is nog in ontwikkeling) en ik heb weinig zin om de boel opnieuw te verklooien
Dus kan iemand even bevestigen hoe ik die faulted disk (hotswap) vervang?
Volgens mij zou het zo moeten zijn:
# zpool offline <poolname> <diskname> <remove drive> <insert new drive> # glabel label <name> <disk> # zpool replace <poolname> <olddisk> <newdisk>
Anoniem: 187449
Sleepie schreef op maandag 22 augustus 2011 @ 18:58:
Replacen van de disk is intussen gelukt op bovenstaande manier
De pool staat nu te resilveren.

Gisteren dus een faulted disk vervangen en na het resilveren is dit het resultaat:
[root@wega /]# zpool status tank pool: tank state: DEGRADED status: One or more devices are faulted in response to persistent errors. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace the faulted device, or use 'zpool clear' to mark the device repaired. scan: resilvered 430G in 5h37m with 0 errors on Mon Aug 22 22:35:08 2011 config: NAME STATE READ WRITE CKSUM tank DEGRADED 0 0 0 raidz2-0 DEGRADED 0 0 0 label/disk5 ONLINE 0 0 0 label/disk10 ONLINE 0 0 11 label/disk1 ONLINE 0 0 0 label/disk2 FAULTED 1 60 0 too many errors label/disk3 ONLINE 0 0 0 label/disk4 ONLINE 0 0 0 label/disk6 ONLINE 0 0 0 label/disk7 ONLINE 0 0 0 label/disk8 ONLINE 0 0 0 label/disk9 ONLINE 0 0 0
Disk 2 is dus de nieuwe disk die gisteren is aangekomen.
Wat is er dan mis met die disk?
[root@wega /]# smartctl -A /dev/da1 smartctl 5.41 2011-06-09 r3365 [FreeBSD 8.2-STABLE amd64] (local build) Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net === START OF READ SMART DATA SECTION === SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000f 253 253 051 Pre-fail Always - 0 3 Spin_Up_Time 0x0007 063 063 011 Pre-fail Always - 11800 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 3 5 Reallocated_Sector_Ct 0x0033 001 001 010 Pre-fail Always FAILING_NOW 4295
Een nieuwe disk met alweer 4295 reallocated sectors ... zucht

Die kan dus ook weer retour
Ik heb zes keer 2TB F4 en heb gelukkig nog geen problemen gehad.
Anoniem: 77995
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| errors: No known data errors pool: tank state: ONLINE scrub: scrub in progress for 307445734561825858h18m, 2.25% done, 307445734561825774h41m to go config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 raidz1 ONLINE 0 0 0 ad6 ONLINE 0 0 0 ad8 ONLINE 0 0 0 ad14 ONLINE 0 0 0 errors: No known data errors |
Even niets...
Goed, gelukkig doet Azerty niet moeilijk, maar weer een dag of 5 wachten op een vervangende schijf dus.
Ik draai nu al twee weken een degraded raidz2 pool
Even niets...
Samsung 1.5TB SpinPoint F2 EcoGreen Desktop Class HD154UIFireDrunk schreef op dinsdag 23 augustus 2011 @ 16:00:
Wat voor disk? Wil je er eentje van mij lenen? Draaien we allebei met 1 disk minder in RAID6
Ja, een diskje minder in een raid6/raidz2 set is natuurlijk niet zo heel erg, maar toch geeft het nooit een prettig gevoel. En ik blijf maar rotte disks binnenkrijgen die dan uit mijn pool gegooid worden
(Nou ja deze dus duidelijk gevallen, dan is het wel logisch)
Even een n00b vraag, want ik zie door de bomen het bos niet meer: een spindown van een RAIDZ pool met 4 disks onder OpenIndiana, is dat nu wel of niet mogelijk?
"If you see a light at the end of a wormhole, it's probably a photon torpedo!"
Dat klopt helemaal, maar vergeet niet dat die keuze kwam nadat een mdadm raid inclusief al mijn data in /dev/null verdween. Dus ik zie toch graag zsm die degraded status verdwijnenPriet schreef op dinsdag 23 augustus 2011 @ 16:26:
Bekijk het van de zonnige kant: je hebt iig profijt van gehad van je keuze voor RAIDZ2
Priet schreef op dinsdag 23 augustus 2011 @ 16:26:
Bekijk het van de zonnige kant: je hebt iig profijt van gehad van je keuze voor RAIDZ2
+1. Uit ervaring weet ik dat het gevoel bij een degraded RAID5 veel minder prettig is. Dit weet je zelf natuurlijk ook, want je bent al een keer een array met data verloren.Sleepie schreef op dinsdag 23 augustus 2011 @ 16:07:
Ja, een diskje minder in een raid6/raidz2 set is natuurlijk niet zo heel erg, maar toch geeft het nooit een prettig gevoel. En ik blijf maar rotte disks binnenkrijgen die dan uit mijn pool gegooid worden
To little, To late
Omdat de installer perse een root-on-zfs install wil uitvoeren, is dat SSD-tje een degraded RAID0 array, misschien koop ik er nog eens eentje bij en doe ik een nieuwe install op een RAID1 arraytje van twee van die schijven
Volgens mij moet je dezelfde truc wel met een USB-stickje kunnen uithalen hoor.
> Google Certified Searcher
> Make users so committed to Google that it would be painful to leave
> C64 Gospel
> [SjoQ] = SjoQing
ZFSGuru word hier volgens mij ook wel vrij hoog in het vaandel gehouden. Zitten er nog drawbacks aan ZFSGuru? Ik ben niet vies van een beetje terminal werk, maar wil ruw-weg wel al m'n shares remote kunnen managen middels een webinterface.
Basic dingen die je nodig hebt zitten allemaal in ZFSguru. Alleen dingetjes als replacen van disks, link aggregation, L2ARC enzo niet.NetXtreme schreef op dinsdag 23 augustus 2011 @ 20:11:
Thanks, zal er eens naar kijken.
ZFSGuru word hier volgens mij ook wel vrij hoog in het vaandel gehouden. Zitten er nog drawbacks aan ZFSGuru? Ik ben niet vies van een beetje terminal werk, maar wil ruw-weg wel al m'n shares remote kunnen managen middels een webinterface.
Maar wel pools en disks beheren, maken van shares via SMB en/of NFS, smart info, etc.
Het is echt wel bruikbaar en de command-line zul je zelden nodig hebben.
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.