Any job you can do in your pajamas is not the hardest job in the world.
[ Voor 18% gewijzigd door Verwijderd op 11-09-2012 22:44 ]
Any job you can do in your pajamas is not the hardest job in the world.
Yes, doet het weer. Althans de pool wordt herkend en boot zonder probleem. Echter is samba nu helemaal de weg kwijt want kan niets meer sharenVerwijderd schreef op dinsdag 11 september 2012 @ 22:51:
Ok, als het goed is heeft Jason dit zojuist gefixed; probeer het nog eens via de download pagina?
Waarom moest ik zo nodig iets fixen terwijl het niet kapot was
[ Voor 41% gewijzigd door FDMK op 12-09-2012 17:01 ]
Any job you can do in your pajamas is not the hardest job in the world.
Ik ben inmiddels vrij zeker dat ik het volgende ga kopen, laatste op-of-aanmerkingen voordat ik het dit weekend bestel?
| # | Product | Prijs | Subtotaal |
| 1 | Asus C60M1-I | € 65,59 | € 65,59 |
| 1 | Lian Li PC-Q08 Zwart | € 88,80 | € 88,80 |
| 1 | Seasonic G-Serie 360Watt | € 61,60 | € 61,60 |
| 1 | Corsair CMV16GX3M2A1333C9 | € 64,90 | € 64,90 |
| Bekijk collectie Importeer producten | Totaal | € 280,89 | |
Het geheugen wissel ik om met 8GB dual channel uit mijn desktop (prioriteiten enzo), hieraan zal dan 5x2TB van een oude groene serie van Seagate hangen (ST32000542AS). Ik ga tevens nog wat speelgoed kopen om te testen hoever het C60 platform rekt. De bedoeling is om de onboard s-ata poorten (en een m1015) te testen met 4x Crucial m4 128GB om te ontdekken wat de limiet is. Daarna kan ik de resultaten vergelijken met een i5 systeem of dual quad opteron.
nadat ik al een 8tb nas had (n40l, 5x2TB, 8GB, freenas) is er nu een 12TB nas naastgezet (C60 cpu, 5x3TB, 8GB, ubuntu met zfs ppa).
maar .. ik had er toch meer van verwacht. momenteel kopieert (rsynct) er 2TB van de ene nas naar de andere, via een NFS-mount vanaf de oude, maar het gaat allemaal maar met 35MB/s. system load zit tussen de 2 en de 17. Grappig is, dat ik een 2e copy van een file naar /dev/null met nog eens 35MB/s kan laten draaien, dus het zou ook eens kunnen zijn dat freenas gewoon maar 35MB/s aan kan.
Echter, ik heb zo'n gevoel dat de limiterende factor in het geheel toch de CPU is
iemand nog tips om eea sneller te maken? ik heb al een partitie op mn boot-ssd als log-cache gedefinieerd, maar dat helpt ook niet bijzonder veel. checksum staat op fletcher2 .. off hielp niet. alle opties staan uit. xattr staat dan weer aan. noatime ook enabled.
ohh, en een 2e vraag dan maar .. is het slim om toch maar een 6x 3TB NAS te maken, en op elk van die schijven een 9GB grote partitie te maken (voor EFI, voor ubuntu, voor swap, enz), en de rest van alle partities voor een ZFS pool ? en dan gewoon geen ssd te gebruiken? de schijven heb ik wel.
Is de voeding niet een tikkie zwaar?analog_ schreef op donderdag 13 september 2012 @ 00:39:
zfsguru correleert met slowchat al een tijdje, los op (elke post met 'jason')
Ik ben inmiddels vrij zeker dat ik het volgende ga kopen, laatste op-of-aanmerkingen voordat ik het dit weekend bestel?
# Product Prijs Subtotaal 1 Asus C60M1-I € 65,59 € 65,59 1 Lian Li PC-Q08 Zwart € 88,80 € 88,80 1 Seasonic G-Serie 360Watt € 61,60 € 61,60 1 Corsair CMV16GX3M2A1333C9 € 64,90 € 64,90 Bekijk collectie
Importeer productenTotaal € 280,89
Het geheugen wissel ik om met 8GB dual channel uit mijn desktop (prioriteiten enzo), hieraan zal dan 5x2TB van een oude groene serie van Seagate hangen (ST32000542AS). Ik ga tevens nog wat speelgoed kopen om te testen hoever het C60 platform rekt. De bedoeling is om de onboard s-ata poorten (en een m1015) te testen met 4x Crucial m4 128GB om te ontdekken wat de limiet is. Daarna kan ik de resultaten vergelijken met een i5 systeem of dual quad opteron.
1) ZFS op Ubuntu is absoluut nog niet getuned op performance, dat komt later.DrClaw schreef op donderdag 13 september 2012 @ 00:52:
beste tweakers,
nadat ik al een 8tb nas had (n40l, 5x2TB, 8GB, freenas) is er nu een 12TB nas naastgezet (C60 cpu, 5x3TB, 8GB, ubuntu met zfs ppa).
maar .. ik had er toch meer van verwacht. momenteel kopieert (rsynct) er 2TB van de ene nas naar de andere, via een NFS-mount vanaf de oude, maar het gaat allemaal maar met 35MB/s. system load zit tussen de 2 en de 17. Grappig is, dat ik een 2e copy van een file naar /dev/null met nog eens 35MB/s kan laten draaien, dus het zou ook eens kunnen zijn dat freenas gewoon maar 35MB/s aan kan.
2) Rsync over NFS is ook performance technisch niet het beste schijnt. Heeft te maken met timestamps en differences calculeren, dat gaat beter over SSH volgens mij.
(Hoewel het voor een 1e sync niet veel uit zal maken.)
3) FreeNAS heeft geen hard limiet, ik heb nog nooit software gezien die zo'n precies limiet had...
Limiterende factor is altijd hardware...
Dat zou best kunnen, kan je eens wat in top koekeloeren? Dan kan je zien welke processen de CPU time opslokken. Het is goed om te kijken naar IOWAIT.Echter, ik heb zo'n gevoel dat de limiterende factor in het geheel toch de CPU is
Volgens mij is het niet de bedoeling om zomaar je checksumalgoritmes te wijzigen... Ik weet niet of ZFS dat leuk vind.iemand nog tips om eea sneller te maken? ik heb al een partitie op mn boot-ssd als log-cache gedefinieerd, maar dat helpt ook niet bijzonder veel. checksum staat op fletcher2 .. off hielp niet. alle opties staan uit. xattr staat dan weer aan. noatime ook enabled.
Ik zou die partitie maar op 2 disks aanmaken... Dan hoeven er maar 2 disks permanent aan te blijven, en kan de rest downspinnen... Bespaart mooi wat stroom.ohh, en een 2e vraag dan maar .. is het slim om toch maar een 6x 3TB NAS te maken, en op elk van die schijven een 9GB grote partitie te maken (voor EFI, voor ubuntu, voor swap, enz), en de rest van alle partities voor een ZFS pool ?
Ligt er aan... Schrijf je Random data naar je pool? Of alleen maar films/series enzo. Lees je data die op je pool staat meerdere keren uit? (denk aan audo-, videobewerking bijvoorbeeld)en dan gewoon geen ssd te gebruiken? de schijven heb ik wel.
[ Voor 32% gewijzigd door FireDrunk op 13-09-2012 08:40 ]
Even niets...
Ik ga akkoord met FireDrunk, je voeding kan best wat lichter, en ook goedkoper.analog_ schreef op donderdag 13 september 2012 @ 00:39:
zfsguru correleert met slowchat al een tijdje, los op (elke post met 'jason')
Ik ben inmiddels vrij zeker dat ik het volgende ga kopen, laatste op-of-aanmerkingen voordat ik het dit weekend bestel?
# Product Prijs Subtotaal 1 Asus C60M1-I € 65,59 € 65,59 1 Lian Li PC-Q08 Zwart € 88,80 € 88,80 1 Seasonic G-Serie 360Watt € 61,60 € 61,60 1 Corsair CMV16GX3M2A1333C9 € 64,90 € 64,90 Bekijk collectie
Importeer productenTotaal € 280,89
Het geheugen wissel ik om met 8GB dual channel uit mijn desktop (prioriteiten enzo), hieraan zal dan 5x2TB van een oude groene serie van Seagate hangen (ST32000542AS). Ik ga tevens nog wat speelgoed kopen om te testen hoever het C60 platform rekt. De bedoeling is om de onboard s-ata poorten (en een m1015) te testen met 4x Crucial m4 128GB om te ontdekken wat de limiet is. Daarna kan ik de resultaten vergelijken met een i5 systeem of dual quad opteron.
Zelf heb ik volgende setup gekocht:
| # | Product | Prijs | Subtotaal |
| 1 | Asus C60M1-I | € 65,59 | € 65,59 |
| 1 | Western Digital Green WD20EARX, 2TB | € 93,90 | € 93,90 |
| 1 | Lian Li PC-Q08 Zwart | € 88,80 | € 88,80 |
| 1 | be quiet! Pure Power L7 300W | € 33,45 | € 33,45 |
| 1 | Kingston KVR1333D3N9/8G | € 34,11 | € 34,11 |
| Bekijk collectie Importeer producten | Totaal | € 315,85 | |
De Seasonic kan mogelijk wat efficiënter zijn en een betere bouwkwaliteit hebben, het prijsverschil haal je er nooit uit. Daarnaast is 300watt voor de C60+6hdd's meer dan zat.
Mooi dat je ook op zoek bent naar de grenzen van het C60 platform, daar ben ik op dit moment ook mee bezig
Wil je gebruik maken van ZFSGuru, FreeNAS of nog een andere distributie?
Ik wil mijn Fractal XL dan vervangen door een rebel9 aluminium met 3 van deze bays
Ik vraag me alleen af hoeveel herrie die x 6cm fan's gaan maken, max 23.3 dBA dus dat zou eigenlijk toch best stil moeten zijn. De Fractal XL had in de zomer toch wat moeite om de disks koel te houden dus vraag me ook af hoe de temps zullen zijn met de bay.
Ik heb net een nieuwe installatie van ZFSguru gedaan en het ziet er goed uit
[ Voor 14% gewijzigd door iRReeL op 13-09-2012 15:28 ]
ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w
het zal een nas worden voor films en series, dus eenmalige schrijfacties, en zo af en toe een read van een paar clients. download geschiedt op een andere machine, en wordt in 1x gekopieerd naar de nas.
wat betreft de 10gb partities voor de data-partities .. zo houd ik de sector boundaries hetzelfde voor alle schijven (moet ik trouwens een veelvoud van 4 sectoren ofzo aanhouden, voor block alignment ofzo?)
oorspronkelijke plan was, om de OS-partitie in raid1 te houden, vanwege de mogelijke uitval van 1 schijf. alle data is echter weer opnieuw te downloaden, en een nieuw OS erop zetten is ook niet zo'n probleem.
jammer dat zfs voor ubuntu nog niet optimized for speed is. de load van het systeem schommelt tussen de 2 en de 17. nog neit gekeken of dat IO waitstates zijn, maar het leek me dat het voornamelijk checksumming betreft. of het berekenen van de raid-z partitie.
Je hebt dus geen baat bij SSD's (zowel voor ZIL als L2ARC) want je gebruikt je NAS niet op de manier waar SSD's goed in zijn (Random IO / Recurring requests).
Je hele 2e alinea is natuurlijk leuk, maar geeft nog geen antwoord op mijn commentaar.
Je kan toch ook gewoon die boundaries gelijk houden? Ookal gebruik je alleen de partities van de eerste 2 schijven? Van mij part maak je dummy partities aan om het geheel gelijk te houden. Het ging er meer om dat je maar 2 schijven gebruikt voor je OS, zodat de rest uit kan.
Bedenk dat bij het opnieuw installeren van je OS je ook alle configuratie opnieuw moet doen. Dat is in het begin misschien weinig, maar word in de loop van de maanden (of zelfs jaren) wel wat meer.
Denk aan performance tuning, specifieke rechten, applicaties, en de configuratie van applicaties (SabNZBd / Sickbeard / Transmission / CouchPatato).
ZFS voor Ubuntu werkt op zich prima, dus een load van 17 vind ik wel érg hoog... Dat zou niet zomaar moeten mogen in mijn ogen, je zou er goed aan doen dat eens uit te zoeken...
PS: mijn antwoord leek vooral heel lang door de vele quotes
[ Voor 3% gewijzigd door FireDrunk op 13-09-2012 14:42 ]
Even niets...
HyperBart in "HP Proliant Microserver N40L"
[ Voor 152% gewijzigd door HyperBart op 13-09-2012 15:55 ]
Even niets...
Valt me net op maar de hardware (kast, c60, ram, voeding) kost nu ongeveer net zoveel als zon kant-en-klaar nas doosje (~250e), dat kan ook een interessante insteek om te testen zijn.
[ Voor 18% gewijzigd door analog_ op 13-09-2012 20:28 ]
Even niets...
Voor 4 van die dingen koop je een Norco case.iRReeL schreef op donderdag 13 september 2012 @ 13:54:
Ik zie dat er een nieuwe 5-in-3 trayless bay is
Volgens mij is het plaatsen van disks in de nieuwe 5-in-3 wel beter geregeld dan bij de oude die ik heb. Hier moet je de disks nog in een frame schroeven voordat ze in de bay geplaatst kunnen worden.
Ja dat klopt, helaas zijn die bays allemaal duur, maar die Norco case is wel wat lomper dan een Rebel9 en ik hoop dat ik de bays later makkelijker kan verkopen dan een Norco. Verder stel ik het trayless gedeelte ook wel op prijs, kan ik makkelijker een oude set disks gebruiken (als backup pool)Q schreef op donderdag 13 september 2012 @ 23:49:
[...]
Voor 4 van die dingen koop je een Norco case.
Ja helaas heeft deze 5-in-3 2x60MM fan en de 4-in-3 een 80MM dus ik vraag mij af of dat ook stil gaat zijn.kdbruin schreef op vrijdag 14 september 2012 @ 09:16:
Ik heb zelf zo'n Raidsonic 4-in-3 en ben er zeer tevreden mee. De ventilator hoor je niet, dwz komt niet boven de ventilator van m'n voeding uit
Volgens mij is het plaatsen van disks in de nieuwe 5-in-3 wel beter geregeld dan bij de oude die ik heb. Hier moet je de disks nog in een frame schroeven voordat ze in de bay geplaatst kunnen worden.
@Firedrunk, ik vraag me af of er uberhaupt wel een stille 60MM fan bestaat
[ Voor 6% gewijzigd door iRReeL op 14-09-2012 10:22 ]
ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w
Koud kunstje
Even niets...
Wat ik mij nu afvraagt, is het volgende,FireDrunk schreef op woensdag 08 augustus 2012 @ 17:51:
Naar wie?
===
Net nog maar weer even RDM zitten testen, maar het is echt heel vreemd.
De LSI (MPS) driver in ZFSguru geeft aan dat het device 0MB groot is. Terwijl diezelfde RDM onder windows perfect werkt.
Ik heb momenteel NEXENTA VM draaien, op een systeem waar ik de disken via RDM aan de NAS heb toegewezen. Nu las ik laatst dat dit wel werkt, maar dat je veel functionaliteit verliest.
Ik Dus een extra PCIe HybridDrives SataIII-6GBPS Low Profile controller bij Conrad besteld. Deze word echter niet door ESXI herkend.
Wie kan mij vertellen, of ik
1 echt beter af ben met een extra PCIe HBA sata controller?
2 Welke PCIe HBA werkt er onder ESXI en is ook nog een beetje betaalbaar?
3 Of hoe ik mijn huidige PCIe controler van Conrad alsnog aan de praat kan krijgen?
2.Hangt van het aantal poorten dat je nodig hebt af. pricewatch: Intel RAID Controller SASUC8I werkt bijvoorbeeld, maar kost je ook nog eens per jaar zo'n 20 tot 30 euro extra aan stroom.
3.AFAIK niet mogelijk, of er zou een ESXi upgrade moeten komen die er wel driver ondersteuning voor heeft, maar die kans lijkt me érg klein.
Het is net omwille van deze redenen dat ik ervoor gekozen heb een dedicated DIY NAS te bouwen. Misschien voor jou ook wel het overwegen waard.
[ Voor 10% gewijzigd door sloth op 14-09-2012 13:54 ]
ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w
Welke problemen zou ik dan wel kunnen tegenkomen als ik de disken via RDM aan de NAS koppelt? VT-D ondersteuning is het probleem niet. Ik heb hier een i7 systeem met 32GB staan.sloth schreef op vrijdag 14 september 2012 @ 13:51:
1.Zal je altijd nodig hebben om problemen te vermijden. Daarnaast moet je processor en moederbord ook VT-D ondersteuning hebben. Heb je dat gecheckt?
Ik zou dan een extra HBA toe willen voegen om daar mijn een SDD aan te hangen, zodat ik daar mijn NAS OS op kan instaleren. Dan neem ik de extra stroom kosten wel voor lief.2.Hangt van het aantal poorten dat je nodig hebt af. pricewatch: Intel RAID Controller SASUC8I werkt bijvoorbeeld, maar kost je ook nog eens per jaar zo'n 20 tot 30 euro extra aan stroom.
Nee een driver update zullen we wel niet krijgen. Maar ik dacht toch gelezen te hebben dat er wel low profile kaartjes door verschillende werkend gekregen zijn onder esxi.3.AFAIK niet mogelijk, of er zou een ESXi upgrade moeten komen die er wel driver ondersteuning voor heeft, maar die kans lijkt me érg klein.
Het is net omwille van deze redenen dat ik ervoor gekozen heb een dedicated DIY NAS te bouwen. Misschien voor jou ook wel het overwegen waard.
Kan je altijd doen, maar dat is net wat ik zonde ervan vind, passthrough werkt per controller en niet per sata poort waardoor je sata poorten weggooit.
Niets houdt je verder tegen om dit te doen.
Je bedoeld op custom drivers zoals die voor de Realtek 8111DL in ESXi 4.1? Ik zou er niet vanuit gaan dat iemand die zomaar gaat maken voor je, en dan nog heb je altijd het risico dat niet alles even goed werkt.
Als ik bij services op start klikt verschijnt er doodleuk "Warning: could not start Samba service!" Als dieper doorklik bij de de samba instellingen en daar op restart druk verschijnt er wel "Samba service restarted!" maar de service blijft steeds op STOPPED staan. Ik denk dat er iets mis is met de instellingen ofzo waardoor hij niet kan opstarten...iemand hetzelfde probleem?
Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.
1
2
3
4
5
6
7
| Performing sanity check on Samba configuration: OK smbd not running? (check /var/run/samba/smbd.pid). Stopping nmbd. Waiting for PIDS: 4101 Removing stale Samba tdb files: ...... done Starting nmbd. Starting smbd. |
Bij processes staat ook enkel nmbd en niet smbd.
Als ik ee /var/run/samba/smbd.pid uitvoer krijg ik 4319 dus wel een id maar ik zie hem niet lopen?
Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.
Bijvoorbeeld dat je hostname niet resolvable is, of dat soort kleine dingen. Dan zie je vaak gauw genoeg waarom.
Het probleem was dat er ingesteld was guestaccount=nfs maar er was blijkbaar geen nfs user gedefinieerd waardoor de boel dus niet wou starten. Ik heb nu gewoon die lijn weggelaten uit smb.conf en nu start alles wel en kan ik aan mijn shares. Ik weet wel niet precies hoe dit probleem ontstaan is want ik kan me niet herinneren dat ik op de oude install ooit in smb.conf heb zitten editen. In ieder geval bedankt voor de snelle depanage
Ik had ook nog een kleine bedenking. Momenteel is mijn main storage pool 6*1.5TB in Raidz1 met SPA 13. Heeft het zin om deze te upgraden naar SPA 28? Ga ik hier iets van merken of is het gewoon een risico te upgraden, dat er eventueel iets kan misgaan tijdens de upgrade?
Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.
Nee, het is geen risico en nee waarschijnlijk ga je er niks van merken mits je nieuwe functionaliteit zoekt die in v28 wel ondersteund wordt maar in v13 niet.Wouter.S schreef op zaterdag 15 september 2012 @ 20:43:
Ga ik hier iets van merken of is het gewoon een risico te upgraden, dat er eventueel iets kan misgaan tijdens de upgrade?
Sinds de 2 dagen regel reageer ik hier niet meer
Je kunt je pool gewoon upgraden naar ZFS v28 op voorwaarde dat je geen compatibiliteit meer nodig hebt met oudere versies van FreeBSD die geen ZFS v28 ondersteunen. Hetzelfde geldt voor Solaris en Linux platforms. Echter, tegenwoordig is ZFS v28 gewoon de standaard dus die is al prima compatible. ZFS v28 wordt denk ik ook de laatste officiële versie; de rest zal met 'vendor specifieke extenties' worden gevuld.
Maar je moet denken dat je pool er sneller van wordt ofzo, alhoewel bijvoorbeeld Slim ZIL wel een invloed kan hebben, evenals de Hybrid Allocator maar die zit weer niet in ZFS v28; jammer.
Ik ga de SPA dan maar op 13 laten staan denk ik, if it ain't broke, don't fix it
Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.
[ Voor 102% gewijzigd door sontax op 23-10-2022 10:10 ]
En nee je sloopt je array niet. Hij komt niet online.
[ Voor 51% gewijzigd door FireDrunk op 16-09-2012 18:27 ]
Even niets...
Wat was er precies pijn en moeite?sontax schreef op zondag 16 september 2012 @ 18:16:
Gister met pijn en moeite ZFSGuru kunnen installeren.
Bij het formatteren krijgen de disks als het goed is een labelnaam. Dus staat er bijvoorbeeld:Vervolgens is het gelukt een ZFSPool (RaidZ) te maken met 3 x 2 TB Disks.
De disks staan binnen ZFSGuru aangegeven als ada0 ada1 en ada2.
ada0 GPT: disk1
(in dit voorbeeld heb je 'disk1' als naam gekozen)
Nee. Je schakelt je systeem gewoon uit. Je disconnect één disk en probeert te booten. Lukt dat niet probeer je een andere disk. Totdat je de twee goede disks hebt geconnect en de foute disk hebt gedisconnect. Dan boot je degraded. Dan weet je welke disk de foute is.Nu vraag ik me echter af, stel er gaat een schijf stuk hoe herken ik welke schijf er stuk is en welke ik moet vervangen ?
Ik neem aan dat als ik vervolgens de verkeerde eruit trek me raid array helemaal sloop met als mogelijk gevolg data verlies ?
ZFS raakt niet zomaar corrupt, je kunt je schijven in alle volgorden of op andere systemen aanspreken. Op de disks zelf wordt bijgehouden bij welke pool configuratie ze horen.
Edit: en zoals boven aangegeven. Je kunt bijvoorbeeld een gedeelte van het serienummer in de labelnaam verwerken. Dan weet je gelijk om welke disks het gaat. Zelf doe ik plakkertjes op de disks met een code. Dan hoef ik ze niet uit te bouwen om het serienummer te checken. Zodoende.
[ Voor 10% gewijzigd door Verwijderd op 16-09-2012 18:38 ]
Leuk die documentie over system images van ZFSguru overigens:
Ja...ja.Recommendation
Recommended semi-experimental version.
[ Voor 38% gewijzigd door Dadona op 16-09-2012 20:13 ]
Maar over serienummer nog: je kunt bijvoorbeeld ook de eerste 4 - 6 karakters gebruiken als label, en dat nog even los op de disk schrijven of plakken. Zo kun je ze goed identificeren zonder dat je ze eruit hoeft te halen om het serienummer uit te kunnen lezen. Dat lijkt mij namelijk nogal omslachtig zeker met veel disks.
Ik ben mezelf een nas aan het bouwen en denk hierop freenas met zfs te draaien.
Bedoeling is om te beginnen met 4 hd en in de toekomst uit te breiden naar 6 hd's.
Ik zou hierbij dan RAIDZ2 (raid 6 variant, zodat 2 hd's stuk "mogen" gaan) draaien.
Kan ik in de toekomst 2 hd's zonder problemen bij plaatsen? Of zijn er "valkuilen" die ik moet voorzien?
Als je dus 4 disks in RAIDZ2 hebt staan, kan je daar niet later 2 disks aan toevoegen.
Wat in theorie wel kan, is een RAIDZ2 array maken met 2 memory disks, en deze daarna verwijderen.
Dan heb je een RAIDZ2 array zonder redundantie. Als je daarna 2 disks toevoegt, worden dat dus de parity disks en gaat ZFS resilveren.
Maar als daar een half jaar-jaar tussenzit is dat natuurlijk niet slim, want dan draai je al die tijd met volle risicio's.
Even niets...
Zeker? Want volgens wikipedia (ik weet het: niet meteen de betrouwbaarste bron): Wikipedia: ZFSFireDrunk schreef op maandag 17 september 2012 @ 10:31:
Je kan een vdev (een soort array) niet vergroten.
Als je dus 4 disks in RAIDZ2 hebt staan, kan je daar niet later 2 disks aan toevoegen.
Wat in theorie wel kan, is een RAIDZ2 array maken met 2 memory disks, en deze daarna verwijderen.
Dan heb je een RAIDZ2 array zonder redundantie. Als je daarna 2 disks toevoegt, worden dat dus de parity disks en gaat ZFS resilveren.
Maar als daar een half jaar-jaar tussenzit is dat natuurlijk niet slim, want dan draai je al die tijd met volle risicio's.
Storage pool composition is not limited to similar devices but can consist of ad-hoc, heterogeneous collections of devices, which ZFS seamlessly pools together, subsequently doling out space to diverse filesystems as needed. Arbitrary storage device types can be added to existing pools to expand their size at any time.
Er zijn voor mij een aantal argumenten waarom dit belangrijk zou zijn voor het project:
-De huidige installatiemethode is omslachtig, en enkel geschikt voor installatie op een HDD/SSD die hierdoor niet kan downspinnen.
-Het is voor veel mensen wel zo handig om je OS vanaf een USB stick te hebben draaien, zodat je al je sata ports aan data disks kan toewijzen. Zo kan je ze ook laten downspinnen na inactiviteit, wat weer positief is voor de zuinigheid van je NAS.
-RAM is erg goedkoop momenteel. Er is dus vaak veel geheugen vrij om een ramdisk te maken voor alle settings die nu naar een disk geschreven worden. Dit verminderd ook nog eens het aantal write cycli, niet onbelangrijk voor een ssd lijkt me.
Je kan vdev's wel aan elkaar plakken, wat je dus in theorie kan doen is 4 disks kopen en in RAIDZ2 zetten, en daarna een mirror van 2 nieuwe schijven daaraan toevoegen.scatman schreef op maandag 17 september 2012 @ 11:02:
[...]
Zeker? Want volgens wikipedia (ik weet het: niet meteen de betrouwbaarste bron): Wikipedia: ZFS
[...]
Wat NIET kan is een bestaande vdev vergroten met nieuwe disks.
Even niets...
Ik heb nu van een VM met VirtualBox die op een ZFS draait, een SMB transfer gedaan, van die VM, naar dezelfde stripe (ok, daar kan het probleem ook liggen), maar ik had dan eerder een constante, desnoods tragere troughput verwacht ipv een burst en dan weer even stil...
Gebruik je ZFSGuru om te testen?
Hier zie je iemand met hetzelfde probleem, ook met een N40L.
Het probleem wat jullie ervaren zou bekend staan als "ZFS breathing". Iemand die hier wat meer over kan vertellen?
Daarom ga ik een usb 3.0 externe schijf gebruiken voor ZFSguru en downloadssloth schreef op maandag 17 september 2012 @ 11:03:
CiPHER, hoe zit het met de planning voor een embedded release van ZFSGuru, die je op een usbstick kan installeren, net zoals FreeNAS die heeft?
Er zijn voor mij een aantal argumenten waarom dit belangrijk zou zijn voor het project:
-De huidige installatiemethode is omslachtig, en enkel geschikt voor installatie op een HDD/SSD die hierdoor niet kan downspinnen.
-Het is voor veel mensen wel zo handig om je OS vanaf een USB stick te hebben draaien, zodat je al je sata ports aan data disks kan toewijzen. Zo kan je ze ook laten downspinnen na inactiviteit, wat weer positief is voor de zuinigheid van je NAS.
Ik heb afgelopen weekeinde ook even met VirtualBox onder OpenIndiana op mijn N40L zitten spelen. Ik heb maar 4 GB erin zitten, en merk dat geheugengebruik van de VM best invloed heeft op de snelheid, doordat er minder voor je ARC overblijft. Ook moest ik zorgen dat ARC niet teveel gebruikte, zodat ik genoeg vrij had om de VM uberhaupt te kunnen starten.HyperBart schreef op maandag 17 september 2012 @ 11:52:
Troughput die continu even burst en dan weer stilvalt, dat lag toch vaak aan te weinig geheugen he? Heb nu een N40L met 2x 400GB en 1x 250GB in test draaien...
Ik heb nu van een VM met VirtualBox die op een ZFS draait, een SMB transfer gedaan, van die VM, naar dezelfde stripe (ok, daar kan het probleem ook liggen), maar ik had dan eerder een constante, desnoods tragere troughput verwacht ipv een burst en dan weer even stil...
Hoe configureer jij de disken voor de VM's eigenlijk ? Disk images is een zfs folder ? Of zvol blockdevices die je met VBoxManage als raw volume benadert ?
Overigens ben ik best onder de indruk van de mogelijkheden, volwassenheid (documentatie
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Volgens mij heeft het met de max Dirty VM space te maken. Ik heb thuis in mijn favorieten daar een linkje over. Staat letterlijk in: "Solve the bursty behavior of ZFS".
[ Voor 4% gewijzigd door FireDrunk op 17-09-2012 12:43 ]
Even niets...
- AMD Phenom II X6 1055T Processor
- ASROCK 890GX Extreme 3 Mobo
- 8GB DDR3 Memory
- 8 * SAMSUNG HD103SJ 1AJ10001
- 2 * Western Digital Green WD20EARS
- RealTek 8168/8111 B/C/CP/D/DP/E PCIe Gigabit Ethernet
pool: tank
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
ada1 ONLINE 0 0 0
ada2 ONLINE 0 0 0
ada3 ONLINE 0 0 0
ada4 ONLINE 0 0 0
errors: No known data errors
Snelheden read en write lokaal op de machine zijn > 200MB/s, ook bij het verplaatsen van 30GB iso's etc.
Echter AFP en SMB performance zijn om te huilen. Read snelheden zijn op zich prima en zijn sequentieel iets van 70+ MB/s, maar writen via SMB en AFP gaat zo rond de 10-15MB per seconde. kleine bestanden is helemaal een drama. Ik heb met wat tweaken de SMB performance zo gekregen, want eerst was het zelfs 3MB/s.
Ik verdenk de crappy Realtek, want dat is natuurlijk een onding, maar zijn er wellicht nog andere dingen waar ik overheen gekeken heb?
Dat idee had ik ook, ik heb een 64GB USB 3.0 SSD gekocht voor dit doeleinde (OS + applicaties), echter mijn ASUS bordje wil niet standaard booten van deze USB disk. Daarnaast is het ook nog eens zo dat FreeBSD 9.x soms problemen heeft met het herkennen van USB 3.0 disken tijdens de bootvoortgang (dit is een gekend probleem van FreeBSD).EnerQi schreef op maandag 17 september 2012 @ 12:07:
[...]
Daarom ga ik een usb 3.0 externe schijf gebruiken voor ZFSguru en downloads500 GB aan plaats en met de usb 3.0 verbinding gewoon snel genoeg. Nu kijken of ik uberhaupt kan opstarten via usb 3.0....
Ik heb dus noodgedwongen mijn SSD aan een USB 2.0 poort gehangen en nu boot hij zonder problemen, echter moet ik iedere keer bij een herstart van het systeem, het USB device handmatig selecteren als bootdevice
Mijn doel is ook om alle 6 onboard SATA poorten te gebruiken voor HDD's met de mogelijkheid om deze te laten downspinnen.
GA-Z97X-UD5H, Core i5 4670, 8Gb DDR3, MSI GTX 1050 Ti 4Gb, Samsung 840 EVO 250 Gb SSD, BCM94360CD Wifi+Bluetooth 4.0LE, MacOS 13 High Sierra
YouTube: ZFS in the Trenches Part 4sloth schreef op maandag 17 september 2012 @ 12:06:
Het probleem wat jullie ervaren zou bekend staan als "ZFS breathing". Iemand die hier wat meer over kan vertellen?
Nevermind,__fred__ schreef op maandag 17 september 2012 @ 16:02:
Snelheden read en write lokaal op de machine zijn > 200MB/s, ook bij het verplaatsen van 30GB iso's etc.
Echter AFP en SMB performance zijn om te huilen. Read snelheden zijn op zich prima en zijn sequentieel iets van 70+ MB/s, maar writen via SMB en AFP gaat zo rond de 10-15MB per seconde. kleine bestanden is helemaal een drama. Ik heb met wat tweaken de SMB performance zo gekregen, want eerst was het zelfs 3MB/s.
Ik verdenk de crappy Realtek, want dat is natuurlijk een onding, maar zijn er wellicht nog andere dingen waar ik overheen gekeken heb?
Polling aangezet op de realtek kaart en nu ook write performance van > 70+ MB/s. Realtek is officieel een baggerding met veel te veel interrupt generatie.
Dus, die kerel zegt gewoon dat ZIL uitzetten een prima idee is als je kan leven met 1 minute write loss.
Dat kan ik wel op een Film + TV Series bak...
Even niets...
Uit de favorieten:HyperBart schreef op maandag 17 september 2012 @ 11:52:
Troughput die continu even burst en dan weer stilvalt, dat lag toch vaak aan te weinig geheugen he? Heb nu een N40L met 2x 400GB en 1x 250GB in test draaien...
Ik heb nu van een VM met VirtualBox die op een ZFS draait, een SMB transfer gedaan, van die VM, naar dezelfde stripe (ok, daar kan het probleem ook liggen), maar ik had dan eerder een constante, desnoods tragere troughput verwacht ipv een burst en dan weer even stil...
http://lists.freebsd.org/...2011-February/061642.html
# Decrease ZFS txg timeout value from 30 (default) to 5 seconds. This
# should increase throughput and decrease the "bursty" stalls that
# happen during immense I/O with ZFS.
# http://lists.freebsd.org/...2009-December/007343.html
# http://lists.freebsd.org/...2009-December/007355.html
vfs.zfs.txg.timeout="5"
Even niets...
is dit niet de default instelling sinds v28 erin zit?FireDrunk schreef op maandag 17 september 2012 @ 17:11:
[...]
Uit de favorieten:
http://lists.freebsd.org/...2011-February/061642.html
[...]
Ik probeerde met de nieuwe versie dan MC te installeren nadat ik dan de portstree via services heb gedownload maar nu blijkt er geen MC in de /usr/ports/misc directory te staan?Verwijderd schreef op woensdag 01 augustus 2012 @ 11:21:
AjaxPlorer is broken met PHP5.4. Als je PHP5.4 eraf knalt en PHP5.3 installeert, dan werkt het weer. Maar ik ben nu bezig met een nieuwe versie van AjaxPlorer, kijken of dat meer succes heeft.
Als je ports wilt installeren, gebruik dan de officiële portstree service (system-portstree in zfsguru categorie). Anders zit je met afwijkende versies enzo.
Je kunt ook quick and dirty `pkg_add -r mc` doen.
Ik vind MC erg handig om e.e.a na te kijken en de virtuele hdd's te kopieren (die zet ik dan in de home folder op de OS disk). AJAX file browser is blijkbaar niet beschikbaar voor 9.1-003 krijg ik te zien.
Is er iets anders dan MC wat ik kan installeren (zonder problemen te hebben met ZFSguru) of hoe kan ik MC het beste installeren?
ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w
Even niets...
Er staat ook vanalles in de MISC dir maar geen MC blijkbaar.
ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w
Sinds de 2 dagen regel reageer ik hier niet meer
find /usr/ports | grep mc
?
Even niets...
Ja die was ik ook al tegengekomen, is dus de statische treshold hoelang ZFS zijn transaction groups bijhoudt in de ZIL...
Maar aangezien ik versie 28 draai, zou dat bij mij al standaard op 5 moeten staan?
Hmmm, toch niet...
[ Voor 3% gewijzigd door HyperBart op 17-09-2012 20:50 ]
Bovendien gaan die settings over Solaris volgens mij...
Heeft het geholpen?
https://sites.google.com/site/eonstorage/zpool_notes
Interesante info over write penalties en hoe je benodigde IOPS moet/kan berekenen.
[ Voor 29% gewijzigd door FireDrunk op 18-09-2012 09:11 ]
Even niets...
Kan het zijn dat een rebootje nodig is?FireDrunk schreef op dinsdag 18 september 2012 @ 08:33:
Heeft het geholpen?
Even niets...
pricewatch: GeIL GV34GB1333C9DC
pricewatch: Fractal Design Arc Midi Tower
pricewatch: Intel Pentium G620 Boxed
pricewatch: MSI H61MA-E35 (B3)
pricewatch: Adata Classic C906 4GB Zwart
pricewatch: Samsung Spinpoint F3 HD103SJ, 1TB
pricewatch: Western Digital Green WD10EARS, 1TB
De disken, en het geheugen hiervoor had ik nog liggen en wordt met de tijd nog vervangen. Als besturingssysteem gebruik ik freenas (8.3 beta 2)
In totaal zijn er 6 schijven (4x de WD en 2x de Samsung), deze zijn ingedeeld in 2x een 3disk Raidz samengevoegd in 1 tank. Totaal op dit moment dus ~4Tb opslag.
Deze schijven gaan binnenkort geupgrade worden naar 3 of 4 TB versies om de opslag daadwerkelijk uit te breiden, maar vooralsnog heb ik voldoende aan m'n 4tb.
Even niets...
Yep, dat kan freenas, moet de disks 1 voor 1 vervangen, maar zodra de laatste disk in een set (bij mij dus 3 disken) is vervangen. Krijg je de nieuwe grootte meteen beschikbaar.FireDrunk schreef op dinsdag 18 september 2012 @ 12:49:
Je wil de disks in de toekomst in place vervangen?
*edit dit is ook de reden dat ik heb gekozen voor 2x raid-z van 3 disken ipv een raid-z2 van 6 disken.
[ Voor 13% gewijzigd door DrFlash op 18-09-2012 13:32 ]
YouTube: ZFS - Home server - Why?
Man of vrouw? Ik dacht in het begin dat het echt een man was (deed me zelfs denken aan Russel Crowe), tot ik haar home-page zag
Iemand trouwens een "zuinig" ideetje voor een moederbord om connectiviteit en RAM te voorzien voor voor minimaal 20 spindles
Uitbreiding mag geleidelijk aan, desnoods met insteekkaarten... Zou eigenlijk een paar reference builds willen zien met als basis een Norco RPC-4020 of 4224. De 4020 lijkt me trouwens iets "netter" en minder cheap qua bays dan een 4224 ?
[ Voor 47% gewijzigd door HyperBart op 18-09-2012 16:54 ]
Ben mijn i5-3550 / Q77 build aan het afmaken!
Specs:
Intel Core i5-3550
4*4 GB 1333Mhz DDR3
Intel DQ77MK Plank
IBM M1015 Adapter met daarop 4 * Seagate 2TB 5900 RPM en een Samsung F4EG 2TB.
2 * Intel G2 Postville 80GB SSD's
Plan is om op beide SSD's een partitie van 10GB te maken en deze te mirroren als bootpool
Rest van de SSD's word ZIL op de ene en L2ARC op de andere.
Disks gaan in RAIDZ.
Ook zit er een Intel AF DA 10Gb adapter in...
Eens kijken wat dat kan worden
[ Voor 70% gewijzigd door FireDrunk op 18-09-2012 18:13 ]
Even niets...
Wordt een back-up server die, fysiek, elders komt te staan als vervanger van de Synology. Controle op afstand leek me gewenst, echter wel een beetje overkill aan moederbord en CPU.
Eerst alleen voor back-up, later evt. voor "Plex - achtige" mogelijkheden. (audio/video bekijken)
Samenstelling op basis van het ZFS- , DIY NAS en zuinige server topic.
Voorkeur gaat uit naar RAID-Z2.
Twee dingen waar ik niet goed uitkom, is het volgende. ZFSGuru of Freenas?
Voordeel voor Freenas lijkt dat een "Plex - achtige" oplossing later beter toepasbaar is en daarnaast vanaf USB te draaien is met oog op downspinnen HDD's. Of zie ik dit verkeerd?
Is de IPMI functie meteen ook de zwakke schakel op het moederbord t.a.v. de "virus" - veiligheid en dien ik dit nog beter te beveiligen?
| # | Product | Prijs | Subtotaal |
| 6 | Western Digital Green WD20EARX, 2TB | € 92,90 | € 557,40 |
| 1 | Antec Three Hundred Two | € 49,99 | € 49,99 |
| 1 | Intel Core i3 2100 Boxed | € 100,95 | € 100,95 |
| 1 | be quiet! Straight Power E9 400W | € 62,50 | € 62,50 |
| 2 | Kingston ValueRAM KVR1333D3E9SK2/8G | € 48,23 | € 96,46 |
| 1 | Supermicro X9SCL-F | € 163,51 | € 163,51 |
| Bekijk collectie Importeer producten | Totaal | € 1.030,81 | |
Gasloos 26-05-2020; SHW112YAA + ERSC-VM2C, SWW 400L
Verder prima setup!
Ik zou me niet druk maken om IPMI / iKVM problemen, geef het ding gewoon een beetje vreemd statisch IP.
Bijvoorbeeld: Je thuis range is 192.168.1.0-255, dan kan je dat ding 192.168.2.1 geven.
Mocht je er dan bij willen, geef je je desktop een 2e IP in die range.
Zodra je ermee klaar bent, haal je het weg.
Even niets...
Zolang je ze combineert met een workstation/server chipset als het goed is wel.FireDrunk schreef op dinsdag 18 september 2012 @ 20:00:
Een i3-2100 doet geen ECC volgens mij?
Even niets...
Mijn NAS is haast klaar!
ZFSGuru geinstalleerd en mijn idee van hierboven is bijna helemaal gelukt.
Enige verschil is dat ik de SSD's nog een extra gemirrorde partitie heb gegeven voor een aantal VM's
Dan kan de data array iig uit mocht er niks te doen zijn.
Verder eigenlijk geen fouten! Ubuntu VM gemaakt in VirtualBox en die via NFS aan mijn data array gekoppeld.
Daar SabNZBd, Sickbeard, CouchPatato, Headphones en Transmission op geinstalleerd en aan elkaar geknoopt.
Nu maar eens testen wat de performance is
[ Voor 84% gewijzigd door FireDrunk op 18-09-2012 22:43 ]
Even niets...
Hoe veilig vind je jouw SSD's voor ZIL? Ga je voor de SSD Battery van Mux, of hebben deze SSD's geen vluchtig geheugen?
Heb er zijn namelijk ook nog twee "over".
Wat het leuke is, is dat als je ZIL st0ek gaat je array helemaal niet corrupt is, je alleen hoogstens tot een minuut aan writes kwijt bent. En dat is (voor de array waar de SSD ZIL voor is) toch maar een TV serie aflevering ofzo.
Dat kan ik wel hebben
Zie net dat de NFS performance wel om te janken is (30MB/s schrijven, 19MB/s lezen...)
En dat met ZIL en L2ARC...
Even kijken waarom...
[ Voor 14% gewijzigd door FireDrunk op 18-09-2012 23:00 ]
Even niets...
[ Voor 126% gewijzigd door Patatjemet op 19-09-2012 00:29 ]
- raid does not fix stupid -
(da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 41 a6 0 0 20 0 length 16384 SMID 530 completed timedout cm 0xffffff800371c710 ccb 0xfffffe0011755800 during recovery ioc 804b scsi 0 state c xfer (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 41 a6 0 0 20 0 length 16384 SMID 530 terminated ioc 804b scsi 0 state c xfer 0 (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 42 2c 0 0 18 0 length 12288 SMID 805 completed timedout cm 0xffffff8003732768 ccb 0xfffffe001171e800 during recovery ioc 804b scsi 0 state c xfer (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 42 2c 0 0 18 0 length 12288 SMID 805 terminated ioc 804b scsi 0 state c xfer 0 (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 41 c7 0 0 64 0 length 51200 SMID 671 completed timedout cm 0xffffff8003727bb8 ccb 0xfffffe0011761800 during recovery ioc 804b scsi 0 state c xfer (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 41 c7 0 0 64 0 length 51200 SMID 671 terminated ioc 804b scsi 0 state c xfer 0 (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 42 45 0 0 40 0 length 32768 SMID 759 completed timedout cm 0xffffff800372ec78 ccb 0xfffffe001175f800 during recovery ioc 804b scsi 0 state c xfer (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 42 45 0 0 40 0 length 32768 SMID 759 terminated ioc 804b scsi 0 state c xfer 0 (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 40 36 0 1 0 0 length 131072 SMID 778 completed timedout cm 0xffffff80037304d0 ccb 0xfffffe0011727800 during recovery ioc 804b scsi 0 state c xfer (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 40 36 0 1 0 0 length 131072 SMID 778 terminated ioc 804b scsi 0 state c xfer 0 (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 41 a3 0 0 1 0 length 512 SMID 1015 completed timedout cm 0xffffff8003743478 ccb 0xfffffe00116eb000 during recovery ioc 804b scsi 0 state c xfer 0 (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 41 a3 0 0 1 0 length 512 SMID 1015 terminated ioc 804b scsi 0 state c xfer 0 (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 41 6c 0 0 36 0 length 27648 SMID 567 completed timedout cm 0xffffff800371f678 ccb 0xfffffe0011719800 during recovery ioc 804b scsi 0 state c xfer (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 41 6c 0 0 36 0 length 27648 SMID 567 terminated ioc 804b scsi 0 state c xfer 0 (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 3f eb 0 0 46 0 length 35840 SMID 595 completed timedout cm 0xffffff8003721a58 ccb 0xfffffe001172e800 during recovery ioc 804b scsi 0 state c xfer (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 3f eb 0 0 46 0 length 35840 SMID 595 terminated ioc 804b scsi 0 state c xfer 0 (noperiph:mps0:0:1:0): SMID 1 abort TaskMID 737 status 0x0 code 0x0 count 10 (noperiph:mps0:0:1:0): SMID 1 finished recovery after aborting TaskMID 737 mps0: mpssas_free_tm releasing simq (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 3f ac 0 0 3b 0 (da0:mps0:0:1:0): CAM status: Command timeout (da0:mps0:0:1:0): Retrying command (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 2c cd 3f ac 0 0 3b 0 (da0:mps0:0:1:0): CAM status: SCSI Status Error (da0:mps0:0:1:0): SCSI status: Check Condition (da0:mps0:0:1:0): SCSI sense: UNIT ATTENTION asc:29,0 (Power on, reset, or bus device reset occurred) (da0:mps0:0:1:0): Retrying command (per sense data) (da0:mps0:0:1:0): WRITE(10). CDB: 2a 0 3 38 e7 6f 0 0 40 0 (da0:mps0:0:1:0): CAM status: SCSI Status Error (da0:mps0:0:1:0): SCSI status: Check Condition (da0:mps0:0:1:0): SCSI sense: UNIT ATTENTION asc:29,0 (Power on, reset, or bus device reset occurred) (da0:mps0:0:1:0): Retrying command (per sense data)
Misschien dat dit er iets mee te maken heeft... Snapt iemand welke disk dit nou zou moeten zijn?
Er staat 0:0:1:0, maar dat zegt mij weinig...
Er is ook echt een disk aan het afsterven, ik hoor wel eens wat tik geluidjes, maar dat wist ik al
Well butter my biscuit...
[root@zfsguru /home/ssh]# sysctl dev.cpu.0.cx_lowest=C3 dev.cpu.0.cx_lowest: C1 -> C3 [root@zfsguru /home/ssh]# sysctl dev.cpu.1.cx_lowest=C3 dev.cpu.1.cx_lowest: C1 -> C3 [root@zfsguru /home/ssh]# sysctl dev.cpu.2.cx_lowest=C3 dev.cpu.2.cx_lowest: C1 -> C3 [root@zfsguru /home/ssh]# sysctl dev.cpu.3.cx_lowest=C3 dev.cpu.3.cx_lowest: C1 -> C3
Dat scheelt stroom
[ Voor 6% gewijzigd door FireDrunk op 19-09-2012 11:08 ]
Even niets...
Was vooral vanuit dat "zuinigheidsprincipe".. Voor zover 20 disks en het bijhorende MoBo, CPU en geheugen absoluut gezien nog zuinig zijn... Een servermoederbordje à la Tyan of SuperMicro bordjes weet ik zowieso wel te vinden, maar misschien waren er mensen à la mux die weten waar daar de zuinige type'tjes zijn te vinden... Wou er eigenlijk vooral de discussie over aanwakkeren en eens kijken welke argumenten pro of contra voor het ene of het andere zijn...FireDrunk schreef op dinsdag 18 september 2012 @ 17:11:
Wat bedoel je met Reference build? Ik ken jou, en je bent capabel genoeg om het zelf uit te zoeken...
Hoe doe je de spin up, met wie of wat laat je ze staggered doen, ondersteunen alle moederbordjes dat of is dat vaak iets wat alleen bij RAID-kaartjes te vinden is? Je backplane van je case, neem je dan een SATA backplane of een SAS, want dat beperkt de keuze qua moederborden, althans als je onboard poorten (of het nu SAS of SATA is) wilt gebruiken... OK, je kan ook weer werken (vanuit controller point of view) met SAS naar SATA of reverse breakout cables (SATA naar SAS)
Gisteren de configuratie afgemaakt en getest. Via Samba toch gewoon 90-100mb/s schrijven naar de NAS, best netjes en meer dan voldoende al vind ik het zelf. Wil nog meer snelheidstests uitvoeren maar wat zijn hier nu goede (freeware) programmas voor?DrFlash schreef op dinsdag 18 september 2012 @ 12:48:
Ik heb gisteren een Nas gebouwd van de volgende onderdelen:
Sinds de 2 dagen regel reageer ik hier niet meer
Dit is zo out of the box, zonder enige tuning?
Je kan ook nog eens tussen 2 ramdisks testen om mogelijke bottlenecks op disk niveau uit te sluiten.
In FreeNAS kan je als volgt een ramdisk aanmaken:
1
2
| /sbin/mdmfs -M -S -o async -s 2000m md3 /mnt/jouwvolume/ramdisk chmod 777 /mnt/jouwvolume/ramdisk |
In de aanname dat je windows gebruikt kan je gebruik maken van SuperSpeed RamDisk 11
-->Iperf en CrystalDiskMark al gedaan?<--
Gaan we proberen.
-->In de aanname dat je windows gebruikt kan je gebruik maken van SuperSpeed RamDisk 11<--
Ik heb een windows machine waarmee ik kan testen, voornamelijk windows machines op het netwerk.
[ Voor 45% gewijzigd door DrFlash op 19-09-2012 12:55 ]
Had niet stil gestaan of de CPU en ECC met elkaar mogelijk was op de X9SCL-F. Dacht op basis van onderstaand dat het zou lukken.Nielson schreef op dinsdag 18 september 2012 @ 21:30:
[...]
Zolang je ze combineert met een workstation/server chipset als het goed is wel.
Bron Supermicro
Intel® Xeon® processor E3-1200 & v2 series, Intel® 2nd Gen Core i3 processors *** *
Socket H2 (LGA 1155)
* Per Intel's spec, for platforms using C202/C204 PCH:
1) Intel i5/i7 CPUs are not supported
2) Intel E3-12x5 series processors which have integrated graphics support are not recommended.
** Supermicro X9SCL-F motherboard is using a dedicated graphic from Matrox G200eW.
*** BIOS rev. 2.0 or above is needed to support new E3-1200 v2 CPUs, which supports PCI-E 3.0 & DDR3 1600.
Gasloos 26-05-2020; SHW112YAA + ERSC-VM2C, SWW 400L
Even niets...
Dan heb ik geluk met mijn moederbord, hier boot mijn usb 3.0 harde schijf vlekkeloos maar iets trager door de boot heen. De bootloader heeft er moeite mee lees een seconden of 4. Dit in tegenstelling op mijn HTPCronzelver schreef op maandag 17 september 2012 @ 16:24:
[...]
Dat idee had ik ook, ik heb een 64GB USB 3.0 SSD gekocht voor dit doeleinde (OS + applicaties), echter mijn ASUS bordje wil niet standaard booten van deze USB disk. Daarnaast is het ook nog eens zo dat FreeBSD 9.x soms problemen heeft met het herkennen van USB 3.0 disken tijdens de bootvoortgang (dit is een gekend probleem van FreeBSD).
Ik heb dus noodgedwongen mijn SSD aan een USB 2.0 poort gehangen en nu boot hij zonder problemen, echter moet ik iedere keer bij een herstart van het systeem, het USB device handmatig selecteren als bootdevice
Mijn doel is ook om alle 6 onboard SATA poorten te gebruiken voor HDD's met de mogelijkheid om deze te laten downspinnen.
Even niets...
Dan mist mijn HTPC dus de "fatsoenlijke"FireDrunk schreef op donderdag 20 september 2012 @ 12:02:
UEFI vs BIOS verhaal denk ik zo... Booten van USB3 lijkt me alleen mogelijk met een fatsoenlijke UEFI (achtige) BIOS...
75MB/s als recordsnelheid via NFS...
iperf:
[root@NAS /home/ssh]# iperf -s ------------------------------------------------------------ Server listening on TCP port 5001 TCP window size: 64.0 KByte (default) ------------------------------------------------------------ [ 4] local 192.168.1.3 port 5001 connected with 192.168.1.4 port 44332 [ ID] Interval Transfer Bandwidth [ 4] 0.0-10.0 sec 2.00 GBytes 1.71 Gbits/sec [ 5] local 192.168.1.3 port 5001 connected with 192.168.1.4 port 44333 [ 4] local 192.168.1.3 port 5001 connected with 192.168.1.4 port 44334 [ 4] 0.0-10.0 sec 1.00 GBytes 861 Mbits/sec [ 5] 0.0-10.0 sec 994 MBytes 833 Mbits/sec [SUM] 0.0-10.0 sec 1.97 GBytes 1.69 Gbits/sec [root@NAS /home/ssh]# iperf -c 192.168.1.4 ------------------------------------------------------------ Client connecting to 192.168.1.4, TCP port 5001 TCP window size: 32.5 KByte (default) ------------------------------------------------------------ [ 3] local 192.168.1.3 port 50601 connected with 192.168.1.4 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 889 MBytes 745 Mbits/sec
Host < - > VM (Ubuntu)
Leuk, zo'n mooi FreeBSD server...
Reboot spontaan zonder meldingen...
Sep 20 11:43:32 NAS kernel: em0: promiscuous mode enabled Sep 20 16:51:26 NAS su: ssh to root on /dev/pts/1 Sep 20 16:56:01 NAS syslogd: kernel boot file is /boot/kernel/kernel Sep 20 16:56:01 NAS kernel: Copyright (c) 1992-2012 The FreeBSD Project.
[18:20] Hoppa, en weer een spontane reboot...
[ Voor 12% gewijzigd door FireDrunk op 20-09-2012 18:24 ]
Even niets...
Wees blij dat het een FreeBSD bak is (of ander UNIX(-gelijkend) systeem), daar kan dit tenminste mee!
Maar ik stond erbij en ik keek er naar, en geen enkele log (/var/log/*) vermeld iets. Best vreemd...
Even niets...
Overigens, hoe moet er output weggeschreven worden naar logfiles als je kernel de weg kwijt is?
[ Voor 43% gewijzigd door magistus op 20-09-2012 22:16 ]
2,1W that is, voor mijn i5 3470.FireDrunk schreef op woensdag 19 september 2012 @ 10:53:
Well butter my biscuit...
[root@zfsguru /home/ssh]# sysctl dev.cpu.0.cx_lowest=C3 dev.cpu.0.cx_lowest: C1 -> C3 [root@zfsguru /home/ssh]# sysctl dev.cpu.1.cx_lowest=C3 dev.cpu.1.cx_lowest: C1 -> C3 [root@zfsguru /home/ssh]# sysctl dev.cpu.2.cx_lowest=C3 dev.cpu.2.cx_lowest: C1 -> C3 [root@zfsguru /home/ssh]# sysctl dev.cpu.3.cx_lowest=C3 dev.cpu.3.cx_lowest: C1 -> C3
Dat scheelt stroom
Bak draait nu met 5x 3TB + 1xSSD, 16GB en extra cooling op mijn disks op gemiddeld ~27,3W.
Mijn vorige server met Athlon X2 5050e met 5x2TB op een Perc 5i deed 83 watt
Weet iemand nog een manier om de monitor uit te laten zetten in FreeBSD? Dat zou ook nog ongeveer 1,3W moeten schelen...
SRK35ZS-W
Ik heb dus geen idee of het uberhaupt wel software is, misschien is het wel hardware...magistus schreef op donderdag 20 september 2012 @ 22:13:
Overigens, hoe moet er output weggeschreven worden naar logfiles als je kernel de weg kwijt is?
Het ding heeft de hele nacht staan syncen met mijn 'oude' server (Linux + XFS -> ZFS over NFS)
Uptime 9:13
En is tussentijds niet gereboot...
[ Voor 21% gewijzigd door FireDrunk op 21-09-2012 07:31 ]
Even niets...
Misschien ook een idee om in rc.conf dumpdev="AUTO" op te nemen om crashdumps op te vangen.FireDrunk schreef op vrijdag 21 september 2012 @ 07:29:
[...]
Ik heb dus geen idee of het uberhaupt wel software is, misschien is het wel hardware...
[ Voor 21% gewijzigd door d1ng op 21-09-2012 11:40 ]
ada3 (nog wat cijfers): read_fpdma_queued. acb: (en vele cijfers)
ada3 (nog wat cijfers): cam status: ata status error
ada3 (nog wat cijfers): ata status: 41 (drdy err), error 40 (UNC)
ada3 (nog wat cijfers): res: (en vele cijfers die per reboot wisselen)
retrying command
etc.
Freebsd wordt geladen maar daarna kan ie iets niet lezen. Omdat de code "ada3" had, dacht ik, disk 2 is verdwenen. Ik heb gecontrolleerd of alle harde schijven in de bios zichtbaar zijn en dit is een ja.
Wat heb ik gedaan?
Ik heb geprobeerd om een dataset van mijn "storage" pool te vernietigen omdat deze niet netjes in windows getoond werd. Dit is overigens "Storage/Share". Nu heb/had ik als test een kleine TB gekopierd in deze verschillende submappen en die wilde ik dus verwijderen.
Via ZFSguru heb ik het gevaarlijk commando uitgevoerd om "storage/share" te verwijderen inclusief 6 onderliggende mappen en vervolgens deed zfsguru niets meer. Na 15/16 minuten eens een poging gedaan de zfsguru portal opnieuw te openen zonder resultaat. Vervolgens de powerknop ingedrukt en de NAS sloot zichzelf juist af (geen harde powerdown!
Edit: http://unix.stackexchange...s-read-fpdma-queued-error
Hmm ik heb het dus voor elkaar gekregen om ZFS kapot te krijgen xD
Edit2: vanavond maar een nieuwe ZFSguru usbstick maken en kijken of iets werkt
[ Voor 10% gewijzigd door EnerQi op 21-09-2012 12:04 ]
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.