• MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

ik haal nu 55MByte/s als ik schrijf naar de nas via NFS.
is dit een normale snelheid? ik had toch verwacht mijn gbit lijntje makkelijk vol te trekken..

#ProductPrijsSubtotaal
1Intel Pentium G860 Boxed€ 54,95€ 54,95
1ASRock B75 Pro3-M€ 56,45€ 56,45
10Western Digital Green WD30EZRX, 3TB€ 117,10€ 1.171,-
1Norcotek RPC-4224€ 487,03€ 487,03
1Scythe Shuriken Rev. B€ 26,10€ 26,10
2Corsair Vengeance CMZ16GX3M2A1600C10€ 74,95€ 149,90
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 118,58€ 118,58
1Antec Earthwatts Platinum 550W€ 90,08€ 90,08
1Intel 320 160GB€ 285,-€ 285,-
Bekijk collectie
Importeer producten
Totaal€ 2.439,09


SSD is als bootschijf en Cache ingesteld, ZIL/SLOG is nog niet ingesteld..

\\ Baloo \\ Mijn iRacing profiel


Verwijderd

Topicstarter
MikeVM, Begin eens met:
  • iPerf netwerkbandbreedte (al voorgeïnstalleerd in ZFSguru; nog even een windows/mac client erbij pakken) en kijken of je netwerk wel 900+ Mbit kan stouwen.
  • Vervolgens een lokale benchmark of daar ZFS snel genoeg is, gewoon op de Pools->Benchmark pagina in ZFSguru of met 'dd' op de command line. Je moet minimaal een veelvoud van je RAM aanhouden. Dus met 32GiB RAM zou ik toch minimaal 128GiB testen.
  • Uiteindelijk kijk je wat Samba over het netwerk doet, in Windows mount je samba naar een drive letter zoals X: en start CrystalDiskMark eens en doe een volledige benchmark van 4GB (eigenlijk 10GB maar dat kan niet).
Als je die cijfers op een rij hebt, kun je opzoek naar de oorzaak. Moet je Samba tunen, ligt het aan je netwerk toch of is ZFS gewoon niet snel genoeg; je moet op onderzoek uit en je probleem proberen te isoleren. Bovendien leer je dan weer veel nieuwe dingen. :)
KoosDijk schreef op dinsdag 12 februari 2013 @ 19:53:
Ja, dat scheelt aanzienlijk. Dan haal ik rond de 60 megabyte/s, best aardig wat mij betreft. Ik zal eens een SSD erin prikken, bedankt voor de tip!
Bedenk wel dat niet elke SSD geschikt is als SLOG device. De SLOG functie is - in tegenstelling tot L2ARC - namelijk niet zonder risico's. Je log wordt namelijk normaliter op de pool opgeslagen, op je hardeschijven dus. Inclusief redundancy en beveiligingmechanismen die beschermen tegen stroomuitval en de DRAM writebuffer in hardeschijven.

Veel SSDs kunnen bij stroomverlies echter heel divers reageren. Ze kunnen zelfs defect raken, corrupt, of heel traag bij het opstarten omdat de SSD vanalles moet doen om consistent te worden. Als je een onveilige SSD gebruikt als SLOG device, kan dat betekenen dat het guest filesystem wat op je ZFS volume staat opgeslagen, corrupt kan raken.

Wees je dus bewust van dit risico als je SLOG gebruikt. Bij voorkeur gebruik je enkel Intel 320 en Crucial M500 consumenten SSDs omdat deze een power-safe capacitor beveiliging hebben.
duiveltje666 schreef op dinsdag 12 februari 2013 @ 19:54:
@ Cipher : Ik ben benieuwd met welke kernelopties de kernel gebakken is voor ZFS stock .. kan dit gepost worden?
Hier staat wat informatie over de laatste systeemversie van ZFSguru:
http://zfsguru.com/doc/systemimage/9.1-005

In principe is ZFSguru gewoon een GENERIC kernel. Maar er zijn wel extra's bijgebakken, zoals Infiniband, device polling (voor minder CPU-belasting op je netwerkinterface) en Alt-Q voor traffic shaping voor 'pf' firewall. ZFSguru zou in elk geval niet moeten afwijken van normaal FreeBSD. Het enige verschil is extra dingen voorgeïnstalleerd (inclusief in de kernel dus) en andere configuratiefiles. Je zou er alles mee moeten kunnen doen wat je ook met FreeBSD kan.

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

wat is de kans dat als je SSD kapot gaat, dat ook je hele Pool corrupt geraakt? is dat 100%?

en heeft backups maken van je ZLOG enig nut?

[ Voor 20% gewijzigd door MikeVM op 12-02-2013 21:35 ]

\\ Baloo \\ Mijn iRacing profiel


Verwijderd

Topicstarter
Als je SLOG kapot gaat, is je pool ontoegankelijk als je pool versie lager dan 19 is. Maar vanaf die versie kun je de pool importeren zonder het SLOG apparaat. Er wordt dan een transactiegroup extra terug gedraaid dus verder terug in de tijd naar een staat waarin ZFS wel consistent is. Dan is verder alles dus wel intact alleen je mist de meest recente wijzigingen.

Het gevaar bij sync=disabled of een kapotte SLOG is vooral dat je guest filesystem risico loopt op bijvoorbeeld een ZFS volume. Dan kan het zijn dat ZFS prima consistent is maar je guest filesystem (NTFS of wat dan ook) toch schade heeft van variërende intensiteit. ZFS zelf is bijna niet stuk te krijgen tenzij er rare dingen gebeuren (zoals hardware-raid write-back).

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

Wat is dan SLOG? Is dat hetzelfde als ZIL?

Met guest filesystem bedoel je als je een volume aanmaakt (bijvoorbeeld voor iSCSI) die je als NTFS of VMFS oid formatteert?

Kun je me uitleggen hoe het kan dat het guest filesystem corrupt raakt, terwijl het onderliggende filesystem (ZFS) dat niet is?

Gewoon een heel grote verzameling snoertjes


  • batsma
  • Registratie: April 2005
  • Niet online
ZIL (ZFS Intent Log) is wat in een SLOG zit als je dit zo inricht, normaal gesproken zit ZIL in je "gewone" ZFS pool
Een SLOG is een (Separate LOG) disk waar het ZIL op staat/onderhouden wordt

[ Voor 6% gewijzigd door batsma op 12-02-2013 23:41 ]


Verwijderd

Topicstarter
Compizfox: lees de topicstart nog eens door, daar heb ik juist veel aandacht aan besteed. :)

Specifiek:
SSD als SLOG device ofwel dedicated ZIL
Bij ZFS is de ZIL ofwel ZFS Intent Log vergelijkbaar met de journaling log van NTFS en Ext3. De ZIL is standaard ingeschakeld voor alle pools ook met een enkele disk en beschermt voornamelijk tegen het recoveren van recente writes vlak voor een stroomstoring of crash. Je hebt een ZIL niet strict nodig; ook zonder ZIL is ZFS consistent. Je zult alleen wel tot enkele minuten data verliezen evenals application consistency; later daarover meer.

Veel mensen zeggen dat ze een 'ZIL' toevoegen aan een pool. Dat is echter technisch incorrect. Je doet juist het tegenovergestelde: je schakelt de ZIL uit die op de pool staat en ook bescherming heeft die de pool zelf heeft, zoals RAID-Z. In plaats daarvan gebruik je een apart apparaat als ZIL, in een mirror configuratie of zonder bescherming. Dat is dus vrijwel altijd een achteruitgang op gebied van bescherming, al stelt dat niet zoveel voor. Maar belangrijk om te beseffen dat elke pool standaard een ZIL heeft inclusief de bescherming die de pool zelf heeft, en dat je met een dedicated ZIL ofwel SLOG (separate LOG device) die bescherming in feite outsourced aan een SSD die daar veel sneller in is. Een ZIL heb je dus normaliter altijd.

In tegenstelling tot L2ARC caching is een dedicated ZIL juist wél gevaarlijk, omdat je zoals gezegd dus een bescherming van de pool zelf uitschakelt. Daar zit hem ook de snelheidswinst: je laat je hardeschijven niet meer de ZIL functie uitvoeren met random writes maar laat een SSD (partitie) die functie uitvoeren. Een ZIL wordt alleen beschreven en nooit gelezen tenzij na een stroomstoring/crash; alleen dan zijn de gegevens nodig.

  • BlauwKeut
  • Registratie: Juni 2011
  • Laatst online: 04-06 21:29
Verwijderd schreef op dinsdag 12 februari 2013 @ 20:49:
[...]

Bedenk wel dat niet elke SSD geschikt is als SLOG device. De SLOG functie is - in tegenstelling tot L2ARC - namelijk niet zonder risico's. Je log wordt namelijk normaliter op de pool opgeslagen, op je hardeschijven dus. Inclusief redundancy en beveiligingmechanismen die beschermen tegen stroomuitval en de DRAM writebuffer in hardeschijven.

Veel SSDs kunnen bij stroomverlies echter heel divers reageren. Ze kunnen zelfs defect raken, corrupt, of heel traag bij het opstarten omdat de SSD vanalles moet doen om consistent te worden. Als je een onveilige SSD gebruikt als SLOG device, kan dat betekenen dat het guest filesystem wat op je ZFS volume staat opgeslagen, corrupt kan raken.

Wees je dus bewust van dit risico als je SLOG gebruikt. Bij voorkeur gebruik je enkel Intel 320 en Crucial M500 consumenten SSDs omdat deze een power-safe capacitor beveiliging hebben.
Hoe zit het dan als je ZFS NAS achter een UPS zit? Ik ga ervan uit dat dit dan juist niet zo critisch is? Als de stroom uitligt in je huis gaat er toch niet veel meer weggeschreven worden van andere computers...
Het enige wat je niet ondervangt is een defect aan je UPS - maar daar schat ik de kans veel lager van in dan stroomstoringen op het net. Je monitort je UPS normaal gezien proactief op fouten...
Dat klopt, maar bedenk wel dat je server ook standalone taken aan het uitvoeren kan zijn.
Zoals iets uitpakken wat je net gedownload hebt... Het is inderdaad een niet al te groot risico.

* FireDrunk neemt bewust het risico met een ongemirrorde SLOG en geen UPS.

EN momenteel zelfs nog met een Intel Postville, ipv mijn 320's die nog steeds klaarliggen.

Maar ik ga een reinstall doen zodra ik ESXi op mijn bak krijg :)

[ Voor 22% gewijzigd door FireDrunk op 13-02-2013 09:34 ]

Even niets...


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

Verwijderd schreef op dinsdag 12 februari 2013 @ 22:43:
Als je SLOG kapot gaat, is je pool ontoegankelijk als je pool versie lager dan 19 is. Maar vanaf die versie kun je de pool importeren zonder het SLOG apparaat. Er wordt dan een transactiegroup extra terug gedraaid dus verder terug in de tijd naar een staat waarin ZFS wel consistent is. Dan is verder alles dus wel intact alleen je mist de meest recente wijzigingen.
dit hoef ik op voorhand niet in te stellen? of moet ik dat handmatig doen?

\\ Baloo \\ Mijn iRacing profiel

Hij waarschuwt bij het importeren geloof ik.

Even niets...


  • batsma
  • Registratie: April 2005
  • Niet online
Cipher / Firedrunk,

zouden jullie mijn handleiding kunnen en willen beoordelen en mits voldoende bevonden misschien linken in de startpost, ik denk dat mensen hier wel wat aan kunnen hebben. Genoeg vragen over dit verhaal op google in ieder geval.

  • batsma
  • Registratie: April 2005
  • Niet online
Hoe link ik naar een eerdere post op in dit topic?
het staat in ieder geval een stuk of 10-15 posts hierboven
batsma in "Het grote ZFS topic"

@batsma: je klikt met de rechtermuisknop op de tijd en datum van je post, doet in je browser "kopieer hyperlink" (weet niet welke browser je gebruikt) en je plakt het gewoon in je volgende post... En dan maakt React er mooi een geparse'ed linkje van, zoals hierboven...

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
Sweet O+
MFV r245512:

* Illumos zfs issue #3035 [1] LZ4 compression support in ZFS.

LZ4 is a new high-speed BSD-licensed compression algorithm created
by Yann Collet that delivers very high compression and decompression
performance compared to lzjb (>50% faster on compression, >80% faster
on decompression and around 3x faster on compression of incompressible
data), while giving better compression ratio [1].

This version of LZ4 corresponds to upstream's [2] revision 85.

Please note that for obvious reasons this is not backward read
compatible. This means once a pool have LZ4 compressed data, these
data can no longer be read by older ZFS implementations.

  • batsma
  • Registratie: April 2005
  • Niet online
HyperBart schreef op woensdag 13 februari 2013 @ 12:48:
batsma in "Het grote ZFS topic"

@batsma: je klikt met de rechtermuisknop op de tijd en datum van je post, doet in je browser "kopieer hyperlink" (weet niet welke browser je gebruikt) en je plakt het gewoon in je volgende post... En dan maakt React er mooi een geparse'ed linkje van, zoals hierboven...
dankje :) weer wat geleerd!

FireDrunk, bij deze dus;
batsma in "Het grote ZFS topic"

  • B2
  • Registratie: April 2000
  • Laatst online: 27-12 15:09

B2

wa' seggie?

Welke config is aan te raden met 12 x 2TB schijven? 12 raid-z2 is denk ik niet verstandig? Ik gebruik een 64GB SSD als L2ARC. Schrijven wordt er niet continue gedaan, meer leesacties.
Snelst of meeste ruimte? Snelst is denk ik 2 * 6 disk RAIDZ2, maar kost je 4 parity disks.
Hoewel 6 mirrors ook snel zijn, maar dat kost je 6 parity disks.

Op zich kan 12 disks in RAIDZ2 wel hoor, de performance penalty is er wel, maar nou niet echt zo groot dat je het niet moet doen vind ik...

[ Voor 53% gewijzigd door FireDrunk op 13-02-2013 14:47 ]

Even niets...


  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 13-11 10:50
batsma schreef op woensdag 13 februari 2013 @ 13:11:
[...]


dankje :) weer wat geleerd!

FireDrunk, bij deze dus;
batsma in "Het grote ZFS topic"
Kijk, lijkt me redelijk proper, eventueel wat aan te vullen met afbeeldingen ofzo? Ik weet de eerste keer dat ik moest zoeken om een LUN te passthrougen naar een VM dat ik ook even zat te denken van "hmm, hoe zit dat nu toch".

Prima performance toch ook voor een NAS'je denk ik, je trekt je gigabit lijntje netjes vol...

Kan je volgende commando eens uitvoeren?

dd if=/dev/zero of=/pad/naar/je/zfs/pool/test.file bs=1M count=102400


en

dd if=/pad/naar/je/zfs/pool/test.file of=/dev/null


Woordje uitleg: wat je hiermee doet is vanuit een virtueel device wat allemaal nulletjes uitpoept een file van 1MB * 102400 = 100GB aanmaken. Het volgende commando leest die file in naar een "null-device" wat writes die naar hem gestuurd worden wel zegt van "ja joh, heb het ontvangen, kachel maar lekker door" maar eigenlijk dumpt ie het gewoon naar een zwart gat, maw je schrijft naar een write hole.

Maar de getalletjes die je daar uit krijgt zijn lokaal, dus zonder netwerkbottleneck :) .


Ik heb via crontab -e volgend command in mijn crontab staan ter test (moet omgevormd worden in crontab dat het iedere maand of iedere week runt)

[cmd]
0 1 2 * * zpool scrub hulk >> /home/ssh/scrub.txt 2>&1
[/cmd]

Maar in mijn scrub.txt krijg ik te zien:

[cmd][root@zfsguru /home/ssh]# cat scrub.txt
zpool: not found
zpool: not found
[/cmd]


Nevermind, even een "whereis zpool" gedaan en daarna:

[root@zfsguru /home/ssh]# whereis zpool
zpool: /sbin/zpool /usr/share/man/man8/zpool.8.gz
[root@zfsguru /home/ssh]# crontab -l
33 15 13 2 * /sbin/zpool scrub hulk >> /home/ssh/scrub.txt 2>&1


En die was vrolijk aan het scrubben :)


  pool: hulk
 state: ONLINE
  scan: scrub in progress since Wed Feb 13 16:24:01 2013
        7.49T scanned out of 7.49T at 247M/s, (scan is slow, no estimated time)
        0 repaired, 100.01% done


:+

[ Voor 81% gewijzigd door HyperBart op 14-02-2013 02:06 ]


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

Ik kan in dat artikel eigenlijk geen valide argumenten vinden. Ik zal er een paar weerleggen:
I sincerely do respect the FreeBSD community and platform, but it is not for me. It may be that I have just much more experience with Debian Linux and just don't like changing platforms.
Tja, hij kent FreeBSD niet dus daarom wil hij geen ZFS? :X
Furthermore, I'm just thrilled with the really big APT repository.
Ports vind ik een net zo goed, zo niet beter systeem (want je compileert alles zelf)
I consider Linux a safer bet, also on the part of hardware support. My NAS must be simple to build and rock stable.
FreeBSD wordt over het algemeen gezien als stabieler dan Linux.
This is the part where people may strongly disagree with me. I admire ZFS, but I consider it total overkill for home usage. I have seen many people talking about ZFS like Apple users about Apple products. It is a hype. Don't get me wrong. As a long-time Mac user I'm also mocking myself here.
Onderbouwen doet hij het niet, helaas.

Voor Apple-zooi kan ik geen goede redenen bedenken om het te gebruiken. Ik zie het ook meer als een soort religie dan een hype (maar dat is een totaal andere discussie)

ZFS heeft gewoon een aantal zeer goede voordelen.
As a side note, one of the things I do not like about ZFS is the terminology. It is just RAID 0, RAID 1, RAID 5 or 6 but no, the ZFS people had to use different, more cool sounding terms like RAID Z or something. But it is basically the same thing.
Dat is het niet. Juist doordat ZFS een filesystem combineert met een volume manager heeft het problemen niet die RAID5 wel heeft.

Juist daarom heeft men een andere term gekozen om verwarring met RAID5 te voorkomen.
Okay, now back to the point: nobody at home needs ZFS. You may argue that nobody needs 18 TB of storage space at home, but that's another story. Running ZFS means using FreeBSD or an out-of-the-box NAS solution based on FreeBSD. And there aren't any other relevant options.
Of je het nodig hebt is een ander verhaal, dat mag je zelf bepalen.

Wel staat ZFS hier los van. Een NAS op basis van ZFS is niet duurder dan eenzelfde NAS op basis van Linux.
Linux allows you to 'grow' or 'expand' an array, just like most hardware RAID solutions. As far as I know, this is a feature is still not available in ZFS. Maybe this feature is not relevant in the enterprise world, but it is for most people who actually have to think about how they spend their money.
Dit is wel eens vaker aan bod geweest in dit topic.

Als je een vdev zou uitbreiden met meerdere disks (wat niet mogelijk is met ZFS), zou je redundancy achteruitgaan omdat de hoeveelheid parity even groot blijft, maar je meerdere schijven krijgt.
Dit moet je dus sowieso vermijden.

Een betere optie is een 2e vdev toevoegen aan je pool, of alle schijven in je vdev vervangen door grotere exemplaren.
Furthermore, I don't understand Why I can run any RAID array with decent performance with maybe 512 MB of RAM while ZFS would just totally crash with so little memory installed. You seem to need at least 2 GB to prevent crashing your system. More is recommended if you want to prevent it from crashing under high load or something. I really can't wrap my mind about this. Honestly, I think this is insane.
Irrelevant, RAM kost geen drol tegenwoordig.

Gewoon een heel grote verzameling snoertjes


  • batsma
  • Registratie: April 2005
  • Niet online
eerste commando geeft aan (107GB copied) 222.731 s, 482MB/s op een pool die voor 20% gevuld zit,
tweede commando geeft aan (107GB copied) 1123.91s, 95.5MB/s op dezelfde pool natuurlijk.

Ik heb wel op dit moment 4 machines draaien die vanalles op die pool aan het doen zijn.

CPU gebruik van de VM kwam niet boven de 30% op een core i5-3470 (wel alle 4 cores toegewezen met limiet van 95% van totaal resources)


Dat van die crontabs mag je me nog wel ff uitleggen, zoals ik begrijp is dit iets vergelijkbaars met een taakplanner, maar hoe en wat ben ik nog niet aan toegekomen. Scrubben is data integriteit controleren zoals ik het begrijp. Dit zou ik ook wel willen automatiseren, elke zondag om 03.00 uur ofzo

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 13-11 10:50
Leuke reactie, toen ik de blog las had ik ook zo iets van :X Was gewoon nieuwsgierig wat andere hier er van vonden.

  • DutchNutcase
  • Registratie: Augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Hij heeft denk ik deze blogpost vooral laten staan ter referentie, omdat hij tegenwoordig ook aan het werk is geweest met ZFS-on-Linux. Dus hij heeft een hoop van zijn bezwaren laten varen.

Luctor et Emergo || specs


  • Jaap-Jan
  • Registratie: Februari 2001
  • Laatst online: 08:43
Neptunus schreef op donderdag 14 februari 2013 @ 15:34:
[...]


Leuke reactie, toen ik de blog las had ik ook zo iets van :X Was gewoon nieuwsgierig wat andere hier er van vonden.
Dat stuk is geschreven door een medetweaker: Q in "Storage showoff topic - 10+ TB storage systems" Hij heeft ook wel een paar keer in dit topic gereageerd. :)
Compizfox schreef op donderdag 14 februari 2013 @ 14:32:
[...]

Ik kan in dat artikel eigenlijk geen valide argumenten vinden. Ik zal er een paar weerleggen:


[...]

Tja, hij kent FreeBSD niet dus daarom wil hij geen ZFS? :X
ZFS on Linux is lang niet zo snel als op FreeBSD. Ik ben er zelf ook huiverig voor om ZFS te implementeren omdat de stabiliteit misschien wel redelijk is, maar de prestaties niet.
[...]

Ports vind ik een net zo goed, zo niet beter systeem (want je compileert alles zelf)
Veel meer moeite voor weinig winst (hooguit een paar procent). En apt-get heeft hetzelfde voordeel als zfs: één commando waarmee je alles kunt regelen met betrekking tot het installeren van packages uit repositories. Is er al een standaard om een dist- upgrade te doen via ports?

Ik wacht zelf af totdat Debian/ kFreeBSD volwassen wordt. :)
[...]

FreeBSD wordt over het algemeen gezien als stabieler dan Linux.
Klopt. Maar hardware support loopt over het algemeen wat achter.
[...]

Onderbouwen doet hij het niet, helaas.

Voor Apple-zooi kan ik geen goede redenen bedenken om het te gebruiken. Ik zie het ook meer als een soort religie dan een hype (maar dat is een totaal andere discussie)

ZFS heeft gewoon een aantal zeer goede voordelen.
ZFS heeft zeker aansprekende features voor thuisgebruik, zoals het feit dat het self- healing is. Ook wat Apple betreft sta ik behoorlijk op één lijn met je. :+

De rest van de reacties ben ik het wel mee eens, overigens.

Voor mij is de enige reden om geen FreeBSD te gebruiken simpelweg apt-get.

| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

Jaap-Jan schreef op donderdag 14 februari 2013 @ 16:32:
[...]
ZFS on Linux is lang niet zo snel als op FreeBSD. Ik ben er zelf ook huiverig voor om ZFS te implementeren omdat de stabiliteit misschien wel redelijk is, maar de prestaties niet.
Wat ik bedoelde, is dat "iets niet kennen" geen excuus is om iets niet te proberen. Ik voordat ik aan ZFS begon had ik ook nog geen ervaring met FreeBSD.
[...]

Veel meer moeite voor weinig winst (hooguit een paar procent). En apt-get heeft hetzelfde voordeel als zfs: één commando waarmee je alles kunt regelen met betrekking tot het installeren van packages uit repositories. Is er al een standaard om een dist- upgrade te doen via ports?
portmaster -a.

Gewoon een heel grote verzameling snoertjes


  • Xudonax
  • Registratie: November 2010
  • Laatst online: 26-12 19:15
Jaap-Jan schreef op donderdag 14 februari 2013 @ 16:32:
[...]

ZFS on Linux is lang niet zo snel als op FreeBSD. Ik ben er zelf ook huiverig voor om ZFS te implementeren omdat de stabiliteit misschien wel redelijk is, maar de prestaties niet.
Mijn ZFS on Linux arraytje doet anders keurig 350MByte/s lezen én schrijven met 6 lullige Hitachi 5K1000 laptop schijfjes :) ZFSGuru komt daar aardig in de buurt, zal misschien een paar MByte/s schelen. Ik heb geen FreeNAS e.d. getest, maar ik neem voor het gemak even aan dat deze allemaal niet ver uit elkaar liggen.

Ik kan niet wachten totdat ik geld heb en nog 6 Western Digital Black 4TB ertegenaan kan gooien :9

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
ZFS-on-linux is inderdaad al een heel stuk vooruit bij toen de startpost hier gemaakt is ;) Ik heb afgelopen weekend zelf wat met ZFS-on-linux lopen experimenteren en ik moet zeggen dat de snelheden van mijn RAIDZ vergeleken bij ZFSguru zo goed als verwaarloosbaar zijn. Zeker gezien alles (hier) toch over een gigabit lijntje moet, maar ik kan me niet voorstellen dan 250 of 260MBps nou een reden is om te zeggen dat zfs-on-linux traag is.

Dat is het ZFS verhaal, maar er zijn ook andere redenen om linux te verkiezen. Zo heb ik de indruk dat samba iets vlotter werkt op ubuntu dan bij ZFSguru, bij ZFSguru leek er een limiet te zitten op 98MBps lezen (schrijven trok de lijn wel vol), bij ubuntu trekt hij de lijn zowel met lezen als schrijven vol.

Wat voor mij echter de voornaamste reden is geweest om te switchen naar ubuntu met zfs-on-linux is het verbruik, met ZFSguru heb ik een heel weekend gezocht achter mogelijke manieren om mijn disks (seagate Barracuda ST3000DM001) automatisch te laten down spinnen na een half uur idle, maar kon niets werkende krijgen. De disks ondersteunen APM niet (deftig), en ook met tools als camcontrol en dergelijke geen succes, kon alleen manueel down spinnen. Dus heb ik maar eens ubuntu geprobeerd, en daar werkte hdparm zonder problemen.

Dus ja, freeBSD doet het op het ZFS front inderdaad wat beter, en gewoon op een stickje is het misschien een halve watt zuiniger (17.0 ipv 17.5 en mijn meter meet maar in trappen van 0.5W ;)), maar linux heeft dan weer andere voordelen en het is best eens mogelijk dat die belangrijk genoeg zijn om linux de meest geschikte keuze te maken.

  • d1ng
  • Registratie: Augustus 2009
  • Laatst online: 06-05-2024
Jaap-Jan schreef op donderdag 14 februari 2013 @ 16:32:
[...]
Voor mij is de enige reden om geen FreeBSD te gebruiken simpelweg apt-get.
De nieuwe package manager 'pkgng' voor FreeBSD komt steeds dichterbij. Packages zijn op dit moment nog niet beschikbaar maar die kun je uiteraard wel zelf bouwen. Ik gebruik het zelf al een poosje op een paar servers en moet zeggen dat het erg goed werkt met een eigen repository.

pkgng = het gemak van apt-get + de flexibiliteit van ports. Het beste van 2 werelden ;)

https://mebsd.com/make-bu...-new-package-manager.html
https://fossil.etoilebsd....runk/doc/pkgng_repos.wiki

Ter illustratie 2 van die waardevolle opties :)
code:
1
2
-j     -- Execute pkg(1) inside a jail(8)
audit  -- Reports vulnerable packages

  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
Yup, gewoon pkg en portmaster gebruiken.

Offtopic:
@Jaap-Jan: weet je toevallig hoe je met apt-get het volgende kan doen:

1) Lijst van files van een package weergeven
2) Weergeven bij welke package een specifiek bestand hoort
3) De dependencies van een package weergeven
4) De reverse dependencies van een package weergeven

Ik weet hoe ik dit met pkg (FreeBSD) en equery (Gentoo) moet doen, maar geen idee hoe dat met apt-get moet. Volgens mij doe je (3) en (4) met apt-cache, maar van (1) en (2) weet ik het niet.

Nog meer offtopic:
Ik blijf ports een gare voorganger van portage vinden. Misschien maar eens een keer spelen met Gentoo/FreeBSD in een VM :+

Ontopic:
Is het zo dat zfs-on-linux nog belangrijke features mist t.o.v. zfs op FreeBSD?

[ Voor 0% gewijzigd door onox op 15-02-2013 19:59 . Reden: typo ]


  • Zebravink
  • Registratie: Juni 2012
  • Laatst online: 27-12 19:39
Waarschijnlijk iets banaals maar ik zit een beetje vast.

Cronjob starten lukt niet onder NAS4Free onder root rechten en commando "run now" onder het tabje Cron. Terwijl ik zeker weet dat het ingegeven pad

/mnt/zpool1/dataset1/scrubbing.sh

goed is en het (scrubbing)script geen fouten heeft.
Eindboodschap steeds weer "Failed to execute cronjob".

Suggesties ???? :>

[ Voor 13% gewijzigd door Zebravink op 15-02-2013 20:17 ]


  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 27-12 10:34
In mijn eeuwig durende zoektocht naar een betaalbare HA storage voor vsphere clusters heb ik uiteindelijk besloten om zelf een poging te wagen om FreeBSD + HAST + ZFS + CARP + NFS werkend te krijgen in een volledig geautomatiseerde setup.

Heeft iemand hier reeds ervaring(en) mee vooraleer ik dagen bezig ben met een onhaalbare illusie ;) ?

  • originng
  • Registratie: December 2012
  • Laatst online: 23-07-2024
ItsValium schreef op vrijdag 15 februari 2013 @ 23:14:
In mijn eeuwig durende zoektocht naar een betaalbare HA storage voor vsphere clusters heb ik uiteindelijk besloten om zelf een poging te wagen om FreeBSD + HAST + ZFS + CARP + NFS werkend te krijgen in een volledig geautomatiseerde setup.

Heeft iemand hier reeds ervaring(en) mee vooraleer ik dagen bezig ben met een onhaalbare illusie ;) ?
Ja, en kort door de bocht, het was een hel. In eerste instantie leek het allemaal goed en makkelijk op te zetten zijn maar zodra we wat stress in het systeem deden hadden we eigenlijk altijd een splitbrain situatie en dat wil je niet.
Misschien hebben we iets verkeerd gedaan maar had het idee dat we allemaal toch wel redelijke sysadmins waren met genoeg algemene kennis om zoiets op te zetten.

Joop

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 27-12 10:34
Thx voor de reactie,

als ik Michael W Lucas mag geloven moet het wel te doen zijn, hij heeft een setup draaien met nog wat extra services (Apache, ...) erbij, maar heb nog geen reactie gekregen op mijn vraag naar meer info. Gezien de leeftijd van zijn blogposts vrees ik dat hij er ook mee gestopt is ...

Ook op de FreeBSD forums zelf zijn er wel wat posts te vinden maar geen enkele die er dieper op ingaat en ook updates door de tijd heen plaatst.

Zal ik toch mijn bankier moeten aanspreken voor de >50k aan licenties voor nexenta HA uitbreiding.

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
Zijn er nog mensen die interesse hebben in een optimalisatie van hun server? Ik was van plan om een howto te maken

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 27-12 10:34
Blijkbaar zit HAST + CARP in de laatste versie van nas4free, wel nog niet configureerbaar via de gui maar ik ga het wel eens bekijken ...

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 26-11 11:00
Heb je deze ook gezien?
http://forums.freebsd.org/showthread.php?t=29639

Ik heb dit getest, en het werkte prima. Geen split brain kunnen forceren.
Je kunt er ook voor kiezen om ervoor te zorgen dat als de slave eenmaal master is geworden dat dit alleen nog maar terug gedraait kan worden door een handmatige turn over.
Hier door zal je niet door een interruptie een switch over hebben naar de slave en dan weer terug naar de master in een korte tijd.
Echter nooit in de praktijk kunnen proberen.

  • Jaap-Jan
  • Registratie: Februari 2001
  • Laatst online: 08:43
Xudonax schreef op donderdag 14 februari 2013 @ 21:44:
[...]


Mijn ZFS on Linux arraytje doet anders keurig 350MByte/s lezen én schrijven met 6 lullige Hitachi 5K1000 laptop schijfjes :) ZFSGuru komt daar aardig in de buurt, zal misschien een paar MByte/s schelen.
Valt me mee. Heb je toevallig ook random lees- en schrijfprestaties gemeten?
onox schreef op vrijdag 15 februari 2013 @ 19:52:
Yup, gewoon pkg en portmaster gebruiken.

Offtopic:
@Jaap-Jan: weet je toevallig hoe je met apt-get het volgende kan doen:

1) Lijst van files van een package weergeven
2) Weergeven bij welke package een specifiek bestand hoort
3) De dependencies van een package weergeven
4) De reverse dependencies van een package weergeven

Ik weet hoe ik dit met pkg (FreeBSD) en equery (Gentoo) moet doen, maar geen idee hoe dat met apt-get moet. Volgens mij doe je (3) en (4) met apt-cache, maar van (1) en (2) weet ik het niet.
3 & 4 doe je respectievelijk met apt-cache depends en apt-cache rdepends. 1 doe je met dpkg-query -L <naam package>. 2 doe je met dpkg-query -S <bestandsnaam>.
Nog meer offtopic:
Ik blijf ports een gare voorganger van portage vinden. Misschien maar eens een keer spelen met Gentoo/FreeBSD in een VM :+
Ports is ook ouder dan Portage. :+
Ontopic:
Is het zo dat zfs-on-linux nog belangrijke features mist t.o.v. zfs op FreeBSD?
Ben ik ook wel benieuwd naar. :)

[ Voor 17% gewijzigd door Jaap-Jan op 16-02-2013 00:56 ]

| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett

Encryptie werkt nog niet hardware matig voor zover ik weet, terwijl dit op FreeBSD met de AES instructieset van je CPU kan werken volgens mij.

Even niets...


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

Server kwam niet meer online, vanwege dhcp problemen, na 4 uur proberen heb ik een fresh install gedaan, en de pools geïmporteerd:

nu kan ik geen cache instellen op mijn pool, zfsguru zegt dat die partitie in gebruik is. is die cache nu automatisch weer ingesteld of moet ik de beveiliging van de partitie afhalen met een of ander commando en weer opnieuw als cache instellen??

op mijn pool heb ik meerdere mappen aangemaakt mbv filesystems.
hoe kan ik nu remote het makkelijkste data verplaatsen zonder dat het via het netwerk moet?
nu doe ik het via command line, maar dat werkt vrij omslachtig imho..

\\ Baloo \\ Mijn iRacing profiel


  • originng
  • Registratie: December 2012
  • Laatst online: 23-07-2024
syl765 schreef op zaterdag 16 februari 2013 @ 00:06:
Heb je deze ook gezien?
http://forums.freebsd.org/showthread.php?t=29639

Ik heb dit getest, en het werkte prima. Geen split brain kunnen forceren.
Dat is ook de post die we gebruikt hebben om een test setup te maken en net als de meeste posters in die thread is het vrij makkelijk om een splitbrain te krijgen door simpel de master uit te zetten. Kan tenslotte ook in het echt gebeuren en dan wil je niet 24Tb aan data opnieuw naar je slave syncen met een risico op een probleem terwijl je dat aan het doen bent.

Joop

  • Geckx
  • Registratie: November 2008
  • Laatst online: 26-12 00:18
Werkt de PS3 media server nu eigenlijk al in 9.1-005? Want ik heb deze geinstalleerd (samen met Java & X graphics uiteraard) maar de service wilt niet starten.

Wat ik ook die, hij blijft op "stopped" staan en "incapable to autostart". De Java Runtime Environment staat op "passive".

[ Voor 4% gewijzigd door Geckx op 16-02-2013 22:21 ]


Verwijderd

Topicstarter
Grafische services kun je niet starten via de web-interface maar enkel via je grafische desktop. Je moet dus Gnome geïnstalleerd hebben en op je directe monitor/toetsenbord/muis kun je dan op de desktop shortcut klikken van PS3MediaServer. Ik heb hem zelf werkend gezien dus volgens mij zou alles moeten werken zoals bedoeld.

Weet je trouwens zeker dat je PS3MediaServer kunt starten via de web-interface? Volgens mij zou dat niet moeten kunnen. Hij zegt hooguit STOPPED of STARTED afhankelijk of je hem geopend hebt op je desktop of niet. Kun je dit bevestigen?

@MikeVM: je zpool status output? Weet je zeker dat je SSD niet gewoon in gebruik is als cache device voor je pool? Dat is de enige reden waarom je die melding zou moeten kunnen zien.

  • Geckx
  • Registratie: November 2008
  • Laatst online: 26-12 00:18
Via de gnome desktop heb ik nog niet geprobeerd. Ik dacht deze ditmaal eens niet te installeren wegens alle clutter dat het met zich mee brengt op de install van zfsguru..

Dat doet me er aan denken. Ik heb nu dus in feite 9.1-005 en 9.1-004 naast elkaar geinstalleerd staan. Maar is er een manier om de oude versie volledig te verwijderen van mijn SSD? Kwestie van wat ruimte opnieuw vrij te maken...

Nog een vraag: is er een manier om schijven die niet in gebruik zijn automatisch te downspinnen? Nu heb ik enkel de optie gevonden waar ik het manueel kan doen... Het gebeurd wel vaker dat de server een aantal uren niet gebruikt wordt (zoals 's nachts en overdag als iedereen naar werk/school) en zou het aangewezen zijn dat de schijven in slaapmodus kunnen gaan om de slijtage te verminderen..

  • Da_Warlock
  • Registratie: Februari 2013
  • Laatst online: 09-12 08:26
Sorry voor het storen iedereen... Maar hoe krijgen jullie al deze kennis? Ik begrijp de helft van wat hier getypt word en dat vind ik van mezelf al een hele prestatie. Alhoewel, ik zou graag mee willen praten en bergijpen waar jullie het over hebben. Dus, mijn vraag: hoe weten juliie dit alles??? Ik ken een beetje het principe van de RAID configuraties en andere zaken maar wat hier allemaal staat gaat mijn petje te boven... Hoe kan ik het best meer te weten komen over dit soort dingen? Het is wel interessant...

Thx ;)

Verwijderd

Topicstarter
@Geckx
Gnome is inderdaad wel een draak. Er komen ook wel lichtere alternatieven beschikbaar, maar voorlopig is Gnome iets wat werkt en redelijk goed geïntegreerd is. Zoals dat er automatisch desktop shortcuts worden aangemaakt op je Gnome desktop enzovoorts.

Oudere installaties van ZFSguru kun je in de komende versie verwijderen op de System->Booting pagina, waar je installaties staan genoemd. Maar tot die tijd kun je in Files op 'show hidden filesystems' klikken en daar je zfsguru/9.1-004 filesystem aanklikken en die Destroyen. Je services staan apart in zfsguru/services/9.1-004. Je kunt vanaf je nieuwe installatie dus makkelijk bij de servicedata van je oude installatie. Het zfsguru/download filesystem is gedeeld voor alle installaties en daar komen alle systeemversies en services in die je downloadt.

Weet wel dat ZFS in FreeBSD9 nog geen TRIM ondersteunt op pools met SSDs. Je kunt wel handmatig je partitie TRIMmen via ZFSguru op de Disks pagina, maar voor échte TRIM support in ZFS zodat je SSD TRIM ontvangt als je bestanden verwijdert, dat werkt pas in FreeBSD 10 en wellicht binnenkort in 9-STABLE want dat soort dingen komen altijd in de -STABLE branch terecht na een bepaalde periode zonder problemen in -CURRENT.

Automatisch downspinnen kan het beste/makkelijkste met APM. Je kunt deze instelling vinden op de Disks->Advanced pagina, maar die werkt niet voor LSI SAS controllers helaas, wel voor normale onboard chipset SATA.

@Da_Warlock
In mijn geval is dat interesse. Die groeit naarmate je zelf in je jeugdjaren interesse hebt naar meer opslag en dan met RAID in contact komt. Benchmarken enzo. Ik heb veel kennis vooral zelf opgedaan. Daarbij heb ik geleerd dat heel veel 'algemene waarheden' eigenlijk onjuist zijn, en dat de werkelijkheid heel anders ligt dan mensen willen geloven. Dat wekt natuurlijk wel een interesse aangezien opslagtechnologie iets is waar je veel mee kunt testen en doen, terwijl je verdiepen in processors of videokaarten toch iets anders is en veel theoretischer. De wereld van storage is veel dynamischer omdat je zelf je filesystem en RAID-engine kiest en zelf je configuratie; jouw keuzes bepalen het resultaat.

Hoe je meer kunt leren? Toch ook vooral veel zelf doen; zelf uitproberen. Zelf met ZFS et cetera spelen en in elk geval een idee krijgen waar het allemaal om draait. En dit topic blijven volgen natuurlijk. ;)

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

Da_Warlock schreef op zondag 17 februari 2013 @ 00:33:
Sorry voor het storen iedereen... Maar hoe krijgen jullie al deze kennis? Ik begrijp de helft van wat hier getypt word en dat vind ik van mezelf al een hele prestatie. Alhoewel, ik zou graag mee willen praten en bergijpen waar jullie het over hebben. Dus, mijn vraag: hoe weten juliie dit alles??? Ik ken een beetje het principe van de RAID configuraties en andere zaken maar wat hier allemaal staat gaat mijn petje te boven... Hoe kan ik het best meer te weten komen over dit soort dingen? Het is wel interessant...

Thx ;)
die dingen kun je enkel leren door te doen. server instellen met ZFS en onderweg bij elke stap leer je bij..
ZFS is echt niet iets wat ze je aanleren op school, ik denk dat dit platform zga alleen gedragen word door enthousiastelingen.

als je basics kent van computer-programmeren. dan kan je ZFS proberen..

Verwijderd schreef op zaterdag 16 februari 2013 @ 23:18:
@MikeVM: je zpool status output? Weet je zeker dat je SSD niet gewoon in gebruik is als cache device voor je pool? Dat is de enige reden waarom je die melding zou moeten kunnen zien.
idd, de cache is gewoon mee geïmporteerd bij het zoeken naar de pool, dit is wel heel leuk. ik had niet verwacht dat dit automatisch zou werken..

[ Voor 19% gewijzigd door MikeVM op 17-02-2013 01:17 ]

\\ Baloo \\ Mijn iRacing profiel


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

Waarom zou je moeten kunnen programmeren om ZFS te gebruiken? :?

Gewoon een heel grote verzameling snoertjes


  • Geckx
  • Registratie: November 2008
  • Laatst online: 26-12 00:18
Thx C!PHER voor het wederom verhelderende antwoord.

Ik heb mijn disks even op APM 1 gehad (=maximum power savings, with spin down). Maar dat is toch niet ideaal hoor, de disks gaan veel te snel uit, zelfs tijdens het kijken van een film bijvoorbeeld. Dat is dus geen optie. Ik dacht eerder aan een manier om het downspinnen in te zetten na 180 minuten van inactiviteit of iets dergelijk..

Achja, dan maar terug op APM 128 gezet.

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

Compizfox schreef op zondag 17 februari 2013 @ 01:35:
Waarom zou je moeten kunnen programmeren om ZFS te gebruiken? :?
misschien programmeren niet, maar die commands uitvoeren vind ik best moeilijk, als je het zonder tutorial moet doen dan.

\\ Baloo \\ Mijn iRacing profiel


Verwijderd

Topicstarter
Je kunt in werkelijkheid meer waarden selecteren tussen 1 en 127, het hangt van je schijf af hoeveel minuten of zelfs seconden spindown dat betekent. 1 is inderdaad heel extreem, dat wil je niet. 127 weet ik niet hoeveel uur dat is bij de meeste schijven, alleen dat het kan variëren.

Spindown kan op meer manieren, en voor schijven die hun APM instelling niet onthouden na een stroomonderbreking, is het ook fijn om die APM instelling elke boot weer te activeren. Daar heb ik een klein scriptje voor, maar dit komt ook in ZFSguru zelf te zitten. Die Advanced pagina gaat Power heten en ook meer opties hebben voor spindown.

Tot die tijd kun je handmatig eens wat APM instellingen uitproberen.
/sbin/camcontrol cmd ada0 -a "EF 05 00 00 00 00 00 00 00 00 01 00"

Die 01 is hexadecimaal voor 0x01 = APM instelling 1. 02 is dus voor 2 maar 7F bijvoorbeeld is 127 decimaal. Dat is de hoogste waarde voor spindown; vanaf 128 is het zonder spindown maar gaat het om headparking. Dan is 254 weer de hoogste waarde die headparking helemaal uitschakelt.

Dus je kunt zelf eens spelen met dit commando met waarden tussen 01 en 7F (hexadecimaal). Edit: ik heb het commando gewijzigd; de oude schakelt APM juist uit. Nu zou hij goed moeten zijn. :P

[ Voor 4% gewijzigd door Verwijderd op 17-02-2013 02:49 . Reden: camcontrol commando gewijzigd. ]


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

MikeVM schreef op zondag 17 februari 2013 @ 01:57:
[...]

misschien programmeren niet, maar die commands uitvoeren vind ik best moeilijk, als je het zonder tutorial moet doen dan.
Leer je vanzelf :)

Maar met programmeren heeft het totaal niets te maken, dat is heel andere koek :P

[ Voor 4% gewijzigd door Compizfox op 17-02-2013 02:01 ]

Gewoon een heel grote verzameling snoertjes


  • Geckx
  • Registratie: November 2008
  • Laatst online: 26-12 00:18
Verwijderd schreef op zondag 17 februari 2013 @ 01:59:
Je kunt in werkelijkheid meer waarden selecteren tussen 1 en 127, het hangt van je schijf af hoeveel minuten of zelfs seconden spindown dat betekent. 1 is inderdaad heel extreem, dat wil je niet. 127 weet ik niet hoeveel uur dat is bij de meeste schijven, alleen dat het kan variëren.
.......
.......
.......
Die 01 is hexadecimaal voor 0x01 = APM instelling 1. 02 is dus voor 2 maar 7F bijvoorbeeld is 127 decimaal. Dat is de hoogste waarde voor spindown; vanaf 128 is het zonder spindown maar gaat het om headparking. Dan is 254 weer de hoogste waarde die headparking helemaal uitschakelt.

Dus je kunt zelf eens spelen met dit commando met waarden tussen 01 en 7F (hexadecimaal). Edit: ik heb het commando gewijzigd; de oude schakelt APM juist uit. Nu zou hij goed moeten zijn. :P
Ok dat is wel handig, bedankt!

Wat zijn de meningen hier eigenlijk over wat het beste is voor de levensduur van een harde schijf?
Via google kom ik vaak wat tegenstrijdige beweringen tegen. De ene zegt dat het up- en downspinnen erg belastend is voor een schijf en dus in feite nadeliger is dan gewoon 24/7 later draaien.
Sowieso is te frequent niet goed, telt ook telkens eentje bij op load cycle teller..
Zolang de temperatuur goed constant blijft is up en down spinnen veel minder erg...
Mijn kast is eigenlijk altijd ~30c. Dan is het minder erg dan als je kast met disks aan 40c is, en met disks uit 30c. Dat scheelt namelijk nogal.

Dat soort problemen heb je veel vaker bij 7200RPM schijven, daar zou ik dat dan ook niet mee doen.
Mijn schijven gaan al jaren na 5 minuten standby, en ze doen het alle 10 nog prima.

Even niets...


  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
het komt er vooral op neer te zorgen dat je schijven maar downspinnen als ze een tijdje niet gebruikt gaan worden. Zelf zijn mijn schijven op een half uur ingesteld. Omdat ze op mijn main PC gemount worden die iedere 15 minuten ofzo gecontroleerd door windows zelf en ik altijd een muziekje speel, ze gaan dus niet in spindown zolang mijn PC aan ligt.

Sluit ik 's avonds de PC af dan gaan de disken ook mooi down tot ik de volgende avond de PC terug aan leg. Zou ik daar bijv. 10 minuten nemen, dan zou mijn array ieder kwartier herstart worden. Dat maakt natuurlijk een groot verschil.

Verder zijn ook andere zaken zoals temperatuur, en de gebruikte schijven van belang, maar als je het een beetje kan regelen dan gaan je schijven even lang of langer mee dan als je ze gewoon 24/24 laat draaien.

  • SJB
  • Registratie: Oktober 2009
  • Laatst online: 12:51

SJB

Ik ben heb een simpel test-systmeempje opgezet om ZFSguru te testen. Nu loop ik tegen het probleem aan dat mijn pc enkel de schijven herkend als ik deze toevoeg aan de RAID-set up in de bios. ZFSguru kan ik niet installeren wanneer deze zijn gekoppeld aan de RAID-controller (geen toegang). Nu kan ik ze verwijderen uit de RAID-set up in de bios, zodat ik ZFSguru wel kan instellen/installeren. Maar wanneer ik mijn pc reboot vindt deze de schijven weer niet en start enkel op met de live cd..

Iemand een tip hoe ik dit kan oplossen?

Systeem:
AMD64 2800+
MB: ASUS K8V Deluxe met Promise controller
1x HD 120GB + 1x 200GB

  • spectator
  • Registratie: Maart 2004
  • Laatst online: 06-11 23:44
Geweldig leuk dat zfs :) Vlak voordat ik mijn nas in gebruik wilde nemen en een kopieslag wilde starten, werd ik verwelkomt met mountroot (reden hiervoor is vaag, maar dat is meer met de n40l met modded BIOS). Dit was mooi mijn kans om de zroot (op ssd's) anders in te richten; dus de usbstick er weer bij, destroy zroot en mijn raidz pool (zmainpool) maar laten staan. Immers daar is niks mis mee en kan ik straks weer importeren. Dat dacht, want ik was vergeten dat er zlog en cache was ingesteld voor zmainpool; en die heb ik verwijderd (op de ssd's) en opnieuw aangemaakt.

Punt is nu dat ik zmainpool niet kan importeren, ook niet geforceerd en niet kan destroyen. Of is er een magische switch.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
[root@zfsguru /etc/zfs]# zpool list && zpool status
NAME    SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
zroot   101G   440M   101G     0%  1.00x  ONLINE  -
  pool: zroot
 state: ONLINE
  scan: none requested
config:

    NAME         STATE     READ WRITE CKSUM
    zroot        ONLINE       0     0     0
      gpt/SYS01  ONLINE       0     0     0
      gpt/SYS02  ONLINE       0     0     0

errors: No known data errors



code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
[root@zfsguru /etc/zfs]# zpool import -f
   pool: zmainpool
     id: 7787481639461241848
  state: FAULTED
 status: One or more devices contains corrupted data.
 action: The pool cannot be imported due to damaged devices or data.
    The pool may be active on another system, but can be imported using
    the '-f' flag.
   see: http://illumos.org/msg/ZFS-8000-5E
 config:

    zmainpool                 FAULTED  corrupted data
    logs
      mirror-1                UNAVAIL  insufficient replicas
        8728641647299278905   UNAVAIL  corrupted data
        17167783787916260876  UNAVAIL  corrupted data


code:
1
2
[[root@zfsguru /etc/zfs]# zpool import -f 7787481639461241848
cannot import 'zmainpool': one or more devices is currently unavailable


Volgens de zpool manual:
-m Enables import with missing log devices.

code:
1
2
[root@zfsguru /etc/zfs]# zpool import -f -m 7787481639461241848
cannot import 'zmainpool': one or more devices is currently unavailable


code:
1
2
[root@zfsguru /etc/zfs]# zpool destroy zmainpool
cannot open 'zmainpool': no such pool


code:
1
2
[root@zfsguru /etc/zfs]# zpool destroy 7787481639461241848
cannot open '7787481639461241848': name must begin with a letter


Waarom de "-m" switch dan niet doet wat het zou moeten doen? jammer. Misschien omdat ik in de tussentijd een nieuwe raidz pool heb aangemaakt en verwijderd met dezelfde naam?


Edit:
na wat rondneuzen lijkt het er op dat er geen manier is om stale pools kwijt te raken en de enige optie is om vanaf scratch opnieuw te beginnen. een triviale handeling lijkt me? of toch niet?

[ Voor 5% gewijzigd door spectator op 18-02-2013 23:05 ]


  • DaCoTa
  • Registratie: April 2002
  • Laatst online: 23-12 23:16
Een korte vraag over ZFSguru: Waar zit het verschil in capaciteit tussen df -h en de webgui?

df -h:
Filesystem   Size   Used   Avail   Capacity  Mounted on
tank         5.8T   3.4T   2.3T    60%       /tank

webgui:
Pool name   SPA   Redundancy              Capacity   Used    Free    Status
tank        28    RAID6 (double parity)   8.75T      5.14T   3.61T   ONLINE


df -h ligt veel dichter bij mijn verwachtingen. Het is een 6 disk RaidZ2 pool met als kleinste partitie 1.5 TiB (1604727078912 bytes), gerapporteerd door ZFSguru. Dus netto ruimte zou 4x1.5TiB moeten zijn, of minder ivm overheid, maar nooit 8.75T.

Verwijderd

Topicstarter
@DaCoTa: die vraag komt vaak voorbij. Op de pools pagina waar je die info vandaan haalt, staat ook dat de capaciteiten anders worden weergegeven dan op de Files pagina. De Files pagina laat bruikbare ruimte zien, dus exclusief overhead. Dit is verder geen 'feature' van ZFSguru maar van ZFS zelf.

Probeer maar eens:
zfs list
zpool list

Dezelfde verschillen. :) Bij de zpool output wordt de parity ook meegenomen, dat is vaak niet wat men verwacht. Vreemd genoeg laat zpool list bij een mirror configuratie juist weer exclusief de mirror disk zien; terwijl je dan consistentie zou verwachten dat een mirror van twee keer 1TB ook 2TB zal laten zien, maar nee... dus een beetje vreemd. Maar ZFSguru houdt wel aan wat ZFS uitspuugt.

Je wordt er overigens wel op geattendeerd dat er verschil zit tussen de Pools en Files pagina qua capaciteit. Maar daar lezen veel mensen overheen. ;)

@spectator: zpool import -F zmainpool kun je proberen. Anders gewoon even een nieuwe pool aanmaken met de -f optie, in ZFSguru is dat een checkbox geloof ik. Maar normaliter verwijder je je oude pool en dan heb je daar geen last meer van; in jouw geval lukt het importeren niet en dus ook niet het destroyen.

  • aaahaaap
  • Registratie: November 2010
  • Laatst online: 25-12 13:36
Kan iemand mij vertellen wat het voordeel is van root on ZFS (Zoals dat bij *BSD/ZFSGuru genoemd wordt)?
Mij lijkt een oplossing met een simpele (al dan niet USB) bootschijf, zoals bijvoorbeeld SmartOS het heeft, gescheiden van de schijven van je pools persoonlijk netter/overzichtelijker.

Verwijderd

Topicstarter
Geen aparte systeemdisk (Solaris ZFS mensen draaien vaak apart twee hardeschijven in mirror voor het systeem/boot; dat lijkt mij erg zonde en ook niet erg zuinig; alleen om 500MB aan data bij het booten te kunnen inlezen; right.

Dat betekent ook je kostbare SATA aansluitingen te kunnen gebruiken voor je pool ipv er twee kwijt te zijn voor je systeem/boot pool.

Daarnaast betekent Root-on-ZFS dat je 100% ZFS draait zonder legacy filesystems, wat belangrijk is met name onder FreeBSD waarbij de mix tussen UFS en ZFS niet zo goed uitpakt omdat ze elkaars geheugen stelen.

Ook krijgt je installatie bij Root-on-ZFS automatisch dezelfde bescherming als je pool, zoals RAID-Z2 ofzo.

Tot slot is het fijn dat je vrijwel onbeperkt ruimte hebt op je systeemdisk, terwijl je ook geen ruimte verspilt omdat die dedicated is aan de systeemdisk. Je bent heerlijk flexibel met meerdere installaties die je direct op ZFS opslaat.

Als laatste is het natuurlijk ook gewoon stoer om softwarematig van RAID6 (RAID-Z2) te booten, welk OS kan dat? FreeBSD met ZFS is het enige voor zover ik weet. Sowieso is Root-on-ZFS op RAID-Z een BSD-only feature.

  • batsma
  • Registratie: April 2005
  • Niet online
Dat laatste is niet helemaal waar CiPHER, ZFS-on-Linux kan ook zo gebouwt worden zodat je OS vanaf de eigen ZFS installatie gedraait wordt, hier zijn wel handleidingen voor te vinden en staat volgens mij zelfs op de site van ZFS on Linux.

Verwijderd

Topicstarter
Maar niet RAID-Z, dat werkt ook niet onder Solaris. Het werkt alleen in mirror. Waarom is dat? Omdat een mirror hetzelfde on-disk formaat heeft als een enkele disk, daarom hoeft de bootcode niets speciaals te doen. Bij RAID-Z gaat dat niet op en moet je bootcode die begint met 512-bytes dus wel uiteindelijk RAID-Z gaan snappen. Kortom, een mini-ZFS engine in 512 bytes (later wel meer; 4K en 200K).

Solaris en Linux kunnen alleen van mirror booten dus, voor zover ik weet. FreeBSD is de enige met eigen bootcode die wereldwijd uniek is.

  • batsma
  • Registratie: April 2005
  • Niet online
Linux op een raidz kan ik inderdaad niet vinden, maar waarom zou je op je bootdisks parity willen gebruiken ipv mirror? normaal gesproken pak je voor je boot toch al kleine en snelle schijven (in mirror).

En je lost hiermee het geheuegen probleem op wat je eerder beschreef ivm legacy filesystems.

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
batsma schreef op dinsdag 19 februari 2013 @ 11:47:
Linux op een raidz kan ik inderdaad niet vinden, maar waarom zou je op je bootdisks parity willen gebruiken ipv mirror? normaal gesproken pak je voor je boot toch al kleine en snelle schijven (in mirror).

En je lost hiermee het geheuegen probleem op wat je eerder beschreef ivm legacy filesystems.
en welk voordeel heb je van de mirror die je van de raidz niet hebt?
En wat heb je aan een snelle os schijf? Wil je sneller logfiles weg schrijven?

Verwijderd

Topicstarter
normaal gesproken pak je voor je boot toch al kleine en snelle schijven (in mirror).
Dat is dus precies het hele punt. Voor Root-on-ZFS wil je geen aparte schijven in een aparte systeem/boot pool, maar gebruik je gewoon één RAID-Z1/2/3 pool met alles erop, inclusief operating system. Ik vind het zonde dat twee schijven continu moeten loeien alleen om 500 megabyte aan operating system data paraat te houden tijdens booten.

Er is één nadeel: voor spindown is Root-on-ZFS dus niet handig. Dan is een embedded distro waarbij je OS in RAM draait een betere optie. Root-on-ZFS is echter geschikt voor zwaardere installaties zonder spindown of waarbij je een aparte systeempool hebt zodat je spindown gebruikt op de resterende schijven. Voor thuisgebruikers die hun RAID-Z willen laten downspinnen is Root-on-ZFS dus iets minder nuttig/geschikt.

  • batsma
  • Registratie: April 2005
  • Niet online
duidelijk verhaal bedankt voor de extra uitleg. heeft dus gewoon te maken met hoe je het wilt gebruiken/inzetten, prive/zakelijk gebruik verhaal.

Andere vraag, heb je enig idee vanuit je ZFSguru kunde wanneer freebsd gaat werken met hyper-v of heb je daar de bronnen/interesse niet voor?

  • aaahaaap
  • Registratie: November 2010
  • Laatst online: 25-12 13:36
Hoe werkt het voor wat betreft portabiliteit in het geval bijvoorbeeld het moederbord het begeeft en de hele pool aan een nieuwe computer gehangen wordt?
Maakt het in dat geval nog uit als je root on ZFS hebt?

En bij uitval van 1 schijf in je pool (mirror of RAID-Z1/2), heb je dan nog voor of nadelen van root on ZFS?
aaahaaap schreef op dinsdag 19 februari 2013 @ 12:07:
Hoe werkt het voor wat betreft portabiliteit in het geval bijvoorbeeld het moederbord het begeeft en de hele pool aan een nieuwe computer gehangen wordt?
Maakt het in dat geval nog uit als je root on ZFS hebt?

En bij uitval van 1 schijf in je pool (mirror of RAID-Z1/2), heb je dan nog voor of nadelen van root on ZFS?
Vanuit dat perspectief hou ik heel graag mijn data en bootdisk gescheiden. 100 % zeker geen link tussen die twee. Om een extra usb-stickje daarvoor te gebruiken voor van te booten vind ik verwaarloosbaar.

Als je virtueel draait vind ik het argument helemaal wegvallen... Dan heb je per definitie onder ESXi altijd één extra disk nodig...

Nu ja >:) , daar ga ik binnenkort ook wel even verandering in brengen: Raspberry Pi gaat als NFS datastore voor de VMX fungeren. Opgelost, klaar, door :) .

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Ik heb een 80 GB SSD genomen voor systeem met ZFSguru en root-on-ZFS geinstalleerd.
Kan ik dan de 2 pools die op M1015 poorten zitten in spindown krijgen ?
Dat was het idee althans, laat de SSD's maar doordraaien en de pool die ik niet gebruik mag spindown.

De 1e pool zit vol op .5 TB na en de 2e ben ik aan het vullen.

Waar stel ik die spindown in ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • B2
  • Registratie: April 2000
  • Laatst online: 27-12 15:09

B2

wa' seggie?

jacovn schreef op dinsdag 19 februari 2013 @ 12:19:
Ik heb een 80 GB SSD genomen voor systeem met ZFSguru en root-on-ZFS geinstalleerd.
Kan ik dan de 2 pools die op M1015 poorten zitten in spindown krijgen ?
Dat was het idee althans, laat de SSD's maar doordraaien en de pool die ik niet gebruik mag spindown.

De 1e pool zit vol op .5 TB na en de 2e ben ik aan het vullen.

Waar stel ik die spindown in ?
Even spindown uit de ports installeren:

cd /usr/ports/sysutils/spindown
make && make install

/etc/rc.conf aanpassen en de volgende regels toevoegen :
#Enable Spindown
spindown_enable="YES"
spindown_flags="-b -d da0 -d da1 -d da2 -d da3 -d da4 -t 300"

-t staat voor de tijd in seconden.

[ Voor 3% gewijzigd door B2 op 19-02-2013 13:36 ]


  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 13-11 10:50
B2 schreef op dinsdag 19 februari 2013 @ 13:36:
[...]


Even spindown uit de ports installeren:

cd /usr/ports/sysutils/spindown
make && make install

/etc/rc.conf aanpassen en de volgende regels toevoegen :
#Enable Spindown
spindown_enable="YES"
spindown_flags="-b -d da0 -d da1 -d da2 -d da3 -d da4 -t 300"

-t staat voor de tijd in seconden.
Werkt dit ook voor Nas4Free?

  • B2
  • Registratie: April 2000
  • Laatst online: 27-12 15:09

B2

wa' seggie?

Alleen daarom al heb ik voor ZFSGuru gekozen. Doordat het gewoon FreeBSD is.

  • Geckx
  • Registratie: November 2008
  • Laatst online: 26-12 00:18
Hmm, ik heb Advanced Power Management nu op 127 staan, maar de schijven gaan nog steeds al na enkele minuten in spin down.. Het zijn Seagate 7200.14 ST3000DM001.

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
Geckx,

Ik heb dezelfde schijven en eveneens problemen gehad. Die seagate schijven ondersteunen APM niet zoals het hoort. Alles tussen 1 en 127 is spindown na ~1 minuut alles er boven is helemaal geen spindown, zo heb ik het gemeten.

Bovendien lijken de schijven ook hun waarde niet te onthouden na een reboot.

Zelf ben ik uiteindelijk met zfs-on-linux aan de slag gegaan omdat ik geen goede manier vond om ze te laten downspinnen, maar je weet hoe dat gaat he, ben je net overgestapt dan komt er ineens iemand af met exact wat je zoekt :P Via ports kan je een programmatje genaamd spindown installeren wat hetzelfde lijkt te doen als "hdparm -S" binnen linux. Als je dan de nodige lijntjes (via camcontrol apm op 254 zetten en via spindown een spindown tijd instellen) toevoegd in rc.conf dan zou het moeten lukken.

Zelf heb ik het helaas nog niet kunnen testen.

[ Voor 4% gewijzigd door enthernal op 19-02-2013 15:41 ]


  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
ik gebruik sinds een tijd:
code:
1
camcontrol standby ada4 -t 600



en dat werkt prima en ook nog geldig na een reboot

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
Dat was een van de eerste zaken die ik geprobeerd had. Hier zonder succes helaas, maar misschien heeft hij meer geluk :)

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
ZFSguru 0.2.0-beta8 (9.1-004) pool benchmark
Pool            : Data (27.2T, 59% full)
Test size       : 128 MiB
normal read : 3 GB/s
normal write    : 190 MB/s
I/O bandwidth   : 3 GB/s

ZFSguru 0.2.0-beta8 (9.1-004) pool benchmark
Pool            : Data (27.2T, 59% full)
Test size       : 8 GiB
normal read : 8 GB/s
normal write    : 466 MB/s
I/O bandwidth   : 24 GB/s

ZFSguru 0.2.0-beta8 (9.1-004) pool benchmark
Pool            : Data (27.2T, 59% full)
Test size       : 32 GiB
normal read : 74 MB/s
normal write    : 658 MB/s
I/O bandwidth   : 26 GB/s

ZFSguru 0.2.0-beta8 (9.1-004) pool benchmark
Pool            : Data (27.2T, 59% full)
Test size       : 64 GiB
normal read : 49 MB/s
normal write    : 586 MB/s
I/O bandwidth   : 27 GB/s

ZFSguru 0.2.0-beta8 (9.1-004) pool benchmark
Pool            : Data (27.2T, 59% full)
Test size       : 128 GiB
normal read : 45 MB/s
normal write    : 544 MB/s
I/O bandwidth   : 27 GB/s


#ProductPrijsSubtotaal
1Intel Pentium G860 Boxed€ 54,95€ 54,95
1ASRock B75 Pro3-M€ 56,45€ 56,45
10Western Digital Green WD30EZRX, 3TB€ 114,89€ 1.148,90
1Norcotek RPC-4224€ 487,03€ 487,03
1Scythe Shuriken Rev. B€ 24,95€ 24,95
2Corsair Vengeance CMZ16GX3M2A1600C10€ 82,10€ 164,20
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 118,58€ 118,58
1Antec Earthwatts Platinum 550W€ 90,50€ 90,50
1Intel 320 160GB€ 287,-€ 287,-
Bekijk collectie
Importeer producten
Totaal€ 2.432,56


eindelijk eens kunnen benchmarken,
die reads zijn toch wel veel te laag imo

dus het probleem ligt niet bij samba of mijn netwerk?

\\ Baloo \\ Mijn iRacing profiel


Verwijderd

Topicstarter
Probeer eens met de Simple disk benchmark te meten of alle disks wel tegen de 150MB/s aan reads doen? Heb je de partities enzovoorts in ZFSguru aangemaakt of heeft iets anders dat gedaan? Dit in verband met alignment.

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

Disks zijn nieuw in de nas aangesloten, en direct een pool aangemaakt in zfsguru op de disks

de simple disk benchmark, is dat mogelijk met data op de schijven?
edit: blijkbaar wel, results are comming..

2 Disks op Moederbord doen 180MB/s tot 80MB/s

2 Disks op Raidkaart doen 160MB/s tot 60MB/s
andere 6 zal ik nog testen, maar ik vermoed gewoon hetzelfde als hierboven..

[ Voor 44% gewijzigd door MikeVM op 19-02-2013 19:01 ]

\\ Baloo \\ Mijn iRacing profiel


Verwijderd

Topicstarter
Het punt is, als één schijf om wat voor reden trager is dan de rest, kan dit je hele pool naar beneden halen. Dat zie ik redelijk vaak bij grote Norco configs waarin er redelijk vaak toch wel één schijf is die flink afwijkt qua prestaties. Wat je kunt doen is de advanced benchmark gebruiken dat levert wel veel informatie op, maar daarvoor moeten je disks leeg zijn en jij hebt al een gevulde pool.

Je readsnelheid is echter wel heel erg laag; een factor 10 ongeveer. Dus er moet duidelijk wat 'aan de hand' zijn. Kun je proberen alle disks tegelijk een dd read te starten?

# lees 50GB van disk1 met label /dev/gpt/DISK1 en doe hetzelfde voor de overige disks
dd if=/dev/gpt/DISK1 of=/dev/null bs=1M count=50k &
dd if=/dev/gpt/DISK2 of=/dev/null bs=1M count=50k &
dd if=/dev/gpt/DISK3 of=/dev/null bs=1M count=50k &
.. etc

Die dd commando's kun je starten in een SSH-sessie. Kijk dan eens met 'gstat -f gpt' naar hoe snel je disks zijn. Zie je dat alle disks zo rond de 150MB/s zitten zonder rare fluctuaties, dan lijken mij de schijven zelf wel oke. zie je dat één schijf rond de 11MB/s doet terwijl de rest 150MB/s doet, dan heb je de oorzaak gevonden. Dit zou ik eerst proberen uit te sluiten.

Merk op dat het belangrijk is dat je de dd commando's tegelijk uitvoert, dat gebeurt met de & aan het einde waardoor het op de achtergrond wordt uitgevoerd. Als je die dd-commando's voor elke disk start, zal elke disk aan het werk moeten zijn. Als er rare bottlenecks zijn zul je die dan ook tegenkomen. Voorts zou ik graag de CPU load willen weten. Dus kijk ook eens naar 'top' gedurende dat die dd commando's draaien en kijk met name naar % idle en % interrupt en % system CPU usage.

[ Voor 16% gewijzigd door Verwijderd op 19-02-2013 19:08 ]


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

er is één disk die weigert om een simple disk Benchmark uit te voeren. als ik op de knop druk, dan zal de pagina na 5 seconden refreshen, en lijkt de test niet gestart zijnde..

ik ga nu de onderstaande regels uitvoeren..:
code:
1
2
3
4
5
6
7
8
9
10
dd if=/dev/gpt/A_Z2_24TB-disk1 of=/dev/null bs=1M count=50k &
dd if=/dev/gpt/A_Z2_24TB-disk2 of=/dev/null bs=1M count=50k &
dd if=/dev/gpt/A_Z2_24TB-disk3 of=/dev/null bs=1M count=50k &
dd if=/dev/gpt/A_Z2_24TB-disk4 of=/dev/null bs=1M count=50k &
dd if=/dev/gpt/A_Z2_24TB-disk5 of=/dev/null bs=1M count=50k &
dd if=/dev/gpt/A_Z2_24TB-disk6 of=/dev/null bs=1M count=50k &
dd if=/dev/gpt/A_Z2_24TB-disk7 of=/dev/null bs=1M count=50k &
dd if=/dev/gpt/A_Z2_24TB-disk8 of=/dev/null bs=1M count=50k &
dd if=/dev/gpt/A_Z2_24TB-disk9 of=/dev/null bs=1M count=50k &
dd if=/dev/gpt/A_Z2_24TB-disk10 of=/dev/null bs=1M count=50k &

Edit: via putty lukte het niet, dus ik had het even via de webgui gedaan, maar nu kan ik niet naar de IO kijken, dus ik moet eerst enable root login instellen op de server voordat ik met putty aan de slag kan..

\\ Baloo \\ Mijn iRacing profiel


Verwijderd

Topicstarter
Wat lukt er niet via PuTTY? Inloggen via SSH kun je regelen op de Services->Internal->OpenSSH pagina trouwens, daar stel je je wachtwoord in.

Je zegt dat één disk niet goed reageert? Dat kan je probleem zijn dan mogelijk. Probeer nog eens via SSH die commando's te draaien en dan met gstat te kijken. Zo heb ik dit soort problemen weten te identificeren op andermans systemen.

  • spectator
  • Registratie: Maart 2004
  • Laatst online: 06-11 23:44
help? alles opnieuw geinstalleerd, 2 pools (zroot en zpool0); netwerk aanpassen, rebooten, wat kopie tests naar /zpool0/share/blah en nog wat rebooten. alles stroomloos, nasje verplaatsen en niet booten. ding terug aan de monitor en ja, de kernel wordt gezocht in zpool0:/boot/kernel/kernel?! Op de prompt zroot van zpool maken, maar /zroot bestaat niet. moet zeggen dat ik niet veel geluk heb en de meestevage dingen voorbij zie komen. Sigh..

Dit is dus wat ik nu krijg, zomaar vanuit de donkere hemel:
code:
1
2
3
FreeBSD/x86 boot
Default: zpool0:/boot/kernel/kernel
boot:


zpool0??? mijn striped zfsonroot is zroot..

Dan maar dit proberen:
code:
1
2
3
FreeBSD/x86 boot
Default: zroot:/boot/kernel/kernel
boot:


Niks, geen medingen..

Boot met usb en:
code:
1
2
3
4
5
6
7
8
9
10
11
12
[root@zfsguru ~]# zpool list
NAME          SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
zinstallusb  1.88G   685M  1.21G    35%  1.00x  ONLINE  -
zpool0       8.12T  2.18M  8.12T     0%  1.00x  ONLINE  -
zroot         101G  1.41G  99.6G     1%  1.00x  ONLINE  -
[root@zfsguru ~]# mount -t zfs zroot/zfsguru/9.1-005 /mnt/zroot
[root@zfsguru ~]# ls -l /mnt/zroot/boot/kernel/kernel.gz 
-r-xr-xr-x  1 root  wheel  7762599 Jan 29 22:54 /mnt/zroot/boot/kernel/kernel.gz*
[root@zfsguru ~]# zfs list | grep zpool0
zpool0                                1.45M  5.33T   202K  /zpool0
zpool0/share                           416K  5.33T   224K  /zpool0/share
zpool0/share/migrate                   192K  5.33T   192K  /zpool0/share/migrate


Dan maar dit eens proberen:
toevoegen van onderstaande aan /mnt/zroot/boot/loader.conf..

zfs_load="YES"
vfs.root.mountfrom="zfs:zroot/root"



Helaas, no joy.

Prima dat tegenslag je veel leert, maar dit begint niet leuk meer te worden.. of?

EDIT: opgelost. Om de e.o.a. reden was de default boot disk in het BIOS aangepast.

[ Voor 75% gewijzigd door spectator op 20-02-2013 00:33 ]


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

Verwijderd schreef op dinsdag 19 februari 2013 @ 19:58:
Wat lukt er niet via PuTTY? Inloggen via SSH kun je regelen op de Services->Internal->OpenSSH pagina trouwens, daar stel je je wachtwoord in.

Je zegt dat één disk niet goed reageert? Dat kan je probleem zijn dan mogelijk. Probeer nog eens via SSH die commando's te draaien en dan met gstat te kijken. Zo heb ik dit soort problemen weten te identificeren op andermans systemen.
inloggen via putty werkt wel, maar bepaalde commandas kan ik niet uitvoeren, omdat ik geen rootaccess heb
edit, met "su -", kan ik dus als root commands uitvoeren..

[ Voor 4% gewijzigd door MikeVM op 19-02-2013 21:18 ]

\\ Baloo \\ Mijn iRacing profiel


  • spectator
  • Registratie: Maart 2004
  • Laatst online: 06-11 23:44
MikeVM schreef op dinsdag 19 februari 2013 @ 21:12:
[...]

inloggen via putty werkt wel, maar bepaalde commandas kan ik niet uitvoeren, omdat ik geen rootaccess heb
als je als ssh op de prompt bent wordt je root door "su -"
geen wachtwoord nodig voor root, zolang je dit hebt ingesteld.

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

spectator schreef op dinsdag 19 februari 2013 @ 21:18:
[...]


als je als ssh op de prompt bent wordt je root door "su -"
geen wachtwoord nodig voor root, zolang je dit hebt ingesteld.
Thx


code:
1
dd if=/dev/gpt/A_Z2_24TB-disk7 of=/dev/null bs=1M count=50k &

code:
1
2
3
4
- disk7: Input/output error
4+0 records in
4+0 records out
4194304 bytes transferred in 3.552696 secs (1180597 bytes/sec)


de andere disks zittten tussen 140 en 160 kBps

dus nu eens gaan kijken of het een kabeltje is ofzo, als ik de disk op het moederbord aansluit, dan zal deze gewoon herkent worden? en ik kan dat hotswap neem ik aan?

[ Voor 46% gewijzigd door MikeVM op 19-02-2013 23:31 ]

\\ Baloo \\ Mijn iRacing profiel


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

nu begonnen met Sabnzbd, Sickbeard en Transmission. hiervoor gebruikte ik het LaSi scriptje.

Sickbeard en Transmission lijken te werken zonder probleem.
maar Sabnzbd kan ik niet bereiken via de browser

- eerst geinstalleerd als user: Share
- en zowat alles uit deze tutorial geprobeerd: http://dl.dropbox.com/u/3...ouchpotato_on_ZFSguru.pdf
- daarna opnieuw geinstalleerd als current user (root)
- opnieuw zowatalles uit de pdf geprobeerd. zonder resultaat..

alleen bestaat dit bestand niet, onder usr bestaat er geen home, die staat ergens anders.
onder home staat danweer enkel share en ssh
code:
1
# ee /usr/home/nfs/sabnzbd/sabnzbd.ini

[ Voor 227% gewijzigd door MikeVM op 19-02-2013 23:38 ]

\\ Baloo \\ Mijn iRacing profiel


  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
duiveltje666 schreef op vrijdag 15 februari 2013 @ 23:57:
Zijn er nog mensen die interesse hebben in een optimalisatie van hun server? Ik was van plan om een howto te maken
*kick*

  • Geckx
  • Registratie: November 2008
  • Laatst online: 26-12 00:18
matty___ schreef op dinsdag 19 februari 2013 @ 15:45:
ik gebruik sinds een tijd:
code:
1
camcontrol standby ada4 -t 600



en dat werkt prima en ook nog geldig na een reboot
Bedankt, lijkt toch te werken.

Ik heb ze nu op -t 2100 staan. Dus 35 minuten.

Ik had ze graag op 7200 gehad, maar alles boven de 2100 geeft een fout :?

zfsguru.bsd$ camcontrol standby ada4 -t 2200
(pass4:ahcich4:0:0:0): STANDBY. ACB: e2 00 00 00 00 40 00 00 00 00 f2 00
(pass4:ahcich4:0:0:0): CAM status: Command timeout


WARNING: got return value 1! Command may not have executed properly.

Dusja, voorlopig laat ik het dus op deze instelling staan. Alleszins al beter dan na 1 minuut.

  • spectator
  • Registratie: Maart 2004
  • Laatst online: 06-11 23:44
Jazeker.. voor een leek altijd handig :)

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
spectator schreef op woensdag 20 februari 2013 @ 00:38:
[...]


Jazeker.. voor een leek altijd handig :)
PM me aub met je specs :)
Geckx schreef op woensdag 20 februari 2013 @ 00:30:
[...]


Bedankt, lijkt toch te werken.

Ik heb ze nu op -t 2100 staan. Dus 35 minuten.

Ik had ze graag op 7200 gehad, maar alles boven de 2100 geeft een fout :?

zfsguru.bsd$ camcontrol standby ada4 -t 2200
(pass4:ahcich4:0:0:0): STANDBY. ACB: e2 00 00 00 00 40 00 00 00 00 f2 00
(pass4:ahcich4:0:0:0): CAM status: Command timeout


WARNING: got return value 1! Command may not have executed properly.

Dusja, voorlopig laat ik het dus op deze instelling staan. Alleszins al beter dan na 1 minuut.
Is het niet net zo als met HDPARM dat die waarde steeds grotere sprongen gaat nemen?

In hdparm is het zo dat alles boven 60 (wat eerst seconden is) 1 minuten blokken worden ofzo geloof ik.
En dan na 4 uur, worden het uur blokken...

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Vraag:
Start mijn zfsguru server op, is blijkbaar 1 m1015 niet opgestart.
Ik het 2 maal een pool met 10 hdds in raidz2.
Van beide pools zitten er 2 hdds op deze m1015

Pools beide degraded.
Systeem opnieuw gestart en in de bios eerst gekeken of alle 3 de m1015 werkten. Dit was goed, en zfsguru geboot.

Ik heb een scrub op beide pools gestart.
Pool 2 was na een paar minuten klaar en heeft als status melding

Scrub resilvered 43.8G in 0h6m with 0 errors on Wed Feb 20 08:56:10 2013


Pool 1 loopt nog steeds en heeft als status melding:

Scrub scrub in progress since Wed Feb 20 08:53:32 2013
5.78T scanned out of 26.8T at 673M/s, 9h6m to go
0 repaired, 21.56% done

Ik zal het maar laten doorlopen, maar kan iemand me vertellen waarom pool1 blijkbaar de hele pool controleerd ?


Edit: in deze pool zit een hdd met tig duizend kabel errors van de defecte poort van een m1015.
Wellicht dat zfsguru/freebsd een complete check doet als er dit soort errors op een hdd zitten.
Ik neem haast aan dat elke sector geraakt wordt en dat er dan een controle wordt gedaan of deze errors oplopen/gelijk blijven etc.

Scrub was klaar na 9+ uur en heeft niets hoeven herstellen. Dat was ook te verwachten, want deze pool is bijna vol en ik was aan het schrijven naar de andere die in een paar minuten klaar was met de scrub..

Pool 1 is een stuk verder gevuld:

movietank1 28 RAID6 (double parity) 27.2T 26.8T 437G ONLINE
movietank2 28 RAID6 (double parity) 36.2T 16.5T 19.7T ONLINE

[ Voor 21% gewijzigd door jacovn op 21-02-2013 02:43 . Reden: antwoord op eigen vraag wellicht gevonden ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • aaahaaap
  • Registratie: November 2010
  • Laatst online: 25-12 13:36
duiveltje666 schreef op vrijdag 15 februari 2013 @ 23:57:
Zijn er nog mensen die interesse hebben in een optimalisatie van hun server? Ik was van plan om een howto te maken
Over wat voor optimalisaties hebben we het dan?

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Nog een vraag: Ik had per ongeluk de voeding van de LAN switch eruit getrokken.
Ik ben nu de web connectie met de ZFS server kwijt.
Als ik op de console kijk zijn de lagg en de fysieke interfaces weer up.
Ik kan ook vanaf de console de default gateway pingen, en vanaf mijn PC kan ik ook de server pingen.
Dus IP connectivity werkt weer.

Via het console menu heb ik de web-interface configuration ge-reset, maar dit brengt de web interface niet terug.

Ik neem aan dat ik een bepaald process moet starten, of killen zodat het weer start ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

lighttpd herstarten.

/usr/local/etc/rc.d/lighttpd restart

Even niets...


  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
helaas..
ik kan op de console wel zien met zpool status <pool naam> dat de scrub nog loopt.
Als die klaar is reboot ik de server wel.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

Pagina: 1 ... 63 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.