Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Verwijderd schreef op vrijdag 22 maart 2013 @ 11:41:
[...]


Ja kan prima. geom_stripe (RAID0) of geom_concat (JBOD/spanning) kun je gebruiken. Ik raad geom_stripe aan. Dat maakt het iets sneller omdat je oudere schijven langzamer zijn dan nieuwe 3TB schijven. Nadeel is dat je 2*1.5TB krijgt en de 0.5TB verdwijnt. Maar dat is dus helemaal niet zo erg want je wilt hem juist als 3TB disk gebruiken. Bovendien kun je die 0.5TB nog wel gebruiken als je partities gebruikt.

geom_stripe kun je niet via de ZFSguru web-interface bedienen (wellicht in de toekomst). Maar de command line is best makkelijk:
gstripe label -s 131072 stripe3tb /dev/gpt/disk1-partitievoorstripe /dev/gpt/disk2-partitievoorstripe

Die partities moet je dan eerst aanmaken via ZFSguru en een labelnaam geven. Dan het gstripe commando hierboven als root uitvoeren. Verder moet je geom_stripe RAID0 kernel module laten starten tijdens de boot:

echo "geom_stripe_load=\"YES\"" >> /boot/loader.conf

(maak geen fout met dit commando, de dubbele >> is heel belangrijk)
Wanneer ik bovenstaand commando intik (met aangepaste partitie namen)
gstripe label -s 131072 stripe3tb /dev/gpt/DISK05 /dev/gpt/DISK06

krijg ik als respons
gstripe: can't store metadata on /dev/gpt/DISK05: input/output error.

Wat doe ik verkeerd?

Acties:
  • 0 Henk 'm!

  • Jaap-Jan
  • Registratie: Februari 2001
  • Laatst online: 08:06
Kloppen die hoofdletters en die voorloopnullen?

| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Jaap-Jan schreef op zondag 24 maart 2013 @ 16:29:
Kloppen die hoofdletters en die voorloopnullen?
Ja die kloppen

Nog andere suggesties? :'(

[ Voor 8% gewijzigd door ilovebrewski op 24-03-2013 18:02 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Wouter.S schreef op zaterdag 23 maart 2013 @ 10:07:
Er zijn zo van die momenten dat je toch echt blij bent dan je ZFS draait in plaats van hardware RAID :)
(..)
Bij hardware RAID zou de array nu naar alle waarschijnlijkheid gefailed zijn, lang leve ZFS >:)
*O*
Mafketel schreef op zaterdag 23 maart 2013 @ 10:42:
Sorry ik ben niet duidelijk genoeg geweest.
In de standaard zfsguru installatie(0.2.0-bet8-9.1-005) is postfix geinstalleerd ipv sendmail.
Daar weet ik niets van? Weet je dit heel zeker? Voor zover ik weet zit in ZFSguru standaard geen postfix, enkel sendmail wat standaard in FreeBSD zit. Maar Sendmail is in de /etc/rc.conf standaard wel uitgeschakeld voor zover mogelijk.
Dit natuurlijk alleen als je mail op je nas wil hebben ;)
Een mooie service daarvoor ontbreekt nog. Maar dat is een pad wat ZFSguru ongetwijfeld gaat bewandelen. Iedereen kan de software draaien op zijn NAS die men wilt.
ilovebrewski schreef op zaterdag 23 maart 2013 @ 13:18:
@CiPHER
Gaat Ajaxplorer weer functioneel worden?
Ajaxplorer3 kan weer tot leven worden gewekt door PHP 5.4 te deinstalleren en PHP 5.3 te installeren. Ajaxplorer4 verbied door zijn licentie het packagen door ZFSguru maar wellicht kan de gebruiker de tarball zelf downloaden. Maar het probleem is vooral dat de integratie van Ajaxplorer3 in ZFSguru heel goed was, en dat die integratie bij Ajaxplorer4 waarschijnlijk niet meer werkt en herschreven moet worden.

Kortom, er is hoop, maar verwacht niet snel iets.
Jonny55 schreef op zaterdag 23 maart 2013 @ 18:21:
Ik heb momenteel MySQLgeinstaleerd in zfsguru.
alleen kan ik niet inloggen in php admin ik heb de standaard inlog gegevens al geprobeerd maar helaas zonder succes.
weet iemand het log in en wachtwoord of hoe ik en nieuw wachtwoord kan aanmaken???
Log in als root zonder wachtwoord. Eerste wat je dient te doen is een nieuw wachtwoord geven aan de root gebruiker.
thomasie schreef op zondag 24 maart 2013 @ 14:23:
Ik ben een beetje bezig met het overgaan van een linux NAS naar ZFSguru, vooral omdat ik me een stuk veiliger voel bij ZFS. Alleen het lukt me gewoon niet een werkende AMP config draaiend te krijgen. Ik heb geprobeerd het via de web interface van ZFSguru en ook via ports maar ik heb de hele tijd problemen. Is er iemand hier die AMP config draaiend heeft?
Bedenk dat een webserver op een poort moet draaien. ZFSguru gebruikt poort 80 standaard voor Lighttpd - de webinterface. Die kun je rustig op poort 81 ofzo instellen, zodat poort 80 vrij komt om Apache te installeren. Je kunt apache en MySQL services via ZFSguru installeren. Maar configureren moet je zelf doen. Heel moeilijk zou het niet mogen zijn; de poort veranderen is het meest ingrijpende.
ilovebrewski schreef op zondag 24 maart 2013 @ 15:42:
Wanneer ik bovenstaand commando intik (met aangepaste partitie namen)
gstripe label -s 131072 stripe3tb /dev/gpt/DISK05 /dev/gpt/DISK06

krijg ik als respons
gstripe: can't store metadata on /dev/gpt/DISK05: input/output error.
Kan het zijn dat die partitie in gebruik is? Gebruikt ZFS die partitie bijvoorbeeld, of andere kernel modules? Als je reboot, krijg je dan dezelfde error als je het nog eens probeert. Bestaat /dev/gpt/DISK05 wel echt?

Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Verwijderd schreef op zondag 24 maart 2013 @ 19:44:
[...]


Kan het zijn dat die partitie in gebruik is? Gebruikt ZFS die partitie bijvoorbeeld, of andere kernel modules? Als je reboot, krijg je dan dezelfde error als je het nog eens probeert. Bestaat /dev/gpt/DISK05 wel echt?
Ik heb de schijven wel geformateerd GPT type freedsb-zfs. Misschien moet ik eens formateren met GPT type freedsb.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Nee, de manier van formatteren hoe ZFSguru dit standaard doet is juist uitstekend geschikt en ik raad aan dat je dat ook gebruikt. Mag ik je verzoeken mij in een Direct Message de volgende informatie te sturen:
1. glabel status output
2. zpool status output
3. exacte foutmelding

En klein puntje: draai je het commando wel als root? Anders heb je geen rechten om naar fysieke devices te schrijven. ;)

Acties:
  • 0 Henk 'm!
Pas ook op met de 'refresh'-bug in FreeBSD, eenmaal aangemaakte labels blijven bezet na een rename, alleen een reboot maakt deze labels weer beschikbaar.

Dus als je zoals ik een partitie gpt/rootpool-A noemt, en daarna hernoemt naar rootpool-B, kan je niet gelijk een nieuwe partitie aanmaken met gpt/rootpool-A.

@CiPHER, enig idee of dat al opgelost is in 10.0?

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
De 'refresh' bug is een regression ergens in de FreeBSD GEOM code. ZFSguru lost dit op door een nep-write te doen naar de device, zodat er inderdaad wordt gerefreshed. Dit heb je nodig na een labelnaam-wijziging of het wijzigen van een bestaande partitie (zoals shrinken of expanden). Maar als het goed is doet ZFSguru dit al in moderne web-interface?

Acties:
  • 0 Henk 'm!
Nope, gaat nog niet goed. (en de SLOG device test faalt ook nog steeds).

Even niets...


Acties:
  • 0 Henk 'm!

  • sontax
  • Registratie: December 2006
  • Niet online
.

[ Voor 99% gewijzigd door sontax op 23-10-2022 10:03 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 17-10 19:53

Compizfox

Bait for wenchmarks

sontax schreef op dinsdag 26 maart 2013 @ 22:38:
Even een vraagje, Ik heb net mijn advanced ZFS systeem van de BBG in elkaar gezet.

ESXi is geinstalleerd en ik wil ZFSGuru in een VM draaien.
Echter doordat ik de M1015 met alle hardeschijven op VT-D heb gezet kan ik hierop geen ZFSGuru installeren.

Hoe hebben jullie dit opgelost ?
Heb jullie nog een aparte schijf voor datastore gekocht of is er een manier om een virtuele machine te maken zonder hdd ?
Jup, je hebt een aparte HDD/SSD nodig voor een datastore. Die sluit je aan op je onboard SATA-controller omdat je M1015 is doorgegeven met VT-d.

En nee, een USB-stick kan niet (helaas), en booten van de M1015 kan helaas ook niet.

[ Voor 12% gewijzigd door Compizfox op 26-03-2013 23:06 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Geckx
  • Registratie: November 2008
  • Laatst online: 23-05-2022
Kan er iemand een uitleg voorzien van hoe ik ZFSguru + mijn router moet configureren om toegang tot de server te krijgen van buitenaf. Liefst op zo een veilig, maar toch relatief eenvoudige manier?

Acties:
  • 0 Henk 'm!
Is VPN mogelijk op je router?

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 17-10 19:53

Compizfox

Bait for wenchmarks

Wat versta je onder toegang?
SSH-toegang? Toegang tot de webinterface? Toegang tot je data?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Geckx
  • Registratie: November 2008
  • Laatst online: 23-05-2022
Op die van mijn ISP wellicht niet, zeer beperkt in configuratie. Eventueel kan ik deze wel vervangen door een dlink DIR-635. Daar is het misschien wel mee mogelijk.
Compizfox schreef op donderdag 28 maart 2013 @ 17:40:
Wat versta je onder toegang?
SSH-toegang? Toegang tot de webinterface? Toegang tot je data?
Toegang tot de data (of toch gedeeltelijk). via SSH zou het veiligste zijn neem ik aan? Natuurlijk moet ik me daar wel eerst is in verdiepen, want heb ik nog geen ervaring mee om dit op te zetten.

Acties:
  • 0 Henk 'm!

  • Basz0r
  • Registratie: April 2009
  • Niet online
Geckx schreef op donderdag 28 maart 2013 @ 17:49:
[...]


Op die van mijn ISP wellicht niet, zeer beperkt in configuratie. Eventueel kan ik deze wel vervangen door een dlink DIR-635. Daar is het misschien wel mee mogelijk.


[...]


Toegang tot de data (of toch gedeeltelijk). via SSH zou het veiligste zijn neem ik aan? Natuurlijk moet ik me daar wel eerst is in verdiepen, want heb ik nog geen ervaring mee om dit op te zetten.
Je zou de data kunnen bereiken door middel van SFTP (dat is waarschijnlijk wat je bedoelt met SSH) of FTP. Je kan in de meeste routers wel een poort forwarden naar je eigen ZFSguru server, dan kan je deze van buitenaf bereiken

Acties:
  • 0 Henk 'm!
Is het normaal dat je onder FreeBSD niet zomaar een SATA disk er uit mag "joinken"? Ik was zonet voor mezelf mijn backupplannen eens fysiek aan het uitvoeren (joink, disk uit zijn hotswap bay) en HEEL mijn ZFSGURU VM die hangt nu gewoon... Ik heb hetzelfde onder VMware Workstation met een DEV-ZFSGURU VM gedaan (maar dan de VMDK gewoon geremoved) en daar was het resultaat net hetzelfde...

Als dat zo is, zou het wel jammer zijn want dan kan ik niet zo flexibel en ad hoc mijn disk er uit halen en snel even naar een offsite locatie brengen...

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Wat voor driver gebruik je onder FreeBSD? De AHCI 'ada' driver?

Acties:
  • 0 Henk 'm!

  • Geckx
  • Registratie: November 2008
  • Laatst online: 23-05-2022
Basz0r schreef op donderdag 28 maart 2013 @ 19:14:
[...]

Je zou de data kunnen bereiken door middel van SFTP (dat is waarschijnlijk wat je bedoelt met SSH) of FTP. Je kan in de meeste routers wel een poort forwarden naar je eigen ZFSguru server, dan kan je deze van buitenaf bereiken
En hoe gaat dat precies in zijn werk om dit in te stellen?

Ik heb voor zfsguru MySQL geinstalleerd en PureFTPd, maar die laatste wil niet starten.
\n"); $LFile = "english.php"; } require("language/".$LFile); // Read the language file ?>\n"); $LFile = "english.php"; } require("language/".$LFile); // Read the language file ?>
Error: MySql server not found.

MySql error : Access denied for user 'ftp'@'localhost' (using password: YES)
Terwijl de service van MySql wel gewoon aanstaat.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op donderdag 28 maart 2013 @ 20:19:
Wat voor driver gebruik je onder FreeBSD? De AHCI 'ada' driver?
Euhm, mijn devices worden als ada geïdentificeerd, dat kan ik wel vertellen, of dat impliceert dat ik de AHCI driver gebruik weet ik niet?

EDIT: net ook even getest, als ik netjes een device offline dan mag ik 'm er wel zonder hangups uit trekken...

[ Voor 15% gewijzigd door HyperBart op 28-03-2013 20:31 ]


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
:( Mijn plannen voor de uitbreiding van mijn openindiana nasje (HP N40L) lopen spaak. Ik dacht wat hardware bij elkaar te hebben om het goed aan te pakken:
- 5,25" bay met plaats voor 6 x 2,5" sata disks (nog in bestelling)
- handvol 500 GB 7200rpm seagate diskjes
- 2 extra 3TB disks
- LSI 1068E controller (of eventueel een supermicro aoc-saslp-mv8 (=marvell))
- voldoende kabels voor sff8088 naar sata en voeding.

Nu blijkt dat:
De LSI controller no way met 3TB schijven wil werken :(
De seagate disksjes op die controller erg vervelend blijven doen (command timeout en/of maar 100KB/s) :(
De marvell controller helemaal niet in OI supported is :(

Ik denk dat ik toch maar op zoek moet naar een andere 6~8 poorts controller. Hoe zat dat met die IBM m1015, was die nu ook op 1068 gebaseerd of op lsi2008/2308 ?

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 10-10 13:24
u_nix_we_all schreef op donderdag 28 maart 2013 @ 21:24:


Ik denk dat ik toch maar op zoek moet naar een andere 6~8 poorts controller. Hoe zat dat met die IBM m1015, was die nu ook op 1068 gebaseerd of op lsi2008/2308 ?
dacht de 2008 chip

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Vervelend, unix_we_all. Maar het is bekend dat de SuperMicro AOC-SASLP-MV8 en andere op Marvell-gebaseerde controllers veel problemen hebben. Ook onder Linux heb ik horrorverhalen gehoord met deze controllers. Daarom dat de LSI SAS controllers de enige échte keuze zijn. Jammer natuurlijk, ik had graag meer échte AHCI controllers gezien zoals een 8 poorts AHCI controller op PCI-express x4 ofzo. Maar dat bestaat niet, jammer genoeg.

IBM M1015 is daarom een goed alternatief. Bedenk wel dat deze controller ook beperkingen heeft (TRIM/UNMAP/IDENTIFY). En update de firmware (en naar IT-mode) voordat je hem in gebruik neemt.

Acties:
  • 0 Henk 'm!

  • base_
  • Registratie: April 2003
  • Laatst online: 11:15
Geckx schreef op donderdag 28 maart 2013 @ 20:21:
[...]
Terwijl de service van MySql wel gewoon aanstaat.
als in aan in /etc/rc.conf? dan moet je hem nog starten door reboot of "/usr/local/etc/rc.d/mysql-server start"

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 17-10 22:34

Pantagruel

Mijn 80486 was snel,....was!

u_nix_we_all schreef op donderdag 28 maart 2013 @ 21:24:
:( Mijn plannen voor de uitbreiding van mijn openindiana nasje (HP N40L) lopen spaak. Ik dacht wat hardware bij elkaar te hebben om het goed aan te pakken:
- 5,25" bay met plaats voor 6 x 2,5" sata disks (nog in bestelling)
- handvol 500 GB 7200rpm seagate diskjes
- 2 extra 3TB disks
- LSI 1068E controller (of eventueel een supermicro aoc-saslp-mv8 (=marvell))
- voldoende kabels voor sff8088 naar sata en voeding.

Nu blijkt dat:
De LSI controller no way met 3TB schijven wil werken :(
De seagate disksjes op die controller erg vervelend blijven doen (command timeout en/of maar 100KB/s) :(
De marvell controller helemaal niet in OI supported is :(

Ik denk dat ik toch maar op zoek moet naar een andere 6~8 poorts controller. Hoe zat dat met die IBM m1015, was die nu ook op 1068 gebaseerd of op lsi2008/2308 ?
Tja vervelend, maar wat zal ik zeggen, er is in t verleden een lijstje gemaakt met geliefde en ondersteunde SATA HBA's , het is overduidelijk tijd dat die in de TS terecht komt om dit soort frustraties te voorkomen.
Verwijderd schreef op donderdag 28 maart 2013 @ 22:07:
Vervelend, unix_we_all. Maar het is bekend dat de SuperMicro AOC-SASLP-MV8 en andere op Marvell-gebaseerde controllers veel problemen hebben. Ook onder Linux heb ik horrorverhalen gehoord met deze controllers. Daarom dat de LSI SAS controllers de enige échte keuze zijn. Jammer natuurlijk, ik had graag meer échte AHCI controllers gezien zoals een 8 poorts AHCI controller op PCI-express x4 ofzo. Maar dat bestaat niet, jammer genoeg.

IBM M1015 is daarom een goed alternatief. Bedenk wel dat deze controller ook beperkingen heeft (TRIM/UNMAP/IDENTIFY). En update de firmware (en naar IT-mode) voordat je hem in gebruik neemt.
Van de Marvel meuk kun je beter weg blijven, heb me ook eens gebrand aan een goedkope SASLP maar was aan t einde van de rit onder Linux meer irritatie dan vreugde. Ik was dus tevreden dat ik hem toen met minimaal verlies kon doorverkopen.

De M1015 of een vergelijkbare SAS/SATA HBA op basis van de SAS2008 controller is min of meer de beste optie. Voldoende kennis en know-how mbt flashen en drive ondersteuning in de ZFS community aanwezig (alhier, [H]ardForum, ServeTheHome, OCAU, etc) .

CiPHER haalt terecht de beperkingen als trim en unmap aan, maar daar is doorgaans mee te leven. Verwijzingen hoe te updaten naar initiator-target mode (IT) kun je voldoende vinden (LimeTech/ServeTheHome) en zijn redelijk 'recht toe, recht aan'.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Remcor2000
  • Registratie: Augustus 2002
  • Laatst online: 10:36
Hallo allemaal,

Na veel te hebben ingelezen over de manier waarop ZFS werkt en over de verschillende configuraties die beschikbaar zijn wil ik toch eens mijn plan laten toetsen.

Op dit moment heb ik een Synology DS211j die erg traag werkt met de functies die ik graag gebruik. (SABNZBD, Squeezebox server, VPN server, mini webserver, sickbeard, en uiteraard data opslag)
Deze onderdelen zullen dus echt weer terug moeten komen in mijn nieuwe server.

Allereerst ben ik begonnen met inlezen in het DIY Nas topic, hier kwam ik al snel uit op een ZFS configuratie, waardoor ik doorgeschoven ben naar het ZFS topic. In dit topic las is over ESXI waardoor ik een tijdlang in dat topic heb gesnuffeld waardoor ik er op uit kwam dat dat is wat ik wil! Een aparte VM voor ZFSGuru, en een aparte VM om alle overige server activiteiten te draaien. Maar eigenlijk heb ik daar het budget nog niet voor.

Om eerst maar eens wat te experimenteren heb ik een oude server van zolder gehaald, waar een Intel Q6600 op een intel S3200sh bord zit met een Areca 1210 raid controller met 4 harde schijven.
Hier heb ik ESXI op geinstalleerd, en kwam best ver tot op het punt van passthrough van de Areca controller, uiteraard had ik dit verwacht want deze combo ondersteund geen VT-D.

Dus nu ben ik op zoek naar configuratie waar ik in de basis ZFSGuru op wil draaien en daarna de opgebouwde harde schijf pool op termijn wil migreren naar een server met ESXI VT-d enabled.
Nu is mij niet helemaal duidelijk of een pool te verplaatsen is van een bestaande build naar bijvoorbeeld een configuratie waar ineens de areca controller tussen zit.

Eerst configuratie:
Celeron G1610
Asrock b75 pro3-m
Waar de harde schijven direct op het moederbord zitten.
Draait ZFSGuru

Naar een configuratie waar:
De celeron G1610 vervangen is voor een VT-d compatible processor
Asrock B75 pro3-m
Areca 1210 raid controller
waar de 4 harde schijven gekoppeld worden aan de areca ipv moederbord. en 1 harde schijf voor ESXi en ubuntu server
Draait ESXI, met in een VM ZFSGuru waar de Areca (met bijbehorende schijven) is doorgegeven

In volgorde heb ik bedacht dat dit dan zou moeten zijn:
Harde schijven afkoppelen,
Hardware ombouwen (zonder harde schijven aan te sluiten aan de Areca controller)
ESXi installeren
ZFSGuru installeren in VM
Harde schijven koppelen
pool weer opbouwen zoals deze bestond.

Maarrr is dit mogelijk zonder bestandsverlies? Of maak ik soms een denkfout, of verkeerde richting, ik zou t heel graag willen weten _/-\o_

Acties:
  • 0 Henk 'm!
Een paar punten:
- De Areca is niet compatible met ZFS, niet gebruiken dus. Je onboard poorten voldoen prima.
- De ASrock B75 is leuk, maar als je maar 4 schijven gaat aansluiten, overkill... Je kan dan beter een MSI bordje nemen (B75 gebaseerd is prima...)
- Bedenk waarom je perse ESXi wil draaien, ZFS native draaien is sneller en een aantal van de services waar jij over praat zijn ook gewoon onder ZFSguru/FreeBSD te draaien.
- Daarnaast kan je de services die je in ZFSguru niet kan draaien, altijd via VirtualBox in een Ubuntu VM draaien. VirtualBox is minder fancy dan ESXi, en duidelijk minder snel, maar FreeBSD is wel weer sneller als het native draait. Het heft elkaar dus een beetje op.

Ikzelf heb nu ook weer VirtualBox draaien (na heel lang ESXi gedraaid te hebben, en tussendoor een poosje KVM). Ik heb SabNZBd als service onder ZFSguru draaien, en alle andere services (CouchPotato, SickBeard, Headphones, etc) in een Ubuntu VM onder VirtualBox. SabNZBd virtueel onder VirtualBox draaien is niet leuk, dat is nogal ernstig traag...

[ Voor 6% gewijzigd door FireDrunk op 29-03-2013 10:06 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Remcor2000
  • Registratie: Augustus 2002
  • Laatst online: 10:36
FireDrunk schreef op vrijdag 29 maart 2013 @ 10:05:
Een paar punten:
- De Areca is niet compatible met ZFS, niet gebruiken dus. Je onboard poorten voldoen prima.
- De ASrock B75 is leuk, maar als je maar 4 schijven gaat aansluiten, overkill... Je kan dan beter een MSI bordje nemen (B75 gebaseerd is prima...)
- Bedenk waarom je perse ESXi wil draaien, ZFS native draaien is sneller en een aantal van de services waar jij over praat zijn ook gewoon onder ZFSguru/FreeBSD te draaien.
- Daarnaast kan je de services die je in ZFSguru niet kan draaien, altijd via VirtualBox in een Ubuntu VM draaien. VirtualBox is minder fancy dan ESXi, en duidelijk minder snel, maar FreeBSD is wel weer sneller als het native draait. Het heft elkaar dus een beetje op.

Ikzelf heb nu ook weer cdraaien (na heel lang ESXi gedraaid te hebben, en tussendoor een poosje KVM). Ik heb SabNZBd als service onder ZFSguru draaien, en alle andere services (CouchPotato, SickBeard, Headphones, etc) in een Ubuntu VM onder VirtualBox. SabNZBd virtueel onder VirtualBox draaien is niet leuk, dat is nogal ernstig traag...
Dank voor je snelle reactie! goede inzichten om over na te denken. Ik stuur je een PM met wat meer vragen omdat dit eigenlijk vragen worden over servers en virtualiseren in plaats van ZFS.

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Kunnen we informatie over bijvoorbeeld bovenstaand marvell verhaal + 1068 niet in de start post erbij vermelden als notitie voor linux gebruikers? Zo zijn er wel meer configuraties die niet werken waar we allemaal wel tegen lopen zoals het recente zfs+kvm+freebsd Firedrunk+andere-gebruiker debacle.

+ de 1068 is nog steeds een populaire kaart maar ook het 3TB verhaal is al eens eerder vermeld ergens (+ eigen ervaring ;))

[ Voor 17% gewijzigd door analog_ op 29-03-2013 14:30 ]


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
analog_ schreef op vrijdag 29 maart 2013 @ 14:29:


+ de 1068 is nog steeds een populaire kaart maar ook het 3TB verhaal is al eens eerder vermeld ergens (+ eigen ervaring ;))
Tja, dat die marvell niet ging werken verwachtte ik al, maar dat die 3TB's niet werken met die 1068E had ik even gemist :>
Maar die seagate disks op de 1068E zou toch wel moeten werken, en dan kan ik ook alles aansluiten. Maar tot nu toe nog geen fixes gevonden :|

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!
Al wel nieuwste firmware geladen? Heb heel lang een 1068 gehad, en zelfs met Seagates volgens mij...

Even niets...


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
FireDrunk schreef op vrijdag 29 maart 2013 @ 19:46:
Al wel nieuwste firmware geladen? Heb heel lang een 1068 gehad, en zelfs met Seagates volgens mij...
Ja, tenzij er de laatste maanden nog iets gefixt is. Ik zal nog even checken.

Heb ook geen problemen gezien met andere seagate disks, het lijkt een apm issue met deze laptop drives te zijn (st9500420AS) :X
Hoewel ze het op een LSI2008 prima deden. Eens kijken voor firmware voor die disks misschien.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!
APM is volgens mij helemaal niet supported op LSI1068... Die deed nog geeneens spindown (uit zichzelf) volgens mij... Dus ik kan me daar wel iets bij voorstellen...

Even niets...


Acties:
  • 0 Henk 'm!
dubbel-post-beveiliging-faal

[ Voor 93% gewijzigd door FireDrunk op 29-03-2013 20:21 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 12:16
Erg interessant, met name de performance:

https://groups.google.com.../zfs-announce/ZXADhyOwFfA

Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 10-10 13:24
ik draai op dit moment nog een pool met Samsung 1TB F3 schijven. Alles draait nog prima maar ik zit er nu al over na te denken wat mijn opties zijn als 1 van deze schijven het begeeft.

Ik neem aan dat ik niet zo maar een 4k schijf erin kan hangen zonder de performance penalty en ik kan niet zo maar met ashift aan de slag omde pool is aangemaakt met 512b schijven.

of zie ik iets over het hoofd?

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
De performance maakt me minder uit dan het feit dat er een Fedora repository is \o/ Dat maakt mijn beheer weer een stukje makkelijker :D

Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Ik wil windows en zfsguru op 1 systeem. Windows voor wat algemene dingen. En zfsguru natuurlijk voor het zfs bestandssysteem.

Wat is de beste optie?

Zat zelf te denken aan windows instal en zfsguru draaien onder VM virtualbox. (of is andersom beter)

Acties:
  • 0 Henk 'm!
Dat ligt er een beetje aan wat je met de Windows VM wil doen. Wil je dat ding alleen als remote inbelbak gebruiken, of moet er echt iets 'nuttigs' mee gedaan worden? (Zoals sharen, media converten, transcoden, downloaden...)

Even niets...


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Het belangrijkste is dat ik xbmc werkend heb. Heb nu onder mijn tv een mediapc op ubuntu met xbmc.
In de tv meubel zit ook mijn server. Wil dit dus integreren zodat ik maar 1 apparaat heb staan.
Keuze voor windows is dat xbmc op ubuntu niet altijd lkkr werkt (zal wel aan mijn kennis en kunde liggen).
Xbmc op mijn laptop onder windows loopt als een zonnetje.

Resume
Ik wil 1 apparaat met zfs en xbmc en dit moet gewoon werken zonder teveel tweaken en zo.

(Namelijk een hekel dat wanneer ik een film wil kijken er iets weer niet werkt :-) )

Of heeft er hier iemand goede ervaringen met xbmc op zfsguru?

[ Voor 13% gewijzigd door ilovebrewski op 01-04-2013 10:53 ]


Acties:
  • 0 Henk 'm!
Dat is een zo goed als onmogelijke zaak... ZFS en XBMC zijn niet verenigbaar.
Enige vage oplossing is een ESXi bak maken met een via VT-d doorgegeven GPU die XBMC aanstuurt.
Maar dan moet je maar hopen dat je dat goed voor elkaar krijgt.

En dat is absoluut niet zonder configuratie.

[ Voor 57% gewijzigd door FireDrunk op 01-04-2013 13:02 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
FireDrunk schreef op maandag 01 april 2013 @ 13:01:
Dat is een zo goed als onmogelijke zaak... ZFS en XBMC zijn niet verenigbaar.
Enige vage oplossing is een ESXi bak maken met een via VT-d doorgegeven GPU die XBMC aanstuurt.
Maar dan moet je maar hopen dat je dat goed voor elkaar krijgt.

En dat is absoluut niet zonder configuratie.
ok.
Raar want op het forum van zfsguru wordt wel gezegd dat het zou moeten werken. En dan wordt er nog niet gesproken over een ESXi configuratie

@CiPHER, kan jij hier meer over zeggen?

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 17-10 19:53

Compizfox

Bait for wenchmarks

Er is helaas nog geen XBMC-port voor FreeBSD, dus je kunt het inderdaad niet ZFSGuru (of Nas4Free) + XBMC op 1 OS draaien.
Of je moet ZFS on Linux moeten gaan gebruiken, dan kan het wel. Maar dat is experimenteel en de performance ligt lager, dacht ik. Al maken ze natuurlijk wel vorderingen :)

Een server met VT-d/AMD-Vi-support + ESXi is inderdaad een oplossing. Dan geef je een HBA door aan je ZFS-VM en een GPU aan je XBMC-VM. Maar je "niet te veel tweaken"-eis kan dan nog wel eens lastig worden...
Keuze voor windows is dat xbmc op ubuntu niet altijd lkkr werkt (zal wel aan mijn kennis en kunde liggen).
Windows voor XBMC vind ik juist een vreemde keuze, omdat XBMC als open-source project juist uitstekende support voor Linux heeft.

Iets anders: Waarom haal je voor 30 pond niet gewoon een Raspberry Pi? Er zijn enorm veel mensen die dat ding gebruiken als HTPC icm een distro zoals XBian, RaspBMC of OpenELEC. Zelf heb ik ook een RPi met XBian erop :)
Dan zet je die bij je PC, en heb je gewoon een server dedicated voor ZFS.

[ Voor 3% gewijzigd door Compizfox op 01-04-2013 14:52 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Rannasha
  • Registratie: Januari 2002
  • Laatst online: 17-10 14:55

Rannasha

Does not compute.

Compizfox schreef op maandag 01 april 2013 @ 14:51:
Er is helaas nog geen XBMC-port voor FreeBSD, dus je kunt het inderdaad niet ZFSGuru (of Nas4Free) + XBMC op 1 OS draaien.
Of je moet ZFS on Linux moeten gaan gebruiken, dan kan het wel. Maar dat is experimenteel en de performance ligt lager, dacht ik. Al maken ze natuurlijk wel vorderingen :)
ZFS on Linux werkt prima, ik gebruik het zelf met volle tevredenheid op een Ubuntu server. De ZFS-on-Linux crew heeft aagegeven dat het klaar is voor algemeen gebruik: https://groups.google.com.../zfs-announce/ZXADhyOwFfA

|| Vierkant voor Wiskunde ||


Acties:
  • 0 Henk 'm!

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

Als je gewoon enkele schijven gebruikt zijn de prestaties van ZFS On Linux geen probleem. Hoe het met RAIDZ opstellingen zit, geen flauw idee.

Draai hier zelf Debian Wheezy met de laatste ZOL RC.

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Acties:
  • 0 Henk 'm!

  • Rannasha
  • Registratie: Januari 2002
  • Laatst online: 17-10 14:55

Rannasha

Does not compute.

RAID-Z1 loopt prima op Linux. Ik heb hier 4 Samsung Spinpoint F4 Ecogreen schijven van 2 TB in RAID-Z1. Sequential read zit op 270 MB/s, write op 240 MB/s met een AMD C-60 CPU (lees: heel zwak). Dit terwijl een enkele schijf op 100 MB/s inklokt volgens enkele reviews op t.net.

|| Vierkant voor Wiskunde ||


Acties:
  • 0 Henk 'm!
Dat is inderdaad helemaal niet slecht voor een C-60...

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 10-10 09:53
Rannasha schreef op maandag 01 april 2013 @ 15:28:
RAID-Z1 loopt prima op Linux. Ik heb hier 4 Samsung Spinpoint F4 Ecogreen schijven van 2 TB in RAID-Z1. Sequential read zit op 270 MB/s, write op 240 MB/s met een AMD C-60 CPU (lees: heel zwak). Dit terwijl een enkele schijf op 100 MB/s inklokt volgens enkele reviews op t.net.
Je kunt de C-60 ook nog wel wat overklokken. Ik zat met een minimale voltage verhoging op 1.3GHz.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!
Word ie daar niet heel onzuinig van?

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 10-10 09:53
We hebben het over tienden van Volts die erbij komen. Het voornaamste probleem dat ik had was de extra warmte. De temperatuur liep al tegen de 60 graden zonder de voltage verhoging.
Helaas kan ik nu even niet wat cijfers overleggen, de C-60 is momenteel de productiemachine en de beoogde vervanging wil maar niet rondkomen.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Rannasha
  • Registratie: Januari 2002
  • Laatst online: 17-10 14:55

Rannasha

Does not compute.

Ach, mijn C-60 draait in een simpele thuisserver/NAS. Daarvoor zijn de prestaties meer dan voldoende, gezien het meeste toch over Gbit ethernet of trager gebeurt. Overklokken schiet dus niet zo veel op.

|| Vierkant voor Wiskunde ||


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Compizfox schreef op maandag 01 april 2013 @ 14:51:
Iets anders: Waarom haal je voor 30 pond niet gewoon een Raspberry Pi? Er zijn enorm veel mensen die dat ding gebruiken als HTPC icm een distro zoals XBian, RaspBMC of OpenELEC. Zelf heb ik ook een RPi met XBian erop :)
Dan zet je die bij je PC, en heb je gewoon een server dedicated voor ZFS.
ok misschien ook eens naar kijken. Gaat HD content streamen goed?

@ iedereen

Ik ben normaal niet van het benchmarken, maar sinds ik mijn zfs server heb gebouwd ben ik toch benieuwd.

http://img339.imageshack.us/img339/9030/20130331110856.jpg

In mijn ogen zijn dit goede resultaten (mja ik begin net dus wat weet ik ;) ), maar ik hoor graag jullie reactie.

Bijna vergeten te vermelden. Deze config is met
5 hd westerndigital red 3TB in RAIDZ

[ Voor 5% gewijzigd door ilovebrewski op 01-04-2013 16:32 ]


Acties:
  • 0 Henk 'm!
Keurige resultaten.

Even niets...


Acties:
  • 0 Henk 'm!

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 01:19
Ook al zeg je dat XMBC op Ubuntu niet werkt, zou ik daar toch voor kiezen omdat ZFS onder Ubuntu prima beschikbaar is en XBMC ook. Geen geklungel ook met doorgeven van virtuele hardware.

EDIT: Damn tweakers.net, hoe vaak ik wel niet heb dat hij op 'laatste' staat maar NIET de 'nieuwe posts' laat zien in een groene balk!@#

[ Voor 27% gewijzigd door Contagion op 01-04-2013 17:08 ]


Acties:
  • 0 Henk 'm!
XBMC werkt mijns inziens juist beter op Linux dan op Windows, kijk maar naar OpenELEC... Is haast populairder dan XBMC voor Windows...

Even niets...


Acties:
  • 0 Henk 'm!

  • Goderic
  • Registratie: Februari 2009
  • Laatst online: 27-09 00:41
Compizfox schreef op maandag 01 april 2013 @ 14:51:
Er is helaas nog geen XBMC-port voor FreeBSD, dus je kunt het inderdaad niet ZFSGuru (of Nas4Free) + XBMC op 1 OS draaien.
Of je moet ZFS on Linux moeten gaan gebruiken, dan kan het wel. Maar dat is experimenteel en de performance ligt lager, dacht ik. Al maken ze natuurlijk wel vorderingen :)

Een server met VT-d/AMD-Vi-support + ESXi is inderdaad een oplossing. Dan geef je een HBA door aan je ZFS-VM en een GPU aan je XBMC-VM. Maar je "niet te veel tweaken"-eis kan dan nog wel eens lastig worden...


[...]
Windows voor XBMC vind ik juist een vreemde keuze, omdat XBMC als open-source project juist uitstekende support voor Linux heeft.

Iets anders: Waarom haal je voor 30 pond niet gewoon een Raspberry Pi? Er zijn enorm veel mensen die dat ding gebruiken als HTPC icm een distro zoals XBian, RaspBMC of OpenELEC. Zelf heb ik ook een RPi met XBian erop :)
Dan zet je die bij je PC, en heb je gewoon een server dedicated voor ZFS.
Hè? XBMC zit al tijden in de FreeBSD ports. Ik draai het hier al bijna anderhalf jaar zonder problemen, het enige dat me nog niet gelukt is is om XBMC rechten te geven om mijn pc af te sluiten.

Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
FireDrunk schreef op maandag 01 april 2013 @ 17:35:
XBMC werkt mijns inziens juist beter op Linux dan op Windows, kijk maar naar OpenELEC... Is haast populairder dan XBMC voor Windows...
ja ik weet het. ik ga ermee aan de gang en zal bij jullie wel terug komen voor hulp. jammer dat dit niet de juiste plek ervoor is :9

[ Voor 3% gewijzigd door ilovebrewski op 01-04-2013 18:04 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 17-10 19:53

Compizfox

Bait for wenchmarks

ilovebrewski schreef op maandag 01 april 2013 @ 16:22:
[...]
ok misschien ook eens naar kijken. Gaat HD content streamen goed?
Jazeker. Zie ook [Mediaplayer] Raspberry Pi met XBMC
Goderic schreef op maandag 01 april 2013 @ 17:52:
[...]

Hè? XBMC zit al tijden in de FreeBSD ports. Ik draai het hier al bijna anderhalf jaar zonder problemen, het enige dat me nog niet gelukt is is om XBMC rechten te geven om mijn pc af te sluiten.
Hmm, nu je het zegt...

Ik Googlede net op "XBMC FreeBSD" en kwam eigenlijk niets duidelijks tegen, verkeerde aanname dus dat het er niet was...

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
matty___ schreef op zaterdag 30 maart 2013 @ 16:15:
Ik neem aan dat ik niet zo maar een 4k schijf erin kan hangen zonder de performance penalty en ik kan niet zo maar met ashift aan de slag omde pool is aangemaakt met 512b schijven.
Kan prima hoor. je 3-disk RAID-Z is optimaal dus sector optimalisatie is niet persé nodig. Ik denk dat je helemaal niet zoveel performance inlevert door je 4K sector disk gewoon te gebruiken in je huidige pool. Lekker makkelijk en het kleine beetje performanceverlies zou ik gewoon voor lief nemen. Dat is niet zo heel spannend. Draai je een niet-optimale configuratie dan kan/zal het verlies groter zijn.
ilovebrewski schreef op maandag 01 april 2013 @ 08:29:
Ik wil windows en zfsguru op 1 systeem. Windows voor wat algemene dingen. En zfsguru natuurlijk voor het zfs bestandssysteem.

Wat is de beste optie?

Zat zelf te denken aan windows instal en zfsguru draaien onder VM virtualbox. (of is andersom beter)
ZFS virtualiseren is gewoon een moeilijk en niet geheel ongevaarlijk concept. Windows is dan de baas over de disks, niet ZFS. Met vt-d passthrough ofzo zie ik dat nog wel gebeuren, maar dan is Windows ook een guest neem ik aan en dan gebruik je iets als ESXi als hypervisor.

Wat veel 'beter' is, is om ZFSguru als host te draaien en daarbovenop wat te virtualiseren: QEMU/KVM of Virtualbox of BHyVe of Xen; laatste twee zijn in ontwikkeling en nog niet echt bruikbaar.

En over XBMC op FreeBSD: dat werkt gewoon. Sterker nog, ZFSguru heeft hier gewoon een service van. Dus je kunt XBMC installeren met een paar muisklikken. Makkelijker kunnen we het niet maken. ;)

Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 10-10 13:24
Verwijderd schreef op maandag 01 april 2013 @ 21:14:
[...]

Kan prima hoor. je 3-disk RAID-Z is optimaal dus sector optimalisatie is niet persé nodig. Ik denk dat je helemaal niet zoveel performance inlevert door je 4K sector disk gewoon te gebruiken in je huidige pool. Lekker makkelijk en het kleine beetje performanceverlies zou ik gewoon voor lief nemen. Dat is niet zo heel spannend. Draai je een niet-optimale configuratie dan kan/zal het verlies groter zijn.
Ik draai nu een raid10 config met 4 schijven. Maar denk dat het dan ook niet al te veel uit maakt.
(misschien moet ik tegen de tijd de pool rebuilden en er lekker raidz van maken)

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Mirroring heeft heel weinig last van verkeerde sector sizes; dat verhaal gaat vooral op voor RAID-Z. Dit komt door de 'stripesize' die disks in een RAID-Z krijgen toegewezen. Die kan soms een veelvoud zijn van 512-bytes maar geen veelvoud van 4K en dan krijg je performance problemen.

Meerdere mirrors werkt in ZFS heel goed. ZFS past namelijk load balancing toe op de beschikbare vdevs. Vdevs die meer vrije ruimte zijn en/of sneller zijn, krijgen meer data te verwerken dan andere vdevs. Normaal RAID kan dit niet; het schema verplicht een 1:1 interleave verhouding.

Acties:
  • 0 Henk 'm!
HyperBart schreef op donderdag 28 maart 2013 @ 20:29:
[...]

Euhm, mijn devices worden als ada geïdentificeerd, dat kan ik wel vertellen, of dat impliceert dat ik de AHCI driver gebruik weet ik niet?

EDIT: net ook even getest, als ik netjes een device offline dan mag ik 'm er wel zonder hangups uit trekken...
CiPHER, heb je hier nog wat feedback over? Lijkt mij HEEL sterk dat nu virtualisatie (ESXi) in de weg zou zitten aangezien de disks aan een M1015 hangen die ge-VT-d'ed is...

Als FreeBSD daar niet tegen kan zou het heel nefast zijn als er gewoon een disk besluit te overlijden of de PCB doodgaat van een disk, het falen van één disk heeft dan tot gevolg dat je complete storage er onderuit gaat :X .

[ Voor 17% gewijzigd door HyperBart op 02-04-2013 16:12 ]


Acties:
  • 0 Henk 'm!
Niemand een ideetje?

Acties:
  • 0 Henk 'm!
Tja, dat is eigenlijk alleen te testen door native te draaien...

Even niets...


Acties:
  • 0 Henk 'm!

  • strandbal
  • Registratie: Juli 2003
  • Nu online

strandbal

Was het maar zo'n feest.

Ik draai hier ZFS op een Asrock A330Ion in AHCI modus op FreeBSD 9.1, en ik kan gewoon een van de drie disks uit m'n RAIDZ trekken terwijl 't OS draait. Blijft gewoon leven.

Gaat je moederbord niet over de zeik ofzo?

Hier stond een dode link.


Acties:
  • 0 Henk 'm!
Heb je trouwens al eens in het BIOS van de M1015 gekeken of het daar niet aan/uit staat?
Er staat een wait-for-device-to-return timeout geloof ik... Die ff op 1s zetten misschien?

[ Voor 34% gewijzigd door FireDrunk op 03-04-2013 18:10 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Heeft iemand al ervaring met 0.6.1 release van zfsonlinux?

Wat zijn de ervaringen in pool snelheden, L2ARC ondersteuning en stabiliteit.

Acties:
  • 0 Henk 'm!

  • guid0o
  • Registratie: November 2008
  • Niet online

guid0o

Living life

Ik heb op het moment een HP N40L MicroServer draaien met 8GB RAM, met daarop ESXI 5.0. Daar draaien dan vervolgens de volgende VMs op: pfSense, Ubuntu Server, Windows 7 en soms wat test VMs.

Er zitten de volgende disk in:
- 1x Seagate Barracuda 7200.12 ST3250318AS, 250GB
- 1x Seagate Barracuda Green ST2000DL003, 2TB
- 2x Western Digital Red WD30EFRX, 3TB

En nog de volgende die via eSATA extern eraan hangt, maar kan ook intern geplaatst worden.
- 1x Western Digital My Book Home 1TB (op het moment geen idee wat er precies in zit)

Op het moment staat ESXI op een USB stick en al mijn VMs op de 250GB schijf. En de andere schijven zijn datastores van de Ubuntu Server VM. Er staat vooral Media op en backups van andere computers.

Nu wil ik dus FreeNas ook als VM draaien en ook installeren op de 250GB schijf en vervolgens alle andere schijven laten beheren door FreeNas en gebruik maken van ZFS.

Mijn idee was dan om de externe intern te plaatsen en dan eerst een vdev te maken met de 1TB en de 2TB, zodat hij 3TB groot wordt. Vervolgens RAIDZ1 maken met drie vdevs van 3TB zodat ik een totale storage van 6TB overhoud.

Mijn vraag is nu dus, kan dit eigenlijk wel? Of is het handiger om ZFSonLinux te gaan proberen?
En hoe kan ik het beste mijn ZFS opbouwen?

Acties:
  • 0 Henk 'm!
Hoe wil je de disks doorgevenaan de FreeNAS VM? Daar heb je een losse controller voor nodig.
RDM werkt wel maar allen bij schijven < 2TB.

Even niets...


Acties:
  • 0 Henk 'm!

  • Snow_King
  • Registratie: April 2001
  • Laatst online: 14-10 15:04

Snow_King

Konijn is stoer!

ilovebrewski schreef op donderdag 04 april 2013 @ 09:58:
Heeft iemand al ervaring met 0.6.1 release van zfsonlinux?

Wat zijn de ervaringen in pool snelheden, L2ARC ondersteuning en stabiliteit.
Niet direct 0.6.1, maar wel al een hele tijd met ZOL gespeelt.

Het draait eigenlijk érg goed en ook de L2ARC schijnt lekker te werken. Wat ik begreep is dat er een ZOL cluster van 55PB draait in de states, dit samen met Lustre.

Heb net ook de disk voor /home in mijn desktop vervangen voor een 3TB en maar direct voor ZoL gekozen. Na 30 minuten nog geen spijt van.

In het datacenter draait al een tijdje een ZOL machine met 8x1TB in RAID-Z2 en die doet het al maanden naar behoren. Draait zelfs nog 0.5.X/

Acties:
  • 0 Henk 'm!

  • guid0o
  • Registratie: November 2008
  • Niet online

guid0o

Living life

Op deze manier geef ik de 3TB schijven al door aan Ubuntu, deze ziet ze dan gewoon als normale schijf. Dat kan ik ook doen met die 2TB en 1TB schijf.

Acties:
  • 0 Henk 'm!

  • batsma
  • Registratie: April 2005
  • Niet online
ik heb ook gewoon zfsonlinux op een ubuntu server draaien in een 2012 hyper-v server. gewoon de disks in hyper-v aan de ubuntu VM gegeven, en dit draait zonder een centje pijn.windows ziet de disks niet eens (behalve dan als samba share vanuit de ZFS server (ubuntu server))

Acties:
  • 0 Henk 'm!
Ja, dat is RDM. Zou gewoon goed moeten gaan MITS je FreeBSD 9.0 gebruikt.
In 9.1 zit de nieuwe MPS driver en die werkt niet goed meer met de virtuele controllers van VMware.
Daarnaast kan je via RDM maximaal 2TB doorgeven, groter en de disk size gaat naar 0.

@batsma, 'gewoon' doorgeven wil niet zeggen dat de disks zodanig goed doorgegeven worden dat ZFS fouten op kan vangen... Hyper-V is een ernstig ongetest platform als het gaat om ZFS.

Even niets...


Acties:
  • 0 Henk 'm!

  • batsma
  • Registratie: April 2005
  • Niet online
wat ik probeerde te illustreren is dat de disks niet vanuit de windows server benaderd kunnen worden op dit moment, zonder dat je ze eerst uit de ubuntuZFS-VM "trekt".

Natuurlijk ben ik geen superheld, maar dit bevestigt voor mij voldoende dat er geen gekkigheid tussen zit en vanuit ubuntu kan ik alles van de schijven uitlezen en doen alsof het een in-hardware oplossing is.

tot nu toe (maand of 2) geen enkel probleem gehad met deze oplossing, en inmiddels 5TB van de 11TB in gebruik.

Acties:
  • 0 Henk 'm!
Die bevestiging is wel erg voorbarig... Er zit nog altijd een virtuele controller tussen die een emulatie/vertaling tussen je Ubuntu VM en een Windows device driver moet doen.

Juist die is eng...

Even niets...


Acties:
  • 0 Henk 'm!

  • batsma
  • Registratie: April 2005
  • Niet online
die is inderdaad wel (potentieel) eng, maar in mijn optiek niet enger dan dezelfde techniek in VMware.

mooie test zou zijn om een 2e bak ernaast te zetten, de schijven fysiek over te zetten en kijken of ik de bestaande zfspool kan importeren op een andere VM. maar helaas heb ik hier de hardware niet voor :(

Acties:
  • 0 Henk 'm!
Zelfs dat is eigenlijk niet een goede test. Flink data corruptie veroorzaken en een scrub het laten oplossen is eigenlijk de enige goede test, en zelfs dan ben je nog niet verzekerd van een werkend systeem.

Zie HyperBart's geneuzel met het hotswappen van schijven... Ook dat zijn dingen die kunnen gebeuren...

Even niets...


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Eigenlijk zou iedereen op z'n minst een disk failure eens moeten simuleren voordat ze hun build in gebruik nemen, dan weet je ook hoe het moet en wat je kan verwachten als het fout gaat. Je kan een tweede VM maken en daarin je zfs pool importeren. Ik heb overigens ook meer vertrouwen in ESXi dan Windows server.

-> klinkt als iets voor startpost, wat suggesties en concrete commands (dd om te verneuken gok ik) hoe je dat doet.

[ Voor 15% gewijzigd door analog_ op 04-04-2013 15:17 ]


Acties:
  • 0 Henk 'm!
Dat zou in principe kunnen, maar het gevaar is dat mensen dat te pas en te onpas gaan gebruiken.
En backups is nou niet echt iets waar veel mensen in uitblinken...

Even niets...


Acties:
  • 0 Henk 'm!
FireDrunk schreef op donderdag 04 april 2013 @ 15:16:
Zie HyperBart's geneuzel met het hotswappen van schijven... Ook dat zijn dingen die kunnen gebeuren...
EY! :+

Morgen heb ik een heel dagje geen verplichtingen dus dan ga ik even booten vanaf een ZFSguru stickje en eens kijken hoe mijn build dan reageert op een hot-remove...

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Zo, ik heb mijn 6x2,5" bay in mijn HP N40L gezet, dus ruimte om mijn root naar een zuiniger 2,5" diskje te verplaatsen. Een hitachi 80GB blijkt het wel goed te doen op de LSI 1068E. Gelukkig is mijn root-slice op de orginele 250GB disk niet zo groot en kon ik gewoon dmv mirroring mijn rpool verhuizen.
Dat maakte mooi ruimte om van 2x3TB in mirror naar 4x3TB in raidz te gaan. Trucje met een disk-on-file (kan ook met een ramdisk geloof ik) en die meteen offline gooien, werkt goed. Nu de data van de gehalveerde mirror kopieren en dan kan die disk er bij om weer met 4 disken in raidz Gaat allemaal vrij soepel tot nu toe, ca 1/3 van de data is over.

Ik gebruik nu gewoon cp om de data te kopieren maar vraag me nu af of een zfs send / receive nog voordelen biedt. De disk waar ik nu van lees blijft toch de bottleneck denk ik.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
zfs send/receive brengt ZFS filesystems+snapshots over, dat is meer dan alleen de files zelf. Ook instellingen als compressie, copies en andere meuk behoud je dan. Ook snapshots als je meerdere snapshots hebt. Bovendien gebeurt de bestandsoverdracht via zfs send/receive op een veilige manier zodat corruptie niet zou kunnen gebeuren; iets wat niet gegarandeerd is met cp.

Ik gebruik beide. Ik wil er wel op wijzen dat standaard 'cp' de modification time ook reset, dat wil je vaak niet. Daarom gebruik ik altijd cp -p (Preserve modification time) voor files of cp -Rp voor directories. Ook probeer ik file copies via windows/SMB te vermijden omdat daar ook de modification time reset. Dat wil je vaak niet; zo verlies je de werkelijke modtime van een file. Een file dupliceren vind ik namelijk niet hetzelfde als modificeren; dat impliceert dat de inhoud is gewijzigd.

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
OK, is wel logisch dat cp onveiliger is, als er een memory foutje optreedt, schrijft hij de file gewoon met een nieuwe checksum weg. Mja, ik heb ECC dus laat maar gaan. En het is gewoon op de cli, niet via nfs of samba ofzo.

Eens met -p, dat is bij mij standaard met dit soort kopieeracties :P

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 17-10 19:53

Compizfox

Bait for wenchmarks

batsma schreef op donderdag 04 april 2013 @ 15:04:
die is inderdaad wel (potentieel) eng, maar in mijn optiek niet enger dan dezelfde techniek in VMware.
Ik weet niet hoe die techniek in Hyper-V in elkaar zit, maar bij ESXi heb je 2 versies van RDM: Virtual en physical.

Die eerste is 'eng' omdat er inderdaad echt een emulatielaag tussen zit en het wordt doorgegeven als block device, die tweede niet. Bij physical RDM is de enige 'laag' die ertussen zit een vertaalslag van ATA naar SCSI, maar het wordt nog steeds doorgegeven als echt schijf.

Nadelen virtual RDM:
- Schijf doorgegeven als ordinaire block device dus 'eng' icm ZFS
- Geen spindown in guest
- Geen S.M.A.R.T. in guest

Nadelen physical RDM:
- Werkt niet met FreeBSD 9.1

[ Voor 12% gewijzigd door Compizfox op 04-04-2013 19:14 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • BackBones
  • Registratie: Juni 2012
  • Laatst online: 07-06-2024
Hey mensen,
Ik probeer zelf een ZFS-NAS te bouwen. Het probleem dat ik heb echter is dat bij instalatie van ZFS ik geen ip adres krijg. Ik had van te voren gechecked of de onboard netwerk controller werd ondersteund door FreeBSD.
Iemand suggesties voor wat ik kan proberen?

Moederbord: MSI ms 7250 met een onboard Netwerk controller: NVIDIA nForce MCP55 Networking Adapter.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 17-10 19:53

Compizfox

Bait for wenchmarks

Zegt ie alleen bij dat scherm dat het ip 0.0.0.0 is of heb je dat ook echt gecontroleerd? (met ifconfig, of in je router)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • BackBones
  • Registratie: Juni 2012
  • Laatst online: 07-06-2024
um hij zegt in dat scherm dat ip 0.0.0.0 is. Heb dat geprobeerd te benaderen vanaf een andere comp en dat lukte niet

Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 17-10 20:51
Zojuist m'n physical RDMs weer 'ns doorgegeven aan m'n ZFSGuru VM (ipv de Virtuele variant).
Ik wilde de S.M.A.R.T. bekijken. Alle (3) de HDDs staan op warning, omdat de Load Cycle Count hoog is; nl. 450.000.

Schijven zijn een jaar oud; iets om me zorgen over te maken?

Samsung Spinpoint M8 1000GB. 1TB SATA-300. 8MB. 5400rpm | HN-M101MBB

@BackBones. Je IP is zeker niet 0.0.0.0, misschien dat je werkelijke IP ergens tijdens het booten voorbij komt? Of misschien kun je het in je router zien.
Bij mij staat er ook 0.0.0.0, maar het werkelijke ip is 192.168.1.79

[ Voor 24% gewijzigd door RudolfR op 04-04-2013 19:50 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 17-10 19:53

Compizfox

Bait for wenchmarks

BackBones schreef op donderdag 04 april 2013 @ 19:48:
um hij zegt in dat scherm dat ip 0.0.0.0 is. Heb dat geprobeerd te benaderen vanaf een andere comp en dat lukte niet
No shit :+ Het ip 0.0.0.0 is natuurlijk ook 'niks'.
Hij geeft dat waarschijnlijk aan omdat je een parallele poort hebt aanstaan.

Kijk eens met ifconfig wat het IP van je NIC is, of kijk in je router welk IP hij heeft gekregen.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!
@RudolfR, op zich niet gek, load cycle count is volgens mij het aantal keer dat de koppen van je schijven parkeren. En laten laptop schijven nou hele aggressieve head parking hebben...

Niet echt ongewoon. Wel iets om rekening mee te houden als ze 24.7 draaien. Als je spindown aanzet gaan ze waarschijnlijk minder parken, je kan ook met je APM instellingen spelen waarschijnlijk om de count minder hard te laten stijgen.

Op zich zou het geen probleem moeten zijn.

Even niets...


Acties:
  • 0 Henk 'm!

  • BackBones
  • Registratie: Juni 2012
  • Laatst online: 07-06-2024
7(8)7 Bedankt :$

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Stel je APM in op 254. Bij de Samsung M8 moet dit tijdens elke boot.

Om dit automatisch te laten doen bij elke boot, raad ik aan dat je dit script gebruikt.

1) log in als ssh via SSH (zie Services->Internal->OpenSSH hoe dat moet)
2) wordt root met 'su' commando
3) maak een nieuwe file aan met de easy editor:
ee /usr/local/etc/rc.d/zfsguru
4) copy paste het volgende in deze file, let op dat regel 1 ook op regel 1 begint!

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
#!/bin/sh

# PROVIDE: zfsguru
# REQUIRE: DAEMON
# KEYWORD: shutdown

. /etc/rc.subr

name="zfsguru"
start_cmd="${name}_start"
stop_cmd="${name}_stop"

rcvar="${name}_enable"

load_rc_config zfsguru

: ${zfsguru_enable="NO"}
: ${zfsguru_apm_disks=""}
: ${zfsguru_apm_level="254"}


zfsguru_start()
{
 echo "Activating Advanced Power Management (APM)"
 echo "Disks: ${zfsguru_apm_disks}"
 echo "Level: ${zfsguru_apm_level}"
 for DISK in ${zfsguru_apm_disks}
 do
  APM_HEX=`printf "%X" ${zfsguru_apm_level}`
  echo "* setting disk ${DISK} to APM level ${zfsguru_apm_level} (${APM_HEX})"
  camcontrol cmd ${DISK} -a "EF 05 00 00 00 00 00 00 00 00 ${APM_HEX} 00"
 done
}

zfsguru_stop()
{
 echo "ZFSguru autostart - shutting down"
 echo
}

load_rc_config zfsguru
run_rc_command "$1"


5) edit de Run Control configuratie en schakel het ZFSguru script in voor de schijven die je wilt:
ee /etc/rc.conf

voeg toe:
code:
1
2
zfsguru_enable="YES"
zfsguru_apm_disks="ada0 ada1 ada2 ada3 ada4 ada5"


In dit voorbeeld worden disks ada0 tot en met ada5 op APM level 254 ingesteld. Dit schakelt headparking uit voor die schijven. Je kunt dit verifiëren op de Disks->Advnaced pagina in ZFSguru.

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Vergeet niet je CP actie in een screen sessie te starten zodat je hem kan detachen en reattachen naderhand. Moet je niet ingelogd/op-ssh blijven.

Acties:
  • 0 Henk 'm!

  • guid0o
  • Registratie: November 2008
  • Niet online

guid0o

Living life

FireDrunk schreef op donderdag 04 april 2013 @ 14:43:
Ja, dat is RDM. Zou gewoon goed moeten gaan MITS je FreeBSD 9.0 gebruikt.
In 9.1 zit de nieuwe MPS driver en die werkt niet goed meer met de virtuele controllers van VMware.
Daarnaast kan je via RDM maximaal 2TB doorgeven, groter en de disk size gaat naar 0.

@batsma, 'gewoon' doorgeven wil niet zeggen dat de disks zodanig goed doorgegeven worden dat ZFS fouten op kan vangen... Hyper-V is een ernstig ongetest platform als het gaat om ZFS.
Ik ga het gewoon is proberen, met 9.0 uiteraard.

Verder iemand nog een idee wat de beste verdeling is met de volgende schijven: 1x 1TB, 1x 2TB en 2x 3TB?

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 17-10 19:53

Compizfox

Bait for wenchmarks

Tja, daar kun je niet veel mee, behalve ze gewoon als losse vdevs in een pool zetten...
Dan heb je een soort van striping, maar ZFS zorgt dan wel dat er meer data komt te staan op de grotere schijven. (dus je verspilt geen ruimte)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
guid0o schreef op donderdag 04 april 2013 @ 22:46:
[...]
Verder iemand nog een idee wat de beste verdeling is met de volgende schijven: 1x 1TB, 1x 2TB en 2x 3TB?
een en twee TB schijven weggooien en vervangen door 2x 3TB :D

Zonder gekheid, ik zou een derde 3TB kopen om er RAIDZ1 van te maken, kan je makkelijk expanden met nog een keer 3x3 als je dat wilt.

Anders mirror van 2x3 en een mirror van 1x1 (met dus 1x 1TB verlies).

Acties:
  • 0 Henk 'm!

  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Kompaan schreef op vrijdag 05 april 2013 @ 01:56:
[...]

een en twee TB schijven weggooien en vervangen door 2x 3TB :D

Zonder gekheid, ik zou een derde 3TB kopen om er RAIDZ1 van te maken, kan je makkelijk expanden met nog een keer 3x3 als je dat wilt.

Anders mirror van 2x3 en een mirror van 1x1 (met dus 1x 1TB verlies).
Of van die 1TB en 2TB een virtuele 3TB schijf maken en dan samen met die andere twee 3TB schijven in RAID-Z1 plaatsen... lijkt mij een net iets goedkoper alternatief.

Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 17-10 20:51
@CIPHER bedankt voor het uitgebreide stappenplan. Ik meende ergens gelezen te hebben dat de problemen met die M8 schijven waren opgelost. En ik was in de veronderstelling dat, doordat ik ze doorgaf als Virtual RDM met ESXi ze überhaupt nooit zouden downspinnen, laat staan parken.

Ik heb de stappen uitgevoerd, maar ik kan niet controleren of het werkt.
Onder advanced disk settings staat bij alle schijven onder APM (en AAM) 'unknown'

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
[root@zfsguru /home/ssh]# smartctl -A -n standby /dev/da1
smartctl 5.42 2011-10-20 r3458 [FreeBSD 9.0-RELEASE amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

CHECK POWER MODE: incomplete response, ATA output registers missing
CHECK POWER MODE not implemented, ignoring -n option
=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   100   100   051    Pre-fail  Always       -       6
  2 Throughput_Performance  0x0026   252   252   000    Old_age   Always       -       0
  3 Spin_Up_Time            0x0023   089   089   025    Pre-fail  Always       -       3469
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       58
  5 Reallocated_Sector_Ct   0x0033   252   252   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   252   252   051    Old_age   Always       -       0
  8 Seek_Time_Performance   0x0024   252   252   015    Old_age   Offline      -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       8716
 10 Spin_Retry_Count        0x0032   252   252   051    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       276
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       67
181 Program_Fail_Cnt_Total  0x0022   099   099   000    Old_age   Always       -       32834003
191 G-Sense_Error_Rate      0x0022   252   252   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0022   252   252   000    Old_age   Always       -       0
194 Temperature_Celsius     0x0002   064   064   000    Old_age   Always       -       32 (Min/Max 17/40)
195 Hardware_ECC_Recovered  0x003a   100   100   000    Old_age   Always       -       0
196 Reallocated_Event_Count 0x0032   252   252   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   252   252   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   252   252   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0036   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x002a   100   100   000    Old_age   Always       -       0
223 Load_Retry_Count        0x0032   100   100   000    Old_age   Always       -       276
225 Load_Cycle_Count        0x0032   056   056   000    Old_age   Always       -       452378

@analog_ was jouw post voor mij bedoeld? Want dat begrijp ik niet.

Acties:
  • 0 Henk 'm!
Iemand al Virtualbox 4.2 draaien op ZFSguru (met werkende VNC server?)

Even niets...


Acties:
  • 0 Henk 'm!

  • guid0o
  • Registratie: November 2008
  • Niet online

guid0o

Living life

Met FreeBSD (FreeNAS, NAS4FREE, ZFSGuru) werden de 3TB schijven maar niet goed doorgegeven (alleen zichtbaar als 0MB), maar OpenIndiana ziet ze gelukkig wel goed.

Dus daar ga ik vanavond is mee spelen, bevalt het niet, ga ik ZFSonLinux icm Ubuntu maar eens proberen
Pagina: 1 ... 69 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.