Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 19:38
CurlyMo schreef op dinsdag 10 juni 2014 @ 16:52:
Verder is er nogal veel leesvoer in dit topic te vinden:


[...]


[...]


[...]


[...]






[...]


[...]

:(
Curlymo je hebt helemaal gelijk maar ik kan het jammer genoeg niet meer vinden,ik zoek me eigen gek en het spijt me dan ook dat ik jullie weer lastig val maar ik wil nu het gewoon goed doen met die nwe ssd en dan voorlopig met rust laten.
Ik verwacht dat ik gewoon iets kleins over het hoofd ziet waardoor ik als ik de pool update naar 5000 alle feature flags geactiveerd worden en ik niet ervan kan booten.
Ben jij misschien ben jij bereid om het nog 1 x uit te leggen of de link te geven hoe ik het goed moet doen alsjeblieft? 8)7 |:( _/-\o_ _/-\o_

Opgelost door even na te denken en opnieuw en goed te beginnen. sorry voor het lastig vallen 8)7 8)7 O-) O-) ;w

[ Voor 19% gewijzigd door ikkeenjij36 op 10-06-2014 19:35 ]


Acties:
  • 0 Henk 'm!

  • mbr01
  • Registratie: Augustus 2004
  • Laatst online: 09-09 22:44
Nog even terugkomend op die 1049kB. Ik denk dat het toch wel goed is.
namelijk 2048x512Bytes = 1048576 Bytes, ofwel 1049kB, ofwel 1024kiB.

Blijkbaar geeft parted het antwoord in kB en zoeken we 1kiB voor een goede alignment.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
(parted) unit KiB
(parted) select /dev/sdb
Using /dev/sdb
(parted) unit KiB
(parted) print
Model: ATA WDC WD30EFRX-68E (scsi)
Disk /dev/sdb: 2930266584kiB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt

Number  Start          End            Size           File system  Name  Flags
 1      1024kiB        2930257920kiB  2930256896kiB  zfs          zfs
 9      2930257920kiB  2930266112kiB  8192kiB

[ Voor 61% gewijzigd door mbr01 op 10-06-2014 19:27 ]


Acties:
  • 0 Henk 'm!
Aha! Dat klinkt heel aannemelijk! Goed opgelet!

[ Voor 17% gewijzigd door FireDrunk op 10-06-2014 19:28 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 19:38
Hallo ik wou even melden dat nadi ik mijn nwe ssd crucial m500 geinstalleerd en ingedeeld te hebben geprobeerd heb om met de laatste livecd van zfsguru 10.1-001 het os te instaleren.
Dat ging echter mis omdat met versie v5000 alle featureflags aangezet werden maar op een of andere manier werken mijn hdd's daar niet mee en kan ik niet meer booten vanwege unsupported featureflags.
Daarna alles gewist dus pools schijven enz.
Daarna vanaf 0 begonnen en nwe pools aangemaakt en de livecd met versie 9.2-001 geinstalleerd en de basis dingen voor mij te installeren om hem als media nas te gebruiken.
Nu draait netjes en zijn alleen de featureflags lz4_compress/empty_bpobj en async_destroy enabled /geactiveerd.
Mochten er nog dingen zijn die jullie adviseren om de basis te optimaliseren dan hoor ik het graag van jullie en andeers laat ik het maar gewoon zo lekker draaien.
Ik ben als ouwe windows gebruiker door veel vallen en opstaan veel wijzer geworden en met jullie hulp en tips veel verder gekomen in het hele linux verhaal.
Tips en adviezen mogen jullie ten alle tijden geven en ik zal ze nog beter gaan opvolgen.
Maar nu is het tijd voor het dorps feest hier!!!!

Acties:
  • 0 Henk 'm!

  • ImmortalSoul
  • Registratie: Oktober 2005
  • Laatst online: 02-10 21:36
Verwijderd schreef op dinsdag 10 juni 2014 @ 16:46:
@ImmortalSoul: Hm; ik moet zo weg. Vanavond terug. Kan je dan verder helpen. Je kunt al wel vast proberen 10.1-001 te installeren. Je hebt een onderbroken download; dan moet je zelf de file even verwijderen. Kan lastig zijn, maar in de command line iets als:

rm /tank/zfsguru/download/ZFSguru-system-*

(vervang 'tank' door de naam van de pool waar op je ZFSguru hebt geïnstalleerd)

Dan opnieuw downloaden en installeren.
Bedankt voor je hulp, ik heb 10.1-001 nu geïnstalleerd. Ik heb daarna de GCC en common dependencies geinstalleerd en dat ging goed, vervolgens de installatie van Virtualbox-legacy die zonder fouten verliep ... maar die wil vervolgens niet starten. Ik krijg dan ook een 404 error als ik hem open.

In de log staat het volgende:
2014-06-11 13:53:30: (mod_fastcgi.c.2695) FastCGI-stderr: PHP Notice: Undefined variable: output in /usr/local/www/zfsguru/pages/services/install.php on line 135
2014-06-11 13:53:30: (mod_fastcgi.c.2695) FastCGI-stderr: PHP Warning: Invalid argument supplied for foreach() in /usr/local/www/zfsguru/pages/services/install.php on line 298

Met de normale Virtualbox krijg ik meteen een foutmelding bij de installatie, met dezelfde twee meldingen als hierboven.

Edit: Installatie van Sabnzbd+ is wel gelukt, alhoewel Couchpotato niet werkt en een foutmelding geeft ({"success": false, "error": "Failed returning results"}).

[ Voor 5% gewijzigd door ImmortalSoul op 11-06-2014 15:13 ]


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 19:38
@immortalsoul,kijk even in post boven jou.
Op die manier kan het misschien wel lukken.
Zo heb ik het gisteren ook voor elkaar gekregen en alles draait zonder problemen en wel versie 10.1-001 geinstaleerd.

Acties:
  • 0 Henk 'm!
ImmortalSoul schreef op woensdag 11 juni 2014 @ 14:19:
Edit: Installatie van Sabnzbd+ is wel gelukt, alhoewel Couchpotato niet werkt en een foutmelding geeft ({"success": false, "error": "Failed returning results"}).
Daar gaan we weer |:( Daar is heel erg recent nog een oplossing voor gegeven en de oplossing is ook erg makkelijk terug te vinden op internet.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 19:38
CurlyMo schreef op woensdag 11 juni 2014 @ 20:31:
[...]

Daar gaan we meer |:( Daar is heel erg recent nog een oplossing voor gegeven en de oplossing is ook erg makkelijk terug te vinden op internet.
Beste curlymo,ook ik heb die melding gister gehad met een fresh install direct van versie 10.0-001.
Nadat ik zoals in mn eerdere post geinstaleerd had heb ik die melding niet meer gehad.

Acties:
  • 0 Henk 'm!
Het is niet zozeer van belang wanneer en hoe je die melding krijgt als wel dat er een oplossing voor is aangedragen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 19:38
Ok ben ik ook mee eens maar ik kreeg het vorige week ook niet voor elkaar :'(

Acties:
  • 0 Henk 'm!
Wat heb je toen geprobeerd?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 19:38
Van alles,die .pyc bestanden proberen te verwijderen maar dat waren er zoveel dat ik maar gestopt ben.
Op het cp forum ging het erom dat er een dev versie geupdate was maar dat heb ik nooit gedaan maar misschien automatisch?
Ik gebruik hetzelf niet zoveel omdat ik mn films rechtstreeks via sab binnen haal maar na de melding toch eens ernaar gekeken.
Nu draait het echter als een zonnetje en verander ik er voorlopig niks aan.

Acties:
  • 0 Henk 'm!
Van alles,die .pyc bestanden proberen te verwijderen maar dat waren er zoveel dat ik maar gestopt ben.
Dan is het dus logisch dat je het niet voor elkaar kreeg. Mijn oplossing zou het voor je geautomatiseerd hebben...

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • DennusB
  • Registratie: Mei 2006
  • Niet online
Ik geloof dat ik lichtelijk gek begin te worden van de permissies op FreeNAS. Ik snap er niks meer van... misschien iemand hier die het weet?

Ik heb 1 groep aangemaakt : Users. Vervolgens 1 user Dennis die primary group wheel heeft en aux group Users. Als ik op command line "id dennis" doe zie ik ook dat hij in de 2 groepen hangt.

Vervolgens heb ik 1 top-level ZFS volume gemaakt (/mnt/Data) met permissies 777.
Vervolgens in dat ZFS Volume nog een volume (/mnt/Data/Photos) met user root, group Users en permissies 070 (alleen group alle rechten).

Vervolgens is de map gedeeld via CIFS, en kan ik hem zien... maar ik mag hem niet accessen.... Dit werkt alleen als ik /mnt/data/Photos ook een 777 geef, maar dat is niet de bedoeling..

Owner of DBIT Consultancy | DJ BassBrewer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 19:38
CurlyMo schreef op woensdag 11 juni 2014 @ 21:58:
[...]

Dan is het dus logisch dat je het niet voor elkaar kreeg. Mijn oplossing zou het voor je geautomatiseerd hebben...
Beste curlymo ik heb jouw oplossing gewoon gemist en kan m zo snel ook niet terug vinden.
Maar dat kan ook aan al t koude vocht liggen wat ik vandaag op heb :9 .
Damn wat is het toch leuk om op een dorp te wonen en 1 keer per jaar een dorpsfeest te hebben zeker met dit mooie weer waar je dan xtra dorst van krijgt :9
Het feest is nog niet afgelopen maar ik ben klaar heb een hele natte buik van binnen d:)b

Acties:
  • 0 Henk 'm!

  • ImmortalSoul
  • Registratie: Oktober 2005
  • Laatst online: 02-10 21:36
CurlyMo schreef op woensdag 11 juni 2014 @ 20:31:
[...]

Daar gaan we mweer |:( Daar is heel erg recent nog een oplossing voor gegeven en de oplossing is ook erg makkelijk terug te vinden op internet.
Dat had ik dus niet in de gaten, ik dacht dat het te maken had met de andere problemen.

Acties:
  • 0 Henk 'm!
CurlyMo schreef op zondag 08 juni 2014 @ 21:26:
Vierde hit op google door te zoeken op {"success": false, "error": "Failed returning results"}.
;)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 19:38
Ja intussen ook gevonden.
Hou het in mijn achterhoofd

Acties:
  • 0 Henk 'm!

  • ImmortalSoul
  • Registratie: Oktober 2005
  • Laatst online: 02-10 21:36
Ik zou dus CP moeten killen, de .pyc bestanden moeten verwijderen en CP weer moeten opstarten.
Ik heb het onderstaande gedaan, maar ik krijg nog steeds dezelfde foutmelding:
code:
1
2
3
4
5
6
7
8
9
10
11
[root@zfsguru /]# ps -aux | grep couch
_sabnzbd  609   0.0  0.4 195852 53800  -  I    12:37AM 0:00.91 python /services/sabnzbdplus/data/couchpotato/CouchPotato.py --q
root     1545   0.0  0.0  18792  2208  0  S+   12:38AM 0:00.01 grep couch
[root@zfsguru /]# kill 609
[root@zfsguru /]# cd /MIRROR/zfsguru/services/10.1-001/sabnzbdplus/data/couchpotato/
[root@zfsguru /MIRROR/zfsguru/services/10.1-001/sabnzbdplus/data/couchpotato]# find . -name *.pyc | xargs -L 1 rm
[root@zfsguru /MIRROR/zfsguru/services/10.1-001/sabnzbdplus/data/couchpotato]# ls
.gitignore         cache              couchpotato.db     custom_plugins     init               logs
CouchPotato.py     contributing.md    couchpotato.db-shm database           libs               settings.conf
README.md          couchpotato        couchpotato.db-wal db_backup          license.txt        version.py
[root@zfsguru /MIRROR/zfsguru/services/10.1-001/sabnzbdplus/data/couchpotato]# python CouchPotato.py

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 19:38

ImmortalSoul schreef op donderdag 12 juni 2014 @ 00:42:
[...]

Ik zou dus CP moeten killen, de .pyc bestanden moeten verwijderen en CP weer moeten opstarten.
Ik heb het onderstaande gedaan, maar ik krijg nog steeds dezelfde foutmelding:
code:
1
2
3
4
5
6
7
8
9
10
11
[root@zfsguru /]# ps -aux | grep couch
_sabnzbd  609   0.0  0.4 195852 53800  -  I    12:37AM 0:00.91 python /services/sabnzbdplus/data/couchpotato/CouchPotato.py --q
root     1545   0.0  0.0  18792  2208  0  S+   12:38AM 0:00.01 grep couch
[root@zfsguru /]# kill 609
[root@zfsguru /]# cd /MIRROR/zfsguru/services/10.1-001/sabnzbdplus/data/couchpotato/
[root@zfsguru /MIRROR/zfsguru/services/10.1-001/sabnzbdplus/data/couchpotato]# find . -name *.pyc | xargs -L 1 rm
[root@zfsguru /MIRROR/zfsguru/services/10.1-001/sabnzbdplus/data/couchpotato]# ls
.gitignore         cache              couchpotato.db     custom_plugins     init               logs
CouchPotato.py     contributing.md    couchpotato.db-shm database           libs               settings.conf
README.md          couchpotato        couchpotato.db-wal db_backup          license.txt        version.py
[root@zfsguru /MIRROR/zfsguru/services/10.1-001/sabnzbdplus/data/couchpotato]# python CouchPotato.py
Dan zitten er in al de andere mappen van cp waarschijnlijk ook nog van die .pyc bestanden.
Moet even door de mappen bladeren van cp via winscp of een dergelijk programma.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Modbreak:Ik krijg wat klachten binnen over het gebrek aan eigen inzet in recente posts. Hoewel dit forum een plek is voor zowel nieuwelingen als veteranen geldt altijd wel de regel van eigen inzet. Als je iets kunt vinden door de zoekmogelijkheden van dit forum of van een zoekmachine zoals Google te gebruiken, dan verwachten wij dit ook van jou.

Het gevaar bestaat namelijk dat de drempel om iets te vragen in dit topic steeds lager wordt, en daarmee de bereidwilligheid van anderen om te helpen ook afneemt.

Graag jullie medewerking om dit te voorkomen en te zorgen dat het ZFS topic een inspiratie blijft voor nieuwe gebruikers alsmede een fijne plek voor de veteranen om te discussiëren over ZFS en gelateerde onderwerpen.

Alvast jullie dank. :)
- CiPHER

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 19:38
Beste curlymo nadat mijn server ruim een dag gedraaid heeft is het probleem ook weer terug gekomen bij mij,echter na jou oplossing gedaan te hebben is het niet opgelost.
Ik vermoed dat er in andere files dus ook nog die .pyc files staan en mat dat specifieke commando niet alles verdwenen is,als je gaat kijken zitten er in in libs ook nog zoveel mappen waar al die files in kunnen staan dat het niet te doen is omdat per map te verwijderen.
Hoe kan het trouwens dat cp zomaar naar een andere versie schakelt?
Dus ik krijg nu nog steeds dezelfde melding terug terwijl de hoofd map van cp niet meer die .pyc files bevat.

Echter zodra ik dan het cp opstart komt er weer die fout te staan en gelijk ook weer de .pyc betanden.
Heel vreemd allemaal. |:( |:(

Edit:Ik heb een andere code gevonde die het in alle files verwijderd,
code:
1
find . -type f -name "*.pyc" -exec rm -f {} \;

[ Voor 20% gewijzigd door ikkeenjij36 op 12-06-2014 16:35 ]


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Over het algemeen zou het verwijderen van .pyc bestanden alleen nuttig zijn als een draaiend process niet de rechten heeft om al bestaande .pyc bestanden te overschrijven, of waneer de file modificatie tijden van de .pyc files scheef staan... als je dus meer dan eens alle .pyc files moet verwijderen, dan is er iets anders aan de hand.

python's interpreter is zo gemaakt dat hij, bij het laden van een module kijkt of er een .pyc bestand van is, is dit het geval, dan vergelijkt hij of de .pyc file hoort bij de bijbehorende .py file (mede via modificatie tijden van beide files).. bestaat de .pyc niet, of kloppen de tijden niet, dan wordt deze verwijderd (indien nodig/mogelijk) en opnieuw aangemaakt met behulp van het bron .py bestand.

dus ja, het hoort dat je .pyc bestanden hebt, dat is normaal, maar het is niet normaal dat je die bestanden moet/gaat verwijderen.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 19:38
Ok maar dan ben ik er nog niet achter waarom dat gekke cp niet wil werken.
Zoals al eerder gezed gebruik ik hetzelf niet maar is het om de andere tweaker te helpen en zo krijg ik gelijk weer een kans om meer te leren.

Acties:
  • 0 Henk 'm!
@DXaroth, het is een oplossing zoals zelf door CP ontwikkelaar aangedragen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Phyt_
  • Registratie: Oktober 2009
  • Laatst online: 13:28
Misschien meer iets voor los topic of CP fora?

You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
CurlyMo schreef op donderdag 12 juni 2014 @ 19:16:
@DXaroth, het is een oplossing zoals zelf door CP ontwikkelaar aangedragen.
Dan is de ontwikkelaar een prutser :P


Unrelated note, ZFSonLinux 0.6.3 is uit:
The ZFS on Linux team is happy to announce the release and immediate
availability of version 0.6.3! This release is major step forward for
ZFS on Linux. It includes a large number of new features, bug fixes and
other enhancements.

http://archive.zfsonlinux...inux/spl/spl-0.6.3.tar.gz
http://archive.zfsonlinux...inux/zfs/zfs-0.6.3.tar.gz

Key Features:
* Compatible with kernels up to Linux 3.14.
* A smoother write throttle for consistent performance under load.
* Smarter caching to improve the cache hit rate for certain workloads.
* Support for Posix style ACLs.
* Support for the immutable and append-only file attributes.
* Support for mounting filesystems with relatime style updates.
* SELinux integration through four new dataset properties.
* Systemd support for better distribution integration.
* A new ZFS Event Daemon (ZED) for pool monitoring and management.
* Support for aarch64 and sparc64 architectures.
* Many performance improvements.
* Over 200 bug fixes.
meer info: https://groups.google.com.../zfs-announce/Lj7xHtRVOM4

Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
@firedrunk

Ik kan niets anders concluderen dan dat je blij bent met de release.

Acties:
  • 0 Henk 'm!
:Y POSIX ACL's is iets waar ik al een hele tijd op wacht...

Eindelijk fatsoenlijke permissies op OS niveau declareren :D

(En compatibiliteit met 3.14 is ook leuk, want dat scheelt een hoop idle verbruik, aangezien kernel 3.14 een stuk zuiniger is dan de default kernel in Ubuntu)

[ Voor 39% gewijzigd door FireDrunk op 13-06-2014 13:33 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
is de activatie server van zfsguru actief ?

Connectivity naar de server is er:

[root@zfsguru /etc]# ping alpha.zfsguru.com
PING alpha.zfsguru.com (208.79.91.42): 56 data bytes
64 bytes from 208.79.91.42: icmp_seq=0 ttl=50 time=172.680 ms
64 bytes from 208.79.91.42: icmp_seq=1 ttl=50 time=174.511 ms

Maar ik krijg de melding:

Warning: failed fetching remote file /zfsguru_alive.txt from any master server - check your internet connection!

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
ff switchen naar EU server? (Bravo volgens mij?)

[ Voor 30% gewijzigd door FireDrunk op 14-06-2014 21:10 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Je timeout wat hoger zetten kan ook; maar bravo EU server is beter. De nieuwe alpha server komt trouwens in Amsterdam, dus dat probleem is tzt ook opgelost. :)

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 19:38
Verwijderd schreef op zaterdag 14 juni 2014 @ 21:36:
Je timeout wat hoger zetten kan ook; maar bravo EU server is beter. De nieuwe alpha server komt trouwens in Amsterdam, dus dat probleem is tzt ook opgelost. :)
Ik kan niet wachten :9

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Verwijderd schreef op zaterdag 14 juni 2014 @ 21:36:
Je timeout wat hoger zetten kan ook; maar bravo EU server is beter. De nieuwe alpha server komt trouwens in Amsterdam, dus dat probleem is tzt ook opgelost. :)
Met de standaard timeout werkte ook de bravo server niet. Maar na even zoeken, ander tabblad met timeout en het is gelukt.. Thx.

Update, even een benchmark gedraaid nu de pool nog leeg is, wellicht interessant voor iemand.

ZFSguru 0.2.0-beta9 (10.1-001) pool benchmark
Pool : Pool5 (18.1T, 0% full)
Test size : 128 GiB
normal read : 536 MB/s
normal write : 514 MB/s
I/O bandwidth : 34 GB/s

Dit zijn 5 stuks seagate desktop 15 4TB hdds in raidz1

[ Voor 30% gewijzigd door jacovn op 15-06-2014 16:09 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
Ik doe als zfs-beginner een poging om rtorrent op mijn ZFSguru machine aan de praat te krijgen.

Ik kom zover dat ik de config instel op compilen met xmlrpc-c, maar zodra ik "make install" doe gaat hij even ratelen en kapt de boel dan af na meerdere errors. Het lijkt erop dat met mis gaat met pkgconf. Die kan geen executables compilen oid. Ik kan in mijn KVM viewer maar een deel van de output zien. Er wordt wel verwezen naar een config.log, maar ik heb geen idee hoe ik die te pakken kan krijgen.

Wat kan ik doen?

NB Ligt het aan mij of is er nergens op internet een duidelijke guide te vinden voor het installeren van rtorrent op freebsd?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
pkg install rtorrent is wellicht een makkelijke methode; dan install je een remote binrary package.

Waarom zou je rTorrent willen als ZFSguru kant en klaar al Transmission en qBitTorrent heeft overigens? Die kunnen veel meer en in elk geval Transmission is ook voor niet-grafisch gerbuik geschikt met web-interface en je kunt zelf een qt-client ook als remote controller gebruiken. Dan heb je op je Linux/Windows desktop Transmission draaien terwijl alles daadwerkelijk gedaan wordt op de server. Net zoals een VNC client zeg maar.

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
Ik heb eea gelezen over transmission dat die niet geschikt is voor een groot aantal torrents. Er zouden wat beperkingen zijn waardoor Transmission hiervoor niet geschikt is. rTorrent zou icm met wat toevoegingen (kqueue, etc.) duizenden torrents aankunnen, voldoende configmogelijkheden bieden en soepel draaien met weinig resources. qBit ken ik niet. Ik zag trouwens naast Transmission ook Transmission X staan in ZFSguru. Welke is het beste om te nemen? En kan je voornoemde beperkingen van Transmission ontkennen?

Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
Ik heb een systeem in elkaar gezet, dit is voornamelijk bedoeld als opslag icm ZFS (op ESXi) wat ik wil gaan proberen. Zodat ik naast ZFSguru, Freenas, Nas4Free nog andere VM`s kan draaien.
En het moet ook kunnen streamen naar mediaspelers.

Dit is wat ik heb uitgekozen:

#ProductPrijsSubtotaal
1pricewatch: Intel Xeon E3-1220 V3 Boxed€ 180,20€ 180,20
1pricewatch: Supermicro X10SLM-F€ 168,34€ 168,34
1pricewatch: Samsung M391B1G73BH0-CH9€ 65,29€ 65,29
1pricewatch: Seasonic G-Serie 360Watt€ 57,90€ 57,90
1pricewatch: Crucial M500 2,5" 240GB
€ 94,99€ 94,99




Totaal€ 566,29


hoe zit het met streamen/encoderen naar mediaspelers. Snelheid is niet zo belangrijk gaat er meer om dat het stabiel draait.

Ik heb momenteel mijn data op 2 synology systemen, hoe kan ik dit het beste overzetten, want de schijf zo overzetten van Synology naar ZFS gaat niet werken gok ik.

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

-Moondust- schreef op zondag 15 juni 2014 @ 19:39:
Ik heb eea gelezen over transmission dat die niet geschikt is voor een groot aantal torrents. Er zouden wat beperkingen zijn waardoor Transmission hiervoor niet geschikt is. rTorrent zou icm met wat toevoegingen (kqueue, etc.) duizenden torrents aankunnen, voldoende configmogelijkheden bieden en soepel draaien met weinig resources. qBit ken ik niet. Ik zag trouwens naast Transmission ook Transmission X staan in ZFSguru. Welke is het beste om te nemen? En kan je voornoemde beperkingen van Transmission ontkennen?
De laatste keer dat ik Transmission en rtorrent kon vergelijken was dat met honderden torrents. Dan vereist Transmission inderdaad gevoelig meer geheugen (en ik denk ook CPU) dan rtorrent. Maar dat is al een tijdje geleden. Met een nette webinterface is rTorrent een stuk beter imho dan Transmission en biedt die een vergelijkbaar gebruikersgemak (en is veel beter te scripten).

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
-Moondust- schreef op zondag 15 juni 2014 @ 19:39:
Ik heb eea gelezen over transmission dat die niet geschikt is voor een groot aantal torrents. Er zouden wat beperkingen zijn waardoor Transmission hiervoor niet geschikt is. rTorrent zou icm met wat toevoegingen (kqueue, etc.) duizenden torrents aankunnen, voldoende configmogelijkheden bieden en soepel draaien met weinig resources. qBit ken ik niet. Ik zag trouwens naast Transmission ook Transmission X staan in ZFSguru. Welke is het beste om te nemen? En kan je voornoemde beperkingen van Transmission ontkennen?
Ontkennen? :X

Ik ben niet iemand die duizenden torrents tegelijk downloadt; hooguit een Ubuntu ISO. Dus dat kan ik je niet vertellen. Transmission is zo'n beetje wel dé torrent client voor non-Windows OS en ondersteunt veel features. rTorrent werkte behoorlijk omslachtig bij mij; en heeft volgens mij ook geen remote client wat Transmission wel heeft.

Als je echt vele duizenden torrents tegelijk wilt gaan downloaden op een 50 gigabit internetverbinding, dan is Transmission misschien te bloated voor een quadcore Intel CPU. Maar mensen lief; je downloadt toch hooguit een aantal torrents tegelijkertijd; toch geen duizenden?

Bovendien kun je prima met Transmission beginnen. Mocht na 6000 torrents tegelijk downloaden blijken dat je CPU-tijd tekort komt, dan kun je rTorrent eens een draai geven. Ik denk dat je met een normale hoeveelheid torrents geen verschil zult merken. Behalve dan dat Transmission veel gebruiksvriendelijker is.

ZFSguru heeft een grafische versie (X) en een niet-grafische versie (zonder X). De eerstgenoemde betekent dat je op de desktop kan dubbelklikken op Transmission en je - net als uTorrent - een grafische client krijgt waar je in de browser ook magnet-links naar kunt versturen. De niet-grafische versie heeft een web-interface en kun je ook met een remote client besturen, zoals vanaf je Ubuntu desktop.

Acties:
  • 0 Henk 'm!

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 14-09 16:26
Laten we het ook niet hebben over de load op een ZFS systeem die duizenden torrents legt. Het feit dat torrents in stukjes binnenkomen en dus volledig gefragmenteerd op je schijf terechtkomen + de COW eigeschap van ZFS maakt ZFS m.i. totaal ongeschikt als download filesysteem.

ZFS is geweldig, ik gebruik het dagelijk op verschillende systemen maar het feit dat je niet kan defragmenteren en je na enige tijd enorme vertraging in read/writes gaat krijgen (zeker als een array wat voller raakt) is voor mij een reden om ZFS niet overal (voor) te gebruiken.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dat kan ik niet beamen Contagion. Copy-on-Write kan inderdaad voor fragmentatie zorgen, maar die heb je evengoed bij een filesystem als NTFS waarbij allerlei korte writes her en der geschreven worden. Wel heb je soms een optie om de volledige grootte te claimen bij het begin van een torrent download; dan heb je het effect van fragmentatie minder.

Maar het probleem is simpel opgelost als je de optie activeert om na het downloaden de file/dir te verplaatsen naar een ander filesystem. Dan wordt het ook weer sequentiëel en in één hap weggeschreven en heb je dus ook geen fragmentatie. Bovendien als je verder nog verplaatst naar een uiteindelijke locatie gebeurt dit sowieso al.

Kortom, zijn jullie zulke Torrent diehards dat performance echt begint uit te maken? Of is het allemaal zo erg overdreven voor gewoon een simpel torrent servertje wat jullie op je NAS willen draaien? Waarom alles zo ingewikkeld maken?

Acties:
  • 0 Henk 'm!

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 14-09 16:26
Je hebt gelijk dat het verplaatsen van een file zal proberen de file sequentieel op de array op te slaan of om geen sparse files te gebruiken. Het is alleen jammer dat je ook echt niets kan doen (behalve de hele array leeghalen en hem opnieuw schrijven) aan fragementatie.

Als torrent client (duizenden == seed server?) voldoet ZFS ook wel hoor. ZFS is echt het beste sinds gesneden brood :) maar toch kan ik het niet overal voor gebruiken.

Overigens heb ik vaak geprobeerd om een en ander naar BTRFS te migreren. Dat is pas sinds kernels 3.14+ nog best te doen. BTRFS heeft veel dommigheden (bijv. een mirror wordt read only zodra er 1 device wegvalt, WTF!? Heeft geen 'write intent log' dus als een drive even weg is moet ALLES resyncen ipv alleen de missende transacties WTFWTF!?!), maar het begint betrouwbaar te worden, garandeert ook de integrity van je files en draait bijvoorbeeld ook op ARM systemen. En BTRFS kan wel (per file) defragmenteren.

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
Ik seed tussen de 1000 en 1500 torrents. Daarvan zijn er maar een stuk of 5-20 tegelijk actief. Maar ik ga Transmission wel proberen. Met rtorrent kom ik niet verder zo te zien. Bovendien vind ik het idioot omslachtig om het met de commandline te doen. Allerlei posts op fora over de installatie van rtorrent geven weer andere aanwijzigingen. Voor een leek niet te doen als je errors krijgt die je niet snapt.

@Contagion
Ik laat bij het laden van een torrent de benodigde ruimte op de hdd al in zijn geheel toewijzen. Mijns inziens valt het dan met de fragmentatie wel mee.

edit:
Wat Cipher al zegt dus.

[ Voor 3% gewijzigd door -Moondust- op 15-06-2014 20:44 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Contagion schreef op zondag 15 juni 2014 @ 20:41:
Je hebt gelijk dat het verplaatsen van een file zal proberen de file sequentieel op de array op te slaan of om geen sparse files te gebruiken. Het is alleen jammer dat je ook echt niets kan doen (behalve de hele array leeghalen en hem opnieuw schrijven) aan fragementatie.
Ik snap je niet. Je zegt eerst hoe makkelijk het is om fragmentatie bij ZFS tegen te gaan. Daarna zeg je dat het enige wat je kunt doen is om de hele array/pool opnieuw aan te maken. Dat is in tegenspraak met elkaar. Het eerste klopt mijns inziens, het tweede niet.

Je torrent client instellen om completed downloads te verplaatsen naar een ander filesystem, is voldoende om het hele probleem van fragmentatie te verhelpen. Hetzelfde kun je doen als je tmpfs als tijdelijk volume gebruikt en verplaatst naar ZFS filesystem als deze voltooid is. Dat is de allerbeste oplossing IMO.
Als torrent client (duizenden == seed server?) voldoet ZFS ook wel hoor. ZFS is echt het beste sinds gesneden brood :) maar toch kan ik het niet overal voor gebruiken.
Het voldoet wel, maar toch kun je het niet overal voor gebruiken. Ook dit vind ik weer in tegenspraak met elkaar. Is ZFS nu wel of niet geschikt als torrent client/seed?
-Moondust- schreef op zondag 15 juni 2014 @ 20:41:
Ik seed tussen de 1000 en 1500 torrents. Daarvan zijn er maar een stuk of 5-20 tegelijk actief. Maar ik ga Transmission wel proberen. Met rtorrent kom ik niet verder zo te zien. Bovendien vind ik het idioot omslachtig om het met de commandline te doen.
Lijkt mij ook enorm omslachtig ja. Transmission is in elk geval veel gebruiksvriendelijker en laagdrempeliger dan rTorrent.
Ik laat bij het laden van een torrent de benodigde ruimte op de hdd al in zijn geheel toewijzen. Mijns inziens valt het dan met de fragmentatie wel mee.
Het vervelende is dat bij ZFS dit juist een tegenovergesteld effect heeft. Het reserveren van de file is overbodig en zal fragmentatie niet voorkomen. Bij NTFS zal een write naar positie X binnen een bestand ook naar dezelfde fysieke locatie gebeuren. Bij ZFS niet. Als je eerst de file gaat schrijven dan schrijf je bijvoorbeeld 10GB. Als je dan 10MB downloadt, dan wordt niet een gedeelte van die 10GB overschreven; maar die 10MB wordt er eigenlijk achter geplakt. Dat is de essentie van Copy-on-Write: bestaande data wordt nooit overschreven. Alle wijzigingen worden naast bestaande data geschreven. Dit is waarom ZFS een stuk robuuster is tegen stroomuitval en crashes dan andere filesystems. CoW is voor veiligheid.

Wat je wel kunt doen is na het voltooien van een download, de file verplaatsen naar een andere directory. Als je zorgt dat deze directory een ander filesystem is, dan zal ZFS te fysieke data ook opnieuw moeten schrijven. Dan krijg je dat de voltooide torrent van A tot Z opnieuw wordt weggeschreven volkomen sequentiëel en er van fragmentatie geen sprake meer is.

Acties:
  • 0 Henk 'm!

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 14-09 16:26
Je kan fragementatie wel tegengaan door maatregelen te nemen zoals bij bijvoorbeeld torrents, maar je kan het nooit verhelpen voor je hele pool. Dus zodra (niet als :)) je een gefragmenteerd systeem begint te krijgen, dan kom je daar niet vanaf (behalve door de pool leeg te gooien en alles terug te zetten). Zeker niet zodra je pool wat voller begint te raken of wanneer je ook veel weggooit (ruimte die vrijkomt is misschien wel lineair voor die file, maar als zodanig een losse plas in het geheel en dus fragmentatie).

ZFS niet overal voor gebruiken, als in, voor een paar torrents die je wellicht verplaatst is het ok, maar voor heel veel torrents misschien niet. Downloaden uit nieuwsgroepen is ook zoiets (heel veel kleine files die na uitpakken, parren en unrarren weg worden gegooid == fragmentatie). En als ander voorbeeld, voor het hosten van virtual machine images geeft COW ook enorme performance loss. Dat is inherent aan COW. Natuurlijk hangt het er wel vanaf wat de bottleneck in je systeem is. Veel RAM, ZIL (?) en een dijk van een systeem met hoge IOPS maakt het probleem in de praktijk geen probleem.

Als ik mag kiezen tussen mijn desktop machine een Windows 7 VM laten draaien op een ZFS/BTRFS partitie of een EXT4/XFS drive; dan zeker het laatste. Als backup en opslag server; ZFS (17 drive 30 TB Raid-Z3 staat naast me :)).

[edit] je doet de aanname dat er door het opnieuw schrijven geen ffragmentatie meer is, maar dat is niet waar. Het systeem zal proberen om fragmentatie tegen te gaan, maar dat zal (zeker bij bovengenoemde condities; weinig of 'gescatterde' vrije ruimte) niet altijd lukken en dat wordt het probleem vanzelf steeds erger.

[edit 2]
Dit is wel interssant leesvoer http://blog.delphix.com/uday/2013/02/19/78/

[ Voor 12% gewijzigd door Contagion op 15-06-2014 21:20 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik wil een ZFS volume inrichten en heb de beschikking over 6 hdd's van 3TB elk en 2 SSD's van 120 gb elk. Freenas stelt automatisch een volume voor van Raid z2 voor de 6 hdd's. Dat begrijp ik en wil ik ook graag. Daarnaast bestaat de ideale configuratie er volgens freenas uit dat de 2 SSD's in mirror worden gezet. Dat laatste snap ik niet. Wat is het resultaat? Krijg ik dan 2 aparte ZFS volumes waarvan 1 in RaidZ2 en 1 in mirror? Eigenlijk wilde ik de 2 SSd's gebruiken voor zil of L2arc. Maar dat is blijkbaar niet zinvol? Wat is nu de ideale configuratie met deze set schijven?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
FreeNAS heeft geloof ik wat beperkingen over het gebruik van systeem/boot drive en L2ARC en SLOG enzo. Maar dat weet ik niet zeker. Je zult even moeten zoeken of vragen op FreeNAS forum of je de SSDs voor meerdere taken kunt gebruiken. In elk geval in ZFSguru kan dit gewoon, omdat je de SSDs eerst partitioneert. Dan kun je ook een gedeelte niet partitioneren als overprovisioning, hetgeen sterk aan te bevelen valt indien je de SSDs als L2ARC cache gaat gebruiken voor je RAID-Z2 pool.

Acties:
  • 0 Henk 'm!

Verwijderd

Dank voor je reactie! Ik zal dan even kijken met ZFSguru; dit is mijn eerste installatie dus ik ben nog even aan het uitzoeken wat het beste werkt voor mij (wel veel gelezen hierover maar uit het punt met die set schijven kom ik niet helemaal). Of is het beter de 2 ssd's er gewoon uit te gooien en alleen voor de raidz2 te gaan?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Voor ZFSguru zijn extra SSDs heel erg leuk, omdat je ze voor alles kunt gebruiken.

Stel je hebt 2x 120GB SSD.

1MB bootpartitie (krijg je standaard; afblijven dat is nodig voor booten)
40GB systeempartitie (inclusief swap, services, enzovoorts)
40GB L2ARC partitie
4GB SLOG partitie
36GB overprovisioning (niet gepartitioneerd)

Deze partitie indeling doe je voor beide SSDs. Dit kan in ZFSguru op de Disks pagina met de Partition Map Editor. Dat werkt ongeveer zoals Partition Magic, als je dat kent. Je hoeft alleen een naam te geven en de grootte te bepalen.

Dan maak je de ZFS pools op de Pools -> Create pagina. Eerst je RAID-Z2 pool met de zes HDDs. Dan je SSD systeemdisk pool waar we ZFSguru op installeren. Daarbij selecteer je dus de eerste 40GB partitie van beide SSD en vervolgens kies je voor RAID1 mirroring. Vervolgens kun je ZFSguru installeren op de System->Install pagina.

L2ARC en sLOG toevoegen kan prima later, als je eenmaal geboot hebt van je SSD. Dan kun je dat doen op de Pools->Cache en Pools->SLOG pagina.

Je gebruikt de SSDs dus voor:
- boot pool in mirror configuratie, ook beveiliging voor je boot/system disk dus
- L2ARC cache in striping/RAID0 configuratie
- SLOG in mirror configuratie (merk op dat je alleen sLOG moet gebruiken met geschikte SSDs, zoals de Crucial M500, MX100, M550 en Intel 320/S3500/S3700)

[ Voor 13% gewijzigd door Verwijderd op 16-06-2014 00:21 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Nu online
rikadoo schreef op zondag 15 juni 2014 @ 19:52:
Ik heb een systeem in elkaar gezet, dit is voornamelijk bedoeld als opslag icm ZFS (op ESXi) wat ik wil gaan proberen.
Welke / hoeveel schijven ga je gebruiken? Dit moederbord heeft geen controller 'over' om aan je ZFS-VM door te geven, daar moet je dus een losse controller voor aanschaffen. De pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x wordt daar veel voor gebruikt, op eBay is deze (ibm m1015, lsi 9240-8i) voor ~106 dollar (92 + 14) te krijgen.
hoe zit het met streamen/encoderen naar mediaspelers. Snelheid is niet zo belangrijk gaat er meer om dat het stabiel draait.
Die opstelling gaat geen enkel probleem hebben met transcoden :) Ik weet niet wat je stabiel noemt, als het te langzaam gaat dan gaat je film haperen, maar 3 of 4 streams tegelijkertijd zou probleemloos moeten gaan.
Ik heb momenteel mijn data op 2 synology systemen, hoe kan ik dit het beste overzetten, want de schijf zo overzetten van Synology naar ZFS gaat niet werken gok ik.
Helaas, ZFS is een ander filesystem dan het EXT4 wat Synology gebruikt. Om hoeveel schijven en hoeveel data gaat het?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
Verwijderd schreef op zondag 15 juni 2014 @ 20:55:
Wat je wel kunt doen is na het voltooien van een download, de file verplaatsen naar een andere directory. Als je zorgt dat deze directory een ander filesystem is, dan zal ZFS te fysieke data ook opnieuw moeten schrijven. Dan krijg je dat de voltooide torrent van A tot Z opnieuw wordt weggeschreven volkomen sequentiëel en er van fragmentatie geen sprake meer is.
Ik heb in Transmission naar deze optie gezocht maar niet gevonden. Zoek ik niet goed genoeg? De instelmogelijkheden zijn sowieso zeer beperkt. Vier tabblaadjes met een paar opties en dat was het. Dat is niet wat ik gewend ben met uTorrent. Ik vrees onderhand dat ik met ZFS de verkeerde keuze heb gemaakt. De performance is wisselend (fragmentatie?) en ik krijg op meerdere vlakken niet de softwarefunctionaliteit die ik gewend ben. Dat is geen klacht richting ZFS, ik denk dat ik het gewoon verkeerd heb ingeschat en wellicht beter een Win7 + Areca RAID6 config had moeten nemen. Heb jarenlang probleemloos Win7 + Areca RAID5 gedraaid. Dat performde echt lekker. Dat gevoel is nu helemaal ingekakt. Sorry voor de negativiteit, baal er gewoon een beetje van. :-(

Acties:
  • 0 Henk 'm!
Het gezegde: "Right tool for the job" geld hier wel heel erg.. ZFS is onderhevig aan Fragmentatie, en dat is inderdaad een vervelend nadeel. Mocht het echt de spuigaten uitlopen kan je natuurlijk een nieuw set harddisks kopen en je hele pool opnieuw maken. Niet leuk, maar het is te doen.

ZFS neem je primair voor veiligheid, niet voor performance, dat blijft gewoon #1 feit over ZFS.

Even niets...


Acties:
  • 0 Henk 'm!
Je stelt ook die dingen niet via de GUI in, maar via het configuratiebestand van transmission:
https://trac.transmissionbt.com/wiki/EditConfigFiles

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
FireDrunk schreef op maandag 16 juni 2014 @ 10:48:
ZFS neem je primair voor veiligheid, niet voor performance, dat blijft gewoon #1 feit over ZFS.
Ik had niet verwacht in performance zover achteruit te gaan. Ik rommel nog weleens met audio en video en dan is de performance echt om te huilen. 30-35MB/sec up en weer down. Een bluray remuxen duurt nu tig keer langer. Allemaal niet onoverkomelijk, maar het begint een optelsom te worden nu. Ik merk dat ik terug verlang naar mijn Windows+RAID5/6 setup.
CurlyMo schreef op maandag 16 juni 2014 @ 10:49:
Je stelt ook die dingen niet via de GUI in, maar via het configuratiebestand van transmission:
https://trac.transmissionbt.com/wiki/EditConfigFiles
Ja, dat zijn dan van die dingen die ik niet zo goed snap. Als je een GUI maakt, dan breng je daar toch gewoon alle opties in onder? Waarom maar een klein deel? Gebruiksvriendelijkheid ongetwijfeld, maar niet voor mij dus. Ik kan in de beschikbare opties niet terug vinden dat ik per torrent kan bepalen waar deze moet worden weggeschreven. Is die functionaliteit er niet? Of is het niet gebruikelijk en zijn er andere opties om je data geordend te houden?
Verwijderd schreef op zondag 15 juni 2014 @ 20:55:
Je torrent client instellen om completed downloads te verplaatsen naar een ander filesystem, is voldoende om het hele probleem van fragmentatie te verhelpen. Hetzelfde kun je doen als je tmpfs als tijdelijk volume gebruikt en verplaatst naar ZFS filesystem als deze voltooid is. Dat is de allerbeste oplossing IMO.
Ik heb nu 10 x 4TB in een pool draaien en het OS met L2ARC op een Intel SSD. Het lijkt erop dat elke pool standaard 2 filesystems krijgt, b.v. Data en Data/share. Kan ik de torrents binnen laten komen op de ene en nadat deze compleet is weg laten schrijven op de andere. Of moeten de filesystems fysiek gescheiden zijn?

[ Voor 22% gewijzigd door -Moondust- op 16-06-2014 11:11 ]


Acties:
  • 0 Henk 'm!
-Moondust- schreef op maandag 16 juni 2014 @ 11:00:
Ja, dat zijn dan van die dingen die ik niet zo goed snap. Als je een GUI maakt, dan breng je daar toch gewoon alle opties in onder? Waarom maar een klein deel? Gebruiksvriendelijkheid ongetwijfeld, maar niet voor mij dus. Ik kan in de beschikbare opties niet terug vinden dat ik per torrent kan bepalen waar deze moet worden weggeschreven. Is die functionaliteit er niet? Of is het niet gebruikelijk en zijn er andere opties om je data geordend te houden?
De GUI wordt door een externe partij gemaakt. De ontwikkelaar van Transmission zelf kan er dus weinig aan doen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
Paul schreef op maandag 16 juni 2014 @ 09:46:
[...]
Welke / hoeveel schijven ga je gebruiken? Dit moederbord heeft geen controller 'over' om aan je ZFS-VM door te geven, daar moet je dus een losse controller voor aanschaffen. De pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x wordt daar veel voor gebruikt, op eBay is deze (ibm m1015, lsi 9240-8i) voor ~106 dollar (92 + 14) te krijgen.

[...]
Die opstelling gaat geen enkel probleem hebben met transcoden :) Ik weet niet wat je stabiel noemt, als het te langzaam gaat dan gaat je film haperen, maar 3 of 4 streams tegelijkertijd zou probleemloos moeten gaan.
[...]
Helaas, ZFS is een ander filesystem dan het EXT4 wat Synology gebruikt. Om hoeveel schijven en hoeveel data gaat het?
Is het helemaal niet mogelijk om de onboard controller door te geven aan ZFS? Dus ik zou als ik ZFS via ESXi wil gebruiken een apaprte controller nodig hebben via PCI-e en daar de schrijven aan te hangen voor ZFS. Hoe zit dat met SSD (voor L2ARC of SLOG) qua performance op zo`n kaart?

Oke transcoderen geen probleem dus. Gaat meestal toch maar om 1 soms mis 2 streams dus dat moet goedkomen dan.

Ik heb nu 2x 2TB WD enterprise schrijven
en 1x 2TB WD Green dacht ik en 1 3TB Seagte ST3000DM001

Die zitten nu allemaal zo goed als vol.

Cipher heeft al gezegd dat je degraded kan doen enzo maar daar kan ik niet zo veel over vinden...?

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!
rikadoo schreef op maandag 16 juni 2014 @ 11:27:
[...]


Is het helemaal niet mogelijk om de onboard controller door te geven aan ZFS? Dus ik zou als ik ZFS via ESXi wil gebruiken een apaprte controller nodig hebben via PCI-e en daar de schrijven aan te hangen voor ZFS. Hoe zit dat met SSD (voor L2ARC of SLOG) qua performance op zo`n kaart?
Er zijn in het verleden wel moederborden geweest waar dat kon (Vaak moederborden met meerdere AHCI controllers), maar het is *absoluut* *geen* garantie/gegeven/zekerheid dat het werkt. Bij een losse controller is de kans vele malen groter dat het gewoon werkt (in combinatie met een moederbord wat VT-d ondersteund).

De performance van een SSD op een losse PCIe controller is nagenoeg gelijk, vooral als je een wat recentere controller gebruikt. De M1015 is al weer wat ouder en gebruikt nog een LSI SAS2008 chip, terwijl er al lang een SAS2308 chip is. Ik weet even niet uit mijn hoofd welke (rebranded) controllers er gebruik maken van deze chip, ik weet wel dat er een SuperMicro bord is welke deze onboard heeft (X10SL7-F http://www.supermicro.com...rd/Xeon/C220/X10SL7-F.cfm).

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Nu online
rikadoo schreef op maandag 16 juni 2014 @ 11:27:
Is het helemaal niet mogelijk om de onboard controller door te geven aan ZFS?
Zeker wel, maar waar wil je dan je disk aan hangen met de ESXi datastore? :) Je zult iets moeten hebben om de ZFS-VM op te zetten, want totdat die gestart is heb je ook geen iSCSI- of NFS target wat je als datastore kunt gebruiken.
Hoe zit dat met SSD (voor L2ARC of SLOG) qua performance op zo`n kaart?
Uitstekend :) Je VM spreekt rechtstreeks de kaart aan, daar zit geen hypervisor meer tussen. Het langzaamste slot in dat moederbord doet 2 gigabyte per seconde, de andere twee doen 7,9 GB/s. De bus van de controller doet 4 gigabyte per seconde. Dat het niet onboard is gaat hier geen bottleneck zijn :)

Ik weet alleen niet wat je dan als datastore voor je ZFS VM in wilt zetten? Ik dacht dat je daar je SSD voor wilde gebruiken :) Ik zou thuis eerder van die 8 GB die je hebt upraden naar 16 GB (of nog meer) voordat ik een SLOG of L2ARC in zou zetten, SLOG kun je omheen door iSCSI te gebruiken naar ESXi ipv NFS. L2ARC: Meer RAM. Hoe druk wordt je NAS nu daadwerkelijk gebruikt dat een L2ARC nut gaat hebben?

Die X10SL7-F is een betere optie, daar zit wel een 2e controller onboard, en die kost minder extra dan de controller los :)
Cipher heeft al gezegd dat je degraded kan doen enzo maar daar kan ik niet zo veel over vinden...?
4x 2 TB en 1x 3 TB dus. Welke RAID-vorm? Wil je extra schijven kopen? Als het nu al bijna vol wil je misschien uitbreiden en dan is de helft weggooien omdat je RAID 1 gebruikt misschien niet zo handig :P

Voor 4 oude 2TB schijven kun je denk ik wel voor 200 euro verkopen, als je dan nog 170 euro toe legt heb je nog 4 stuks 3TB Seagate en ga je van 7 naar 12 TB (5 schijven in RAID-Z1)

Wil je dat niet dan doe je het als volgt:

1) Verbreek de redundancy van je twee 2TB mirrors door er van beiden één schijf uit te halen
2) hang deze aan je ZFS VM, maak met iedere schijf apart een mirror aan.
2a) Je moe zelf weten of je beide mirror-vdevs aan dezelfde pool hangt of aan twee verschillende pools.
3) Kopieer de data van je 3 TB schijf naar de nieuwe pool(s)
4) Hang de 3 TB schijf aan je ZFS VM. Voeg deze NIET toe aan je bestaande pool(s)!!!. Deze is niet meer te verwijderen en je zorgt er zo voor dat je netto geen redundancy meer hebt in die pool! Maak hier een aparte pool van, bij voorkeur met een naam waaraan je ziet dat het een enkele schijf is :)
5) Kopieer de data van de overgebleven 2 TB schijven die nog in de oude NAS zitten
6) Hang deze schijven aan je ZFS VM en voeg ze toe aan de bijbehorende vdev
7) Wacht tot de rebuild klaar is :)

Of en hoe je een degraded mirror maakt in FreeNAS weet ik zo niet, voor de rest zijn er online en hier in het topic wel commando's te vinden lijkt me :)

[ Voor 10% gewijzigd door Paul op 16-06-2014 12:37 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
De schrijven zijn allemaal losse disks met data, geen Raid of JBOD.

@ FireDrunk en Paul Dan zou dit ook een goede mogelijkheid zijn?


#ProductPrijsSubtotaal
1pricewatch: Intel Xeon E3-1220 V3 Boxed€ 180,20€ 180,20
1pricewatch: Supermicro X10SL7-F€ 219,95€ 219,95
1pricewatch: Samsung M391B1G73BH0-CH9€ 65,29€ 65,29
1pricewatch: Seasonic G-Serie 360Watt€ 57,90€ 57,90
1pricewatch: Crucial M500 2,5" 240GB
€ 94,99€ 94,99




Totaal€ 617,90


Ik denk dat ik dan het beste 4 extra 3TB erbij kan kopen en dan die andere uit de NAS erbij toevoegen voor Z1. En dan de data van de 2TB kopieren en de 2TB verkopen.

Dus dan heb ik uiteindelijk ESXi en een mobo met 2 controllers 1x SAS naar de ZFS VM en dan de andere controller voor andere VM. Of zie ik dit verkeerd.

[ Voor 100% gewijzigd door rikadoo op 16-06-2014 12:42 ]

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!
@Paul, je bent veel te kort door de bocht... Het verschil tussen een SSD onboard en via een PCIe kaart heeft weinig met bandbreedte te maken, veel meer met Latency... Vaak heeft de onboard AHCI controller een lagere latency dan een PCIe kaart...

De vraag is vooral: Ga je het echt merken, ik denk namelijk van niet :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Nu online
Losse schijven, auw... Aangezien je het over degraded arrays hebt ga je dus sowieso ruimte tekort komen, een RAID-array offert minimaal 1 schijf op voor redundancy. Goed, dan zit je dus al aan 11 TB data... Ik reken voor het gemak maar met fabrikanten-TB's, onder Windows is het een stuk kleiner, maar zolang je alles in dezelfde range hebt (in dit geval TB) is dat procentueel gezien gelijk over de hele linie.

Met 4 extra schijven van 3 TB ga je er voor 170 euro 1 TB op vooruit. Zou je 5x 4 TB kopen dan zit je op 16 TB, dan kun je die 3 TB ook verpatsen, 250 samen, oftewel ~ 480 toeleggen voor 5 TB extra als je voor WD Red gaat, of ~410 als je voor Seagate Desktop-schijven gaat.

Als die hele redundancy je niet boeit omdat het allemaal al ergens is gebackupt (offsite, of op the Pirate Bay :P ) dan heb je tijdelijk ergens 3 TB nodig, dan zet je het gewoon schijf voor schijf over: 2 TB schijf leeg kopiëren naar USH HDD, schijf in nieuwe NAS, data van andere 2 TB schijf in oude nas naar schijf in nieuwe nas, schijf overzetten, rinse, repeat :)

@FireDrunk: Die latency zou nog wel eens mee kunnen vallen, in het ene geval is het een onderdeel van de PCH die gedeeld over de DMI naar de CPU gaat, in het andere geval is het de controller die rechtstreeks aan de CPU hangt. :)

[ Voor 9% gewijzigd door Paul op 16-06-2014 12:48 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!
Het is ook zeker geen gegeven, maar het *kan* verschil maken... Vooral op de wat oudere controllers... Bedenk je wel, dat zo'n SAS2008 chipje ook geen hoogvlieger is ofzo hoor... Het ding is maar een paar honderd Mhz. Iedereen roemt hem vanwege zijn IT mode mogelijkheden, niet vanwege zijn snelheid.

Een echte RoC SOC is vele malen sneller (de nieuwste controllers hebben al een 1.2Ghz Dual Core aanboord...)

Even niets...


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
Lastig, alle data die ik nu heb zijn voornamelijk films en series. Ik heb nog wat belangrijke prive spullen en foto`s maar die heb ik allemaal nog ergens anders gebackupped. Dus in principe is het niet zo`n ramp. Maar iedereen heeft het altijd over Z1 en Z2 dus allemaal redundancy maar het is dus ook mogelijk om alle schrijven los in de ZFS server te hangen? Of gaat dit weer ten koste van het nut van ZFS?

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!
Ja en Ja.

Ja, je kan de schijven los aan ZFS geven, dan is elke schijf een los VDEV en ZFS verdeelt altijd de data over alle VDEV's (in een soort RAID0 constructie).

Ja, dat gaat wel weer ten kosten van het nut van ZFS. Waar ZFS goed in is (ten opzichte van andere RAID implementaties) is dat als het checksum errors tegenkomt, ZFS deze kan repareren door middel van redundancy. Met andere woorden, als er op de ene schijf fouten komen zonder dat de schijf offline gaat kan ZFS deze fouten nog steeds repareren met data van andere schijven (mits je redundancy hebt natuurlijk).

Even niets...


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
FireDrunk schreef op maandag 16 juni 2014 @ 13:10:
Ja en Ja.

Ja, je kan de schijven los aan ZFS geven, dan is elke schijf een los VDEV en ZFS verdeelt altijd de data over alle VDEV's (in een soort RAID0 constructie).

Ja, dat gaat wel weer ten kosten van het nut van ZFS. Waar ZFS goed in is (ten opzichte van andere RAID implementaties) is dat als het checksum errors tegenkomt, ZFS deze kan repareren door middel van redundancy. Met andere woorden, als er op de ene schijf fouten komen zonder dat de schijf offline gaat kan ZFS deze fouten nog steeds repareren met data van andere schijven (mits je redundancy hebt natuurlijk).
Oke bedankt, eens kijken wat ik ga doen dan. Kan ook geen ESXi doen en dan alleen ZFS en dan van het geld wat ik overhoud schijven kopen. En dan eventueel later een 2e ESXi bak.

[ Voor 7% gewijzigd door rikadoo op 16-06-2014 13:44 ]

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!
Dat kan heel goed, ik heb zelf een losse NAS die Ubuntu draait icm ZFSonLinux en daarnaast een ESXi cluster :)

Dat is zelfs (mijns inziens) veel beter dan een ingewikkelde all-in-one oplossing.

Even niets...


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
Wat is een goede CPU om ook films mee te streamen? Ik lees hier en daar de Pentium G3220 voor 45 euro, of is een andere cpu voor minder ook goed om films mee te streamen?
En moederbord maakt dan niet zo veel uit als het maar ECC geheugen ondersteunt?

Zie overigens dat ik hiervoor een beetje in het verkeerde topic zit...

[ Voor 12% gewijzigd door rikadoo op 16-06-2014 14:13 ]

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!
Het is hier niet het grote "Help Rikadoo aan een server" topic.. Het zou wel fijn zijn als je zelf ook wat onderzoek doet... Laat zien wat je al gevonden hebt, en wat je niet kan vinden, en waarom je twijfelt tussen keuzes.

Even niets...


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
-Moondust- schreef op maandag 16 juni 2014 @ 11:00:
[...]

Ik had niet verwacht in performance zover achteruit te gaan. Ik rommel nog weleens met audio en video en dan is de performance echt om te huilen. 30-35MB/sec up en weer down. Een bluray remuxen duurt nu tig keer langer. Allemaal niet onoverkomelijk, maar het begint een optelsom te worden nu. Ik merk dat ik terug verlang naar mijn Windows+RAID5/6 setup.
Ik zie dat je al een L2ARC hebt, toevallig gedacht om ook een SLOG er aan te hangen? SLOG (aka ZIL-op-een-disk) zou, in theorie, wat verbeteringen kunnen geven op dat punt... al is dat nog steeds een groot grijs gebied, wat nu wel en niet goede situaties zijn voor SLOG devices.

Acties:
  • 0 Henk 'm!
Ik zou het eerlijk gezegd zelfs eens zonder L2ARC proberen... Ik heb gemerkt dat L2ARC in sommige gevallen je sequentiële writes juist vertraagt omdat je systeem staat te wachten op het pushen van data naar L2ARC...

Even niets...


Acties:
  • 0 Henk 'm!
Ik heb even naar deze video gekeken en daarin wordt toch weer wat nieuws verteld:
YouTube: OpenZFS: upcoming features and performance enhancements @ 28:46

Samenvatting.
Een feature flag kan ingeschakeld of actief zijn. Zolang een feature ingeschakeld is, dan is deze niet in gebruik. Pools met alleen ingeschakelde feature flags zijn nog steeds te importeren in OpenZFS versies die deze feature flags niet ondersteunen. Pas wanneer een feature flags actief is, dan pas kan je pool niet meer geïmporteerd worden.

Een voorbeeld.
Zodra je lz4 eenmaal één keer geactiveerd hebt, dan kan je het niet meer inactief zetten. Dat komt omdat er dan tenminste iets van data gecomprimeerd is met lz4.

Zet je echter async_destroy aan, dan is deze alleen actief terwijl er op de achtergrond bestandssystemen worden verwijderd. Dus tijdens die procedure is je pool niet te importeren door OpenZFS versie die deze feature niet ondersteunen. Is hij echter klaar met het proces, dan komt de feature weer op ingeschakeld te staan i.p.v. actief en dan is je pool wel weer te importeren.

Het is dus sterk afhankelijk van de feature flags of je daarmee aan compatibiliteit verliest. lz4 compressie is geen probleem want alle OpenZFS implementaties ondersteunen dat.

Ik heb even wat testjes gedaan.

De meest 'problematisch' features zijn:
- spacemap_histogram
- enabled_txg
- hole_birth
Deze worden direct actief zodra je ze inschakeld.

Deze features zijn wanneer ingeschakeld nog niet direct actief. Als je ze echter actief maakt, dan zijn ze niet meer terug te zetten naar alleen ingeschakeld.
- lz4_compress
- extensible_dataset
- empty_bpobj

Deze features zijn wanneer ingeschakeld actief en inactief te maken:
- bookmarks.
wanneer eenmaal actief gemaakt, schakelt deze ook extensible_dataset en empty_bpobj in welke niet meer inactief te maken zijn. bookmarks zelf is echter wel inactief te maken door alle bookmarks weer te verwijderen.
- async_destroy

Van multi_vdev_crash_dump is het me niet duidelijk hoe 'gevaarlijk' hij is voor je compatibiliteit.

[ Voor 3% gewijzigd door CurlyMo op 16-06-2014 16:57 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
FireDrunk schreef op maandag 16 juni 2014 @ 15:35:
Ik zou het eerlijk gezegd zelfs eens zonder L2ARC proberen... Ik heb gemerkt dat L2ARC in sommige gevallen je sequentiële writes juist vertraagt omdat je systeem staat te wachten op het pushen van data naar L2ARC...
Daar had ik ook al aan zitten denken. Zojuist de L2ARC offline gehaald en de ondertiteling uit een bluray gehaald. De uploadsnelheid varieert een beetje, vooral in het begin, maar blijft uiteindelijk schommelen tussen de 50 en 70 MB/sec hangen. Waarom trekt hij de gbit niet vol? Als ik tegelijkertijd een groot bestand ook over de utp trek, dan gaat de gbit wel vol tot 112 MB/sec. Ik heb overigens geen tuning gedaan. Hij staat op "no automatic tuning" vanwege het advies dat zo te laten bij FreeBSD 9+.

[ Voor 7% gewijzigd door -Moondust- op 16-06-2014 17:35 ]


Acties:
  • 0 Henk 'm!
Is dat via Samba?

Even niets...


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
Ja

Acties:
  • 0 Henk 'm!
Dan zou ik eerder daar de bottleneck zoeken dan bij ZFS...

Even niets...


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
Wat kan ik doen aan Samba? Is het te tunen? Is er een alternatief om met Windows computers te communiceren?

Acties:
  • 0 Henk 'm!
Veel, ja, genoeg. (FTP, NFS, BitTorrent, SCP, HTTP, de vraag is meer... wil je dat :+ )

http://lmgtfy.com/?q=samba+performance+tuning

Even niets...


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
Eigenlijk heb ik er niet zo'n zin in. Ik wil dat het gewoon werkt en ik er geen omkijken meer naar heb. Maar ja, dat is niet de realiteit nu. https://calomel.org/samba.html had ik net zelf al gevonden voor het Samba tuning verhaal. Ik ga eens kijken of ik er wat mee kan. De server ombouwen naar een Windows machine is my last resort, alhoewel het gevoel me bekruipt dat ik met ZFS niet de goede keuze heb gemaakt voor wat ik ermee wil doen. Vooral omdat je ZFS vooral om de veiligheid doet en niet de performance. Mijn prioriteiten liggen net andersom als ik eerlijk ben.

Bedankt voor het meedenken so far.

[ Voor 40% gewijzigd door -Moondust- op 16-06-2014 18:21 ]


Acties:
  • 0 Henk 'm!
Die paar Samba opties helpen al een heel eind, en een goede NIC helpt het andere eind.

Ik haal hier gewoon >100MB/s over Samba.

Even niets...


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
Met het kopieëren van een groot bestand haal ik na een haperend begin rond de 100-105 MB/sec, maar zodra ik bewerkingsprogramma's de data laat ophalen, bewerken en weer wegschrijven is de performance veel minder en wordt de gbit bij lange na niet volgetrokken (upload + download).

Acties:
  • 0 Henk 'm!
Probeer eens tegelijkertijd zowel via SMB (Windows shares) een film te downloaden als te versturen.
Gaat dat goed, ligt het duidelijk aan de applicaties.
Gaat ook dat niet goed, kan het goed aan je netwerkkaart liggen (Goedkopere Realtek chips hebben daar nog wel eens last van...)

Even niets...


Acties:
  • 0 Henk 'm!

  • ImmortalSoul
  • Registratie: Oktober 2005
  • Laatst online: 02-10 21:36
Één week geleden heb ik hier hulp gevraagd omdat ik Virtualbox niet geinstalleerd kijg. Dat probleem is nog steeds niet verholpen, en ik zou Virtualbox wel graag willen gebruiken.

Ik gebruik ZFSguru 0.2.0-beta9 met freebsd 10.1-001.

Installatie van Virtualbox-legacy gaat gewoon goed, daarna voert de webserver automatisch een herstart uit. En vervolgens staat er de volgende foutmelding in de log, en wil de service niet starten:
code:
1
2
2014-06-16 20:22:39: (mod_fastcgi.c.2695) FastCGI-stderr: PHP Notice:  Undefined variable: output in /usr/local/www/zfsguru/pages/services/install.php on line 135
2014-06-16 20:22:39: (mod_fastcgi.c.2695) FastCGI-stderr: PHP Warning:  Invalid argument supplied for foreach() in /usr/local/www/zfsguru/pages/services/install.php on line 299


De code waarin het dan fout gaat:
PHP:
126
127
128
129
130
131
132
133
134
135
136
137
138
139
  // check dependencies of already installed service
  // check dependencies of already installed service
  if ($installed)
   {
   $dependfile_path = $dirs['services'].'/'.$svc.'/DEPEND';
  if (@is_readable($dependfile_path))
   {
    $dependfile = @file_get_contents($dependfile_path);
    // call function to check dependencies
    $checkdeps = serviceinstall_checkdependencies($output, $slist);
    $requiresdep = $checkdeps['requiresdep'];
    $deplist = $checkdeps['deplist'];
   }
 }


PHP:
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
// traverse each line of DEPEND file
 foreach ($depfile_contents as $line)
 {

  if (@strlen(trim($line)) < 1)
   continue;
  // $line can be name of service dependency, but also a list of services
  // where only one is necessary, like: X-server|X-server-KMS
  if (strpos($line, '|') === false)
  {
   $depservice = trim($line);
   if (!@isset($slist[$depservice]))
   {
    $requiresdep = true;
    $deplist .= '<a href="services.php?install&service='
     .htmlentities($depservice).'">'.htmlentities($depservice).'</a> '.chr(10);
   }
  }
  else
  {
   $depservices = explode('|', trim($line));
   $atleastone = false;
   foreach ($depservices as $depservice)
    if (@isset($slist[$depservice]))
     $atleastone = true;
   if (!$atleastone)
   {
    $requiresdep = true;
    $atleastone_deplist = array();
    foreach ($depservices as $depservice)
     $atleastone_deplist[] = '<a href="services.php?install&service='
      .htmlentities($depservice).'">'.htmlentities($depservice).'</a> ';
    $deplist .= implode(' or ', $atleastone_deplist).chr(10);
   }
  }
 }
 return array(
  'requiresdep' => $requiresdep,
  'deplist'     => $deplist
 );
}


Bij het installeren van de normale Virtualbox service krijg ik meteen melding dat de service niet geinstalleerd kan worden, met dezelfde foutmelding in de logs.

[ Voor 3% gewijzigd door ImmortalSoul op 16-06-2014 20:42 ]


Acties:
  • 0 Henk 'm!
$slist lijkt mij leeg, maar dit is wel een heel specifiek ZFSguru probleem, en niet iets voor in dit topic denk ik zo... Misschien kan CiPHER je via DM helpen.

Even niets...


Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
FireDrunk schreef op maandag 16 juni 2014 @ 14:01:
Dat kan heel goed, ik heb zelf een losse NAS die Ubuntu draait icm ZFSonLinux en daarnaast een ESXi cluster :)

Dat is zelfs (mijns inziens) veel beter dan een ingewikkelde all-in-one oplossing.
Ik ben ook teruggekomen van een all-in-one oplossing, en heb de boel nu gemigreerd naar een dedicated ZFS bak. Uiteindelijk werd de setup 'te ingewikkeld'. Nu kan ik simpel een 2e esx bak erbij hangen, aan de ZFS NAS hangen, en op die manier makkelijker uitbreiden, de 1e ESX bak is dan niet afhankelijk van de ander.

Daarnaast gebruikte de ZFS VM 8GB aan memory, en dan is best behoorlijk in een servertje waar slechts 32GB in zit. Nu heb ik weer 8GB vrij gespeeld, en ZFS is nu blij met 24GB :)

Als m'n hele setup klaar is, en het rack netjes gemaakt is, zal ik eens een uitgebreide post doen in het show-offf topic :)

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@ImmortalSoul: daar wil ik wel induiken. Je krijgt van me nog een DM tegoed. :)

De melding die je geeft is echter niet significant; de 'output' is de output van het op de achtergrond uitgevoerd script. Maar we kunnen eerst eens proberen op de command line te installeren, kijken wat voor output je dan krijgt.

Acties:
  • 0 Henk 'm!

  • ImmortalSoul
  • Registratie: Oktober 2005
  • Laatst online: 02-10 21:36
Ik heb de service gedownload via de interface, en vervolgens handmatig uitgepakt en ./service_install.sh gestart.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
[root@zfsguru /MIRROR/zfsguru/download]# ./service_install.sh
* installing service download
* executing pre-installation script
rm: /root/.VirtualBox: is a directory
ln: /root/.VirtualBox/data: File exists
* removing potentially existing virtualbox packages
* done with pre-installation script
* installing packages
* package virtualbox-ose-kmod-legacy
note: package virtualbox-ose-kmod-legacy is already installed; skipping...
* package virtualbox-ose-legacy
note: package virtualbox-ose-legacy is already installed; skipping...
* package php5-json
note: package php5-json is already installed; skipping...
* package php5-soap
note: package php5-soap is already installed; skipping...
* package php5-simplexml
note: package php5-simplexml is already installed; skipping...
* executing post-installation script
* manually installing phpvirtualbox version 4.2-8
tar: Error opening archive: Failed to open '/MIRROR/zfsguru/download/packages/phpvirtualbox-4.2-8.zip'
* copy phpvirtualbox configuration file
* VNC workaround script DISABLED!
* done with post-installation script
* successfully installed download

[ Voor 4% gewijzigd door ImmortalSoul op 17-06-2014 14:10 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ah, ik zie het al. Waarschijnlijk een bug in de virtualbox-legacy service, die een andere/verkeerde versie van phpVirtualBox (De web-interface voor Virtualbox) probeert te installeren.

Maar, ik dacht juist dat Virtualbox niet werkte en Virtualbox-legacy wel. Dat lijkt dus andersom te zijn? Wat als je de normale Virtualbox (dus niet legacy) probeert te installeren? Die is nieuwer en tenzij je een speciale reden hebt zou je die beter kunnen draaien denk ik. Maar ik zal proberen de legacy service te fixen.

Acties:
  • 0 Henk 'm!

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 14-09 16:26
@Moondust Ik heb jaren gedraaid op Linux met RAID5en XFS. Dat is echt retesnel + defrag optie. Ik heb verder niet het topic doogespit maar als je Linux als OS zou gebruiken kan je over naar minder veiligheid tegen (veel) meer performance, bijv:

Linux RAID5/6 + XFS (nadeel; je kan XFS niet shrinken, wel growen)
Linux RAID5/6 + EXT4 (je kan alle kanten op, maar filesystem check duurt heel lang, nieuwste EXT4 kan ook metadata checksummen geloof ik)
Linux RAID5/6 + BTRFS (BTRFS on top betekent je integriteit van files en metadata, nooit bedoeld voor 'op top of' RAID maar het lijkt me een prima oplossing zolang BTRFS de stommigheden niet heeft gefixed.
BTRFS RAID1 is te doen, RAID 5/6 is nog vol in ontwikkeling

Je kan in Linux RAID ook nog het 'write intent bitmap' aan zetten. Als een schijf even weg valt hoef je niet de hele array te rebuilden, maar dat kost wel schrijfsnelheid (hij moet bijhouden WAT er wijzigt, zodat als een drive wegvalt hij dat kan bijhouden). Wel een geniale uitbreiding overigens, redelijk recent.

Er zijn dus nog zat mogelijkheden waar je naartoe kan gaan die meer performance geven vs redelijk veillig systeem.

[edit] medetweaker Q (?) heeft interessante blog artikelen over ZFS alternatieven http://louwrentius.com/category/raid.html

[ Voor 5% gewijzigd door Contagion op 17-06-2014 17:59 ]


Acties:
  • 0 Henk 'm!

  • ImmortalSoul
  • Registratie: Oktober 2005
  • Laatst online: 02-10 21:36
Verwijderd schreef op dinsdag 17 juni 2014 @ 17:28:
Ah, ik zie het al. Waarschijnlijk een bug in de virtualbox-legacy service, die een andere/verkeerde versie van phpVirtualBox (De web-interface voor Virtualbox) probeert te installeren.

Maar, ik dacht juist dat Virtualbox niet werkte en Virtualbox-legacy wel. Dat lijkt dus andersom te zijn? Wat als je de normale Virtualbox (dus niet legacy) probeert te installeren? Die is nieuwer en tenzij je een speciale reden hebt zou je die beter kunnen draaien denk ik. Maar ik zal proberen de legacy service te fixen.
Virtualbox-legacy en virtualbox werken beide niet. Virtualbox-legacy installeert wel, maar wil niet opstarten. En de normale virtualbox faalt bij de installatie al meteen.

De normale Virtualbox liep bij mij nooit lekker, dus daarom wou ik de Legacy versie eens proberen.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Oke, zou je hetzelfde eens kunnen doen met de normale Virtualbox service (nadat je de virtualbox-legacy hebt gedeinstalled) en mij via DM de log sturen? Dan ga ik er achterheen. :)

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
FireDrunk schreef op maandag 16 juni 2014 @ 19:27:
Probeer eens tegelijkertijd zowel via SMB (Windows shares) een film te downloaden als te versturen.
Gaat dat goed, ligt het duidelijk aan de applicaties.
Gaat ook dat niet goed, kan het goed aan je netwerkkaart liggen (Goedkopere Realtek chips hebben daar nog wel eens last van...)
1e grote bestand van server naar werkpc: slechte start en daarna rond de 40 MB/sec
2e grote bestand van server naar werkpc: rond de 100 MB/sec
2e grote bestand teruggekopieert van werkpc naar server: rond de 100 MB/sec
Tegelijkertijd ook het 1e grote bestand terugkopieren naar de server: rond de 40MB/sec en de snelheid van de andere kopieeractie gaat terug naar rond de 70-80 MB/sec
Toch weer alleen het 1e grote bestand van server naar werkpc: bliksemstart van 115 MB/sec en zakt later terug naar rond de 100 MB/sec

Kortom, de performance is erg grillig. Dan weer bagger, dan weer redelijk. Ik zie nooit dattie voor langere duur (paar minuten) constant de gbit echt helemaal voltrekt. En dat moet toch makkelijk kunnen met mijn hardware?

Netwerkkaart is prima, namelijk een Intel op een Supermicro bord.

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

-Moondust- schreef op dinsdag 17 juni 2014 @ 19:43:
[...]
Netwerkkaart is prima, namelijk een Intel op een Supermicro bord.
Heb je hier ook wat tuning op verricht in FreeBSD/Ubuntu? Daar valt soms namelijk nog best wat winst te halen.

Zowel op netwerkkaart niveau (queues, block sizes, etc.) als ook een beetje op Samba niveau.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
Quindor schreef op dinsdag 17 juni 2014 @ 19:54:
Heb je hier ook wat tuning op verricht in FreeBSD/Ubuntu? Daar valt soms namelijk nog best wat winst te halen.

Zowel op netwerkkaart niveau (queues, block sizes, etc.) als ook een beetje op Samba niveau.
Nee, ik heb daar ook de kennis niet voor. Ik zou ook helemaal vanaf de grond moeten leren hoe ik Samba kan tunen. De guides die her en der beschikbaar zijn zijn vaak geschreven door techneuten die goed in de matrerie zitten, maar voor een simpele gebruiker als ik zijn er vaak teveel onduidelijkheden om er vlekkeloos door te kunnen lopen. Gevolg is een frutrerende zoektocht waarbij je van het ene naar het andere probleem holt zonder echt goed zicht op een 100% oplossing. Aanmodderen dus.

Daarnaast vind ik het echt vreemd dat iets dergelijks als een netwerkkaart niet zichzelf kan tunen op basis van wat hij voor zijn kiezen krijgt. Waarom moet er in deze tijd van technologische vooruitgang nog steeds een mens aan de knoppen draaien om iets goed te krijgen?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
In mijn ervaring is de client de boosdoener. Windows vaak en werkende met een te kleine TCP transfer window van 16K ofzoiets. Bij het overstappen van netwerkadapter aan de client zijde, kun je vaak al veel hogere transfers bereiken. Denk dus niet automatisch dat het aan de server ligt!

Verder; al die tuning enzo, daar word ik ook wel gek van. Het onderliggende probleem is natuurlijk dat SMB/CIFS een heel slecht protocol is om gigabit te saturaten. Het is extreem gevoelig voor latency en als er dus maar iets verkeerd is; haal je niet uit gigabit wat het zou moeten kunnen halen. Dat komt ook door gigabit zelf: dat heeft een veel te hoge latency vergeleken met de bandbreedte. Het 'bandbreedteproduct' onder de kenners, is bij gigabit erg hoog. Dat stelt weer eisen aan de softwarekant dat je optimaal moet werken om te voorkomen dat de interface stil komt te liggen.

Ik geloof dat in Windows 8 ook CIFS multipath I/O wordt ondersteund. Wellicht dat dit veel meer kan helpen dan tunen.

Dat gezegd, er is ook een factor die aan ZFS te wijten valt: de breathing. Dit zorgt voor fluctuerende write snelheden als je van client naar ZFS server data schrijft. Bij lezen heeft dit geen effect. Je kunt dit eenvoudig testen door tmpfs te mounten en dat te sharen met Samba en vervolgens te benchmarken. Als je met tmpfs geen optimale Samba snelheden haalt, zul je dat natuurlijk ook nooit met ZFS behalen. Een nuttige ZFS tuning tip is om de min/max pending I/O op 1 in te stellen. Dit doe je bij BSD in de /boot/loader.conf. In ZFSguru kun je dit op de System->Tuning pagina doen.

Kortom, lokaliseer het probleem. Of zet een Intel NIC in je (Windows) desktop dat kan ook al veel schelen.

[ Voor 5% gewijzigd door Verwijderd op 17-06-2014 20:26 ]


Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
Dank voor je toelichting Cipher. Ik ga er de komende tijd nog wel wat aan tunen binnen mijn mogelijkheden en besluit dan wel wat ik doe. Geen reden om over één nacht ijs te gaan. Ik heb overigens in mijn desktop ook een Intel NIC zitten, dus dat is het probleem ook niet. Wellicht dat de Ziggo Cisco router nog een rol speelt, maar ik vermoed van niet. Wordt vervolgd...

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Doe eens een benchmark op tmpfs; dat is best een leuke test. En vergelijk dat eens met ZFS.

Zorg wel dat je voldoende vrij RAM geheugen hebt. Zonder tuning zal ZFS veel geheugen opeisen. Een test met tmpfs kun je dus het beste doen na te rebooten en zorgen dat je ZFS niet teveel data laat lezen. Als je ZFS een bestand van 10GB laat lezen, is je RAM verbruik ook 10GB hoger. Dus zorg dat ZFS hooguit systeemdata inleest en erg beperkt is, zodat je vele gigabytes vrij hebt voor tmpfs. Het is ook maar een test.

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 01-10 23:37
Ok, maar walk me through here. Ik zie nergens tmpfs. Ik heb 2 pools: Data (the big one) en ZFS_System op de ssd voor het OS. Er zijn 4 filesystems: Data, Data/share, ZFS_System en ZFS_System/share. Hoe creëer ik tmpfs? En als dat is gedaan, dan de functie Benchmark van ZFSguru onder Pools uitvoeren? Test size eerst 8GiB, reboot en daarna 64GiB?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Hiervoor kun je het beste met SSH inloggen. Zie Access->OpenSSH als je beta9 gebruikt.

Zodra je bent ingelogd, kun je 'su' doen om root te worden. Daarna kun je uitvoeren:

# eerste directory aanmaken
mkdir /tmpfs
# mount tmpfs op de aangemaakte directory (let op 2x tmpfs na de -t)
mount -t tmpfs tmpfs /tmpfs
# nu de samba configuratie uitbreiden met een nieuwe share op tmpfs

noot: dit kun je ook via de GUI doen. Door een handmatige Samba share aan te maken met handmatig pad /tmpfs op de Access->Samba pagina.

ee /usr/local/etc/smb.conf
En voeg aan het einde van het bestand toe:

[tmpfs]
path = /tmpfs
guest ok = yes
public = yes
read only = no
write list = @share

Daarna Samba herstarten:
service samba restart

Dan kun je in Windows je nieuwe share mounten als X: bijvoorbeeld en dan benchmarken. Merk op dat benchmarks niet altijd geschikt zijn omdat ze geen rustpauze inlassen. Hierdoor kun je onterecht hoge of juist lagere scores krijgen, omdat er niet eerlijk gemeten wordt; er wordt nog data van de vorige benchmark verwerkt terwijl het meten voor de nieuwe al begonnen is. Dan is de beginperformance stukken lager totdat de data van de vorige is verwerkt. Je kunt het verzachten door grote testgroottes te gebruiken; in CrystalDiskMark kun je dit instellen. En niet 5x doen maar gewoon 1x. Of gewoon testen met Windows filecopy.
Pagina: 1 ... 123 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.