pricewatch: Seagate Barracuda 7200.14 ST3000DM001, 3TB
pricewatch: Seagate Constellation ES.2 ST33000650SS, 3TB SAS-2.0, 64MB, 7200rpm
Expanders moet je sowieso niet willen, zeker niet met ZFS. Het biedt geen enkel praktisch voordeel voor een nieuwe NAS; alleen nuttig als je een verkeerd moederbord hebt gekocht met te weinig PCIe slots zodat je onvoldoende HBA's kunt inzetten. Die HP SAS Expander heeft zoveel 'quirks' dat je er flink wat gezeik mee kunt krijgen. Als je HBA 6Gbps is, je expander 6Gbps en je disks 3Gbps; dan switch je op 3Gbps snelheid. Dat weten veel mensen ook niet of onvoldoende. Daarnaast zijn er specifieke problemen met ZFS gemeld waarbij de HP SAS expander ging flippen bij het ontvangen van vele FLUSH BUFFER requests, iets wat alleen in combinatie met ZFS leek te reproduceren.
Ik heb een hekel aan complexe opstellingen die ook nog eens nauwelijks of geen voordeel leveren. Expanders zijn in mijn ogen gewoon een slechte keuze voor een ZFS opslagsysteem. Je bent namelijk goedkoper uit met een normale HBA setup, minder kans op hoofdpijn en problemen, minder energieverbruik, hogere prestaties en meer centjes in jouw portemonnaie; wat wil je nog meer?
Duurdere schijven kun je wel overwegen. Maar ik geloof de uBER specs niet meer. Near line zit dan op 10^-15 en consumentendisks op 10^-14, maar ik vertrouw die specificaties gewoon niet, om de volgende redenen:
1) schijven kunnen per exemplaar sterk verschillen; dus je zult een hele grote marge moeten nemen
2) de specificaties zijn al erg nauwkeurig en werken in factoren van 10, ofwel 1000% verschil per 'stap'. Hoezo inaccuraat? Waarom is een specifieke serie niet gemeten op 10^-14,21292 bijvoorbeeld? Dat zou ik meer vertrouwen.
3) fabrikanten hebben er geen problemen mee een serie zomaar met factor 10 te verlagen; dus een schijf die eerst 10^-15 was, is nu opeens 10^-14 volgens de specs. Natuurlijk kun je je afvragen of die schijf ooit 10^-15 was geweest. Dit ging geloof ik om de WD Black series, vraag me niet om links.
4) hardeschijffabrikanten zijn aan het melken door hun eigen bugs uit te buiten. Zo verkopen ze TLER voor veel geld en nu proberen ze denk ik ook uBER uit te melken door jou heel veel meer geld te laten betalen voor zogenaamd betrouwbaardere schijven. Ik geloof er geen ruk van.
Verwijderd
Specifiek gaat het mij om ZFSv30, encryptie. Ik zou mijn kunnen gaan bezighouden met Geli, maar het is voor mij wel voor de langere termijn, specifiek voor een backup. Omdat encryptie met een Windows desktop pc met goede performance tegenvalt ben ik op zoek naar alternatieven. Een deel van de backups komt namelijk in de cloud te staan en ik wil dat de encryptie wordt verzorgd door een andere partij. Nu wil ik niet over twee maanden moeten/willen wisselen en de upload weer opnieuw moeten starten. (Het gaat om belachelijk veel data...)
Moet ik ZFSv30-FreeBSD-style vergeten?
Ik heb een VirtualBox Shared Folders map aan mijn Ubuntu VM gegeven, maar wanneer die daar bestanden in staat te downloaden, komen die met een verkeerde permissie in de folder terecht (die gedeeld is via ZFSguru) waardoor hij niet onmiddellijk benaderbaar is via SMB (wel als ik er een correcte chmod over gooi).
Is er iets waarmee je een default permissions mapping kan instellen voor files die op de "host" worden geschreven?
Is het iets van de strekking dat de Ubuntu VM een permissie aan een file meegeeft waar de SMB (user) van ZFSguru niets mee kan? Een gevalletje, usernameA:groupA van Ubuntu VM plaatst een bestand en usernameB:groupB van ZFSguru probeert daarbij te komen? En wat jij vervolgens doet is een chmod 777 * uitvoeren in die map?
bart vboxsf Californication.mkv rwx rwx r
ZFSguru:
root share Californication rwx --- ---
om het "mooi" en gelijk te hebben, verander ik altijd root naar "share" (de user) en gooi ik er een 766 over...
[ Voor 56% gewijzigd door HyperBart op 25-10-2012 21:24 ]
Even niets...
Ik snap je niet zo? Met expander bedoel ik een SAS expander; ik dacht dat het daarom ging? Jij stelt dat zeker in combinatie met SAS expanders reset storms een groter probleem zijn omdat de expander zelf elke keer gereset wordt. Ik geef daar nog wat andere argumenten bij en kom tot mijn persoonlijk oordeel dat SAS expanders helemaal niet interessant zijn; alleen voor een kleine groep die te weinig PCI-express slots heeft gekozen voor zijn systeem en dus wel over moet gaan tot het gebruiken van SAS expanders; jammer in dat geval. In andere gevallen kun je dit zonder expander af, en ben je dus in alle opzichten beter uit; prijs, stroomverbruik, prestaties, compatibiliteit/problemen/gezeik.Verwijderd schreef op donderdag 25 oktober 2012 @ 18:50:
huh? als je een JBOD hebt heb je toch al een expander?
Wat je met de disks doet maakt denk ik niet zoveel uit? Maar gezien het topic gaan we ervan uit dat de disks op de HBA in een ZFS pool worden gestopt. Eén van de voordelen van ZFS is nu juist dat je dat veels te dure enterprise spul gelukkig niet nodig hebt en met goedkope consumentenhardware toch een betrouwbaar opslagapparaat kunt bouwen. Dat was ook de originele gedachte achter RAID; in de tijd dat betrouwbare schijven veel duurder waren kon je met softwarematige technieken dus van meerdere goedkope en minder betrouwbare schijven toch één virtueel volume maken wat veel betrouwbaarder is. Maar het accent ligt hier op de prijs; redundant array of inexpensive disks. Dat dit later heel anders is gelopen en we nu opgescheept zitten met EMC, geeft aan dat we behoorlijk zijn afgedwaald waar de gevestigde orde veel aan heeft verdiend. Verdienen aan bugfixes is ook te erg voor woorden. Geen eerlijke markt IMO.
Dat is versie 5000 inmiddels. Dat is een tijd geleden door de 'secret ZFS working group' besloten waarbij vanaf ZFS v28 de ontwikkeling gebeurt met afzonderlijke feature flags. ZFS v28 is dus de laatste traditionele ZFS versie met versienummers; vanaf dat moment worden er feature flags gebruikt en krijgt de pool een veel hogere SPA versie (5000).Dadona schreef op donderdag 25 oktober 2012 @ 20:25:
Is er eigenlijk ontwikkeling voor wat betreft de verdere ontwikkeling van ZFS op FreeBSD? ZFSv28 is de laatste opensource versie van ZFS.
ZFS v5000 zit al in FreeBSD 10, maar die features zijn niet interessant. Wat wel interessant is, is dat in FreeBSD 10 ZFS veel meer parallel kan gebeuren en dus sneller zou moeten zijn in bepaalde situaties. Ook hoop ik dat het geheugenmanagement een keer onder handen wordt genomen; twee belangrijke nadelen van ZFS op FreeBSD. Eigenlijk de enige nadelen zou ik zeggen.
ZFS encryptie stelt weinig voor. Het is niet hardware accelerated en is capped op één thread dus single threaded encryptie - althans voor zover ik begrepen heb. Als dat klopt stelt het geen drol voor en wil je 10x liever GEOM_ELI gebruiken waarbij je met AES-NI dus volledige hardware accelerated encryptie doet op moderne Intel chips en ook moderne AMD chips kunnen dit volgens mij. Enige feature die mij leuk had geleken was de RAID-Z/mirror hybrid allocator, zodat metadata gemirrored wordt op je RAID-Z pool. De allocator kan dus zelf bepalen of het mirorring of distributed parity gebruikt voor bepaalde data. Vooral bij metadata is mirroren veel sneller omdat je dan boven de IOps van een enkele disk kunt komen, wat bij puur RAID-Z niet kan.
De ZFS versies boven 28 die niet open source zijn, kun je gewoon vergeten. Ik beschouw ZFS v28 als laatste ZFS versie door Sun; toen is de ontwikkeling gestopt en Oracle zal de nieuwe versies niet onder CDDL vrijgeven - iets wat ze overigens wel aan hebben gegeven wél te doen. Nieuwe ZFS code zal onder CDDL worden vrijgegeven nadat deze in een Solaris release terecht is gekomen. Maar tot dusver is dat niet gebeurd en wees eerlijk; we hoeven helemaal niets te verwachten van Oracle wat voorzichtig gezegd geen opensource-vriendelijk bedrijf is. Het liefst zou Oracle alle CDDL code terugtrekken en ons ZFS afnemen. Maar dat kan het niet. Dat is de kracht van open source.
Zie nu Java; niet open sourced; jammer; exit, doeidoei.
Ik snap het niet helemaal; wat doe je nu precies?HyperBart schreef op donderdag 25 oktober 2012 @ 20:37:
Ik heb een VirtualBox Shared Folders map aan mijn Ubuntu VM gegeven, maar wanneer die daar bestanden in staat te downloaden, komen die met een verkeerde permissie in de folder terecht (die gedeeld is via ZFSguru) waardoor hij niet onmiddellijk benaderbaar is via SMB (wel als ik er een correcte chmod over gooi).
Heb je al naar je samba groepen en permissies gekeken voor je shares (/etc/samba/smb.conf)? Daar kan je instellen wat de permissies zijn van je accounts op je diverse shares. Dat kan je zien als een 2e laag met permissies op je files. Je kan zo makkelijk al je shares op read only zetten bijvoorbeeld.HyperBart schreef op donderdag 25 oktober 2012 @ 20:37:
Vraagje:
Ik heb een VirtualBox Shared Folders map aan mijn Ubuntu VM gegeven, maar wanneer die daar bestanden in staat te downloaden, komen die met een verkeerde permissie in de folder terecht (die gedeeld is via ZFSguru) waardoor hij niet onmiddellijk benaderbaar is via SMB (wel als ik er een correcte chmod over gooi).
Is er iets waarmee je een default permissions mapping kan instellen voor files die op de "host" worden geschreven?
Je kan daar ook instellen wat de default permissies zijn voor nieuwe door samba aangemaakte files/dirs.
Verder kan je een copy bit aanzetten op je directory permissies waardoor nieuwe files en subdirectories hun ownerships overerven. Voorbeeld:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
| root@server2:/# sudo -s root@server2:/# mkdir /tmp/test root@server2:/# cd /tmp/test root@server2:/tmp/test# mkdir eureka root@server2:/tmp/test# ls -la total 12 drwxr-xr-x 3 root root 4096 Oct 26 02:03 . drwxrwxrwt 8 root root 4096 Oct 26 02:03 .. drwxr-xr-x 2 root root 4096 Oct 26 02:03 eureka root@server2:/tmp/test# chown root:durandal eureka root@server2:/tmp/test# ls -la total 12 drwxr-xr-x 3 root root 4096 Oct 26 02:03 . drwxrwxrwt 8 root root 4096 Oct 26 02:03 .. drwxr-xr-x 2 root durandal 4096 Oct 26 02:03 eureka root@server2:/tmp/test# chmod 2770 eureka <--- voorste 2 is copy bit, aangegeven met 's' root@server2:/tmp/test# ls -la total 12 drwxr-xr-x 3 root root 4096 Oct 26 02:03 . drwxrwxrwt 8 root root 4096 Oct 26 02:03 .. drwxrws--- 2 root durandal 4096 Oct 26 02:03 eureka root@server2:/tmp/test# cd eureka root@server2:/tmp/test/eureka# mkdir sub root@server2:/tmp/test/eureka# touch test root@server2:/tmp/test/eureka# ls -la total 12 drwxrws--- 3 root durandal 4096 Oct 26 02:05 . drwxr-xr-x 3 root root 4096 Oct 26 02:03 .. drwxr-sr-x 2 root durandal 4096 Oct 26 02:05 sub -rw-r--r-- 1 root durandal 0 Oct 26 02:05 test |
Verwijderd
Ik heb het over wat grotere oplossingen laten we zeggen een halve PB. Daar wordt veelvuldig gebruik gemaakt van SAS expanders. Wat ik enkel probeer aan te geven: SATA niet doen als het niet hoeftVerwijderd schreef op donderdag 25 oktober 2012 @ 22:40:
[...]
Ik snap je niet zo? Met expander bedoel ik een SAS expander; ik dacht dat het daarom ging? Jij stelt dat zeker in combinatie met SAS expanders reset storms een groter probleem zijn omdat de expander zelf elke keer gereset wordt. Ik geef daar nog wat andere argumenten bij en kom tot mijn persoonlijk oordeel dat SAS expanders helemaal niet interessant zijn; alleen voor een kleine groep die te weinig PCI-express slots heeft gekozen voor zijn systeem en dus wel over moet gaan tot het gebruiken van SAS expanders; jammer in dat geval. In andere gevallen kun je dit zonder expander af, en ben je dus in alle opzichten beter uit; prijs, stroomverbruik, prestaties, compatibiliteit/problemen/gezeik.
Klopt. Als je dit vergelijkt met de prijzen die je voor een netapp of EMC betaald is dat ook geluktWat je met de disks doet maakt denk ik niet zoveel uit? Maar gezien het topic gaan we ervan uit dat de disks op de HBA in een ZFS pool worden gestopt. Eén van de voordelen van ZFS is nu juist dat je dat veels te dure enterprise spul gelukkig niet nodig hebt en met goedkope consumentenhardware toch een betrouwbaar opslagapparaat kunt bouwen. Dat was ook de originele gedachte achter RAID; in de tijd dat betrouwbare schijven veel duurder waren kon je met softwarematige technieken dus van meerdere goedkope en minder betrouwbare schijven toch één virtueel volume maken wat veel betrouwbaarder is. Maar het accent ligt hier op de prijs; redundant array of inexpensive disks. Dat dit later heel anders is gelopen en we nu opgescheept zitten met EMC, geeft aan dat we behoorlijk zijn afgedwaald waar de gevestigde orde veel aan heeft verdiend. Verdienen aan bugfixes is ook te erg voor woorden. Geen eerlijke markt IMO.
say what? async destroy niet boeiend?... meen je niks van kan gewoon nietZFS v5000 zit al in FreeBSD 10, maar die features zijn niet interessant. Wat wel interessant is, is dat in FreeBSD 10 ZFS veel meer parallel kan gebeuren en dus sneller zou moeten zijn in bepaalde situaties. Ook hoop ik dat het geheugenmanagement een keer onder handen wordt genomen; twee belangrijke nadelen van ZFS op FreeBSD. Eigenlijk de enige nadelen zou ik zeggen.
Enige nieuwe feature die oracle zfs heeft is de hybrid allocator, encryptie en .. verder weet ik zo niet eens. Doe mij de open variant maar die dingen heeft als async destroy LZ4 l2arc compressie, zfs vnop (geen op bij een write), libzfs_core, etc..etcDe ZFS versies boven 28 die niet open source zijn, kun je gewoon vergeten. Ik beschouw ZFS v28 als laatste ZFS versie door Sun; toen is de ontwikkeling gestopt en Oracle zal de nieuwe versies niet onder CDDL vrijgeven - iets wat ze overigens wel aan hebben gegeven wél te doen. Nieuwe ZFS code zal onder CDDL worden vrijgegeven nadat deze in een Solaris release terecht is gekomen. Maar tot dusver is dat niet gebeurd en wees eerlijk; we hoeven helemaal niets te verwachten van Oracle wat voorzichtig gezegd geen opensource-vriendelijk bedrijf is. Het liefst zou Oracle alle CDDL code terugtrekken en ons ZFS afnemen. Maar dat kan het niet. Dat is de kracht van open source.
Ik zou N4F absoluut geen beta noemen. Tijdens tests heb ik geen enkele bug gevonden, en was het performancewise vaak sneller dan FreeNAS.Het open-source broertje van FreeNas die gemaakt is nadat FreeNas in de handen van ixSystems is gekomen. Bijna dezelfde functionaliteit, maar niet meer gebaseerd op nanoBSD, en dat kan in de toekomst nog wel eens voordelen opleveren. Voor nu is het nog redelijk beta.
Verder kunnen volgende zaken mogelijk nog een aanvulling zijn? (eventueel in Q&A formaat)
ashift: [uitleg hierover laat ik aan een andere tweaker over
Het aanmaken van een 2GB ramdisk in Nas4Free / FreeNAS:SSH into your box, or use the shell web interface (or the shell option on the TTY head) and type
zdb -C | grep ashift
If the answer is 9 -- you have 512K sector alignment. If it is 12, you've got 4096K alignment
[root@freenas] ~# zdb -C | grep ashift
ashift: 12
/sbin/mdmfs -M -S -o async -s 2048m md3 /mnt/jouwvolume/ramdisk
chmod 777 /mnt/jouwvolume/ramdisk/
[ Voor 38% gewijzigd door sloth op 27-10-2012 13:15 ]
Juistem, en denk dan ook bijv. aan low-latency shared-storage clustering met sas-switches (ook handig voor beheren) met meerdere hosts en een rits JBODs , dat soort spul. Dan begint dit toch heel interrssant te worden tov een fiber san oplossing.Verwijderd schreef op zaterdag 27 oktober 2012 @ 02:14:
[...]
Ik heb het over wat grotere oplossingen laten we zeggen een halve PB. Daar wordt veelvuldig gebruik gemaakt van SAS expanders. Wat ik enkel probeer aan te geven: SATA niet doen als het niet hoeft
[...]
Interresante linkjes, dank daarvoor, ook @FireDrumk
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Ik ben in het bezit van een Asus C60 NAS. Dit platform heeft veel potentie, je moet die 60MB/s wat nuanceren.webfreakz.nl schreef op zaterdag 20 oktober 2012 @ 21:42:
[...]
Sure, maar als je 3 schijven op zo'n ASUS C60 (IIRC??) bordje gebruikt dan haal je maar 60MB/s met Samba omdat het een single threaded performance is en die CPU niet sneller kan. Dat soort statistieken vind ik interessant om te weten: "welke minimale build trekt een enkele 1GbE verbinding vol?". Eventueel kitlists met PicoPSU's e.d.....
Op dit moment probeer ik (samen met Dadona) erachter te komen welke variabelen allemaal invloed hebben op de sequential read / write network performance.
Deze resultaten zijn hopelijk niet alleen interessant voor eigenaars van een C60 systeempje, maar voor iedere DIY nas bouwer die met ZFS aan de slag wil. Mogelijk kunnen developers als CiPHER aan de hand van deze gegevens betere distro's ontwikkelen.
Allereerst zit er een goedkope Realtek nic op dit bordje, die zoals CiPHER al aangaf bij netwerk transfers 1 volledige core in beslag neemt aan interrupts.
Device polling zou hier wat aan kunnen doen, maar afaik is er voor deze nic geen ondersteuning in N4F / FreeNAS.
Dan heb je het geval CIFS, waar je vaak aardig wat tuning voor moet doen om er het maximale uit te persen. Ook is het single threaded, waardoor de C60 processor @ 1Ghz kan gaan bottlenecken.
Vervolgens ervaren Dadona en ik dat de seq. read (een download vanaf het C60 platform naar elders) vaak lager is dan de write, wat onlogisch is. Bij de seq. write performance valt op dat er erg grote pieken zitten tussen de transfers. Dit zou gaan om het "ZFS breathing" syndroom, wat een grote impact heeft op de average write throughput.
Dan zijn er nog zaken aan de hand waar ik geen hoogte van krijg, hierover zo meteen meer.
Onderstaande screenshot is gemaakt met Nas4Free als OS vanaf een usbstick, een intel 1000PT nic om de interrupt problemen tegen te gaan, en een WDC WD20EARX. Het gaat om 2 simultane FTP transfers vanaf een Windows client.

Voor zover ik het goed interpreteer kan je hieruit volgende zaken afleiden:
CPU is met een load van 62,3% geen bottleneck. Dit is met 712Mbit/s oftewel 89MB/s aan inkomend verkeer.
De average write throughput wordt sterk naar beneden gehaald door de transfer stalls tot 0 MB/s. Alsnog is er een gemiddelde van 76MB/s, wat imo lang niet slecht is.
De average read performance is dan weer niet beïnvloed door stalls, maar wel flink lager dan de write (FTP, 2 threads). Ook hier weer geen processor die het niet kan bijbenen:

TL;DR en conclusie: Het moet mogelijk zijn om de gigabit netwerk limieten op te zoeken met dit platform. Vooralsnog werken er 1 of meerdere zaken nog niet optimaal, waardoor zulke resultaten uitblijven.
Mijn vragen zijn dan ook:
1) Wat zijn - de NIC en het CIFS protocol buiten beschouwing gelaten- de oorzaken van deze problemen?
2) Hoe valt dit op te lossen?
Kijk, ik beweer niet dat 76MB/s een onwerkbaar systeem oplevert, maar als ik een NAS zou bouwen dan zou ik er simpelweg niet tevreden mee zijn. Hedendaagse 3TB HDDs doen al bijna 150MB/s read én write (http://www.storagereview....ard_drive_review_wd30efrx), bedenk dan eens wat je zou kunnen halen met 4 disks aan elkaar gekoppeld. Ik hoef ook geen 500MB/s aan performance, want als je dan een enkele 1GbE adapter hebt schiet je er nog niks mee op.. Dus een enkele 1GbE adapter voltrekken is prima voor mij. Maar met de hedendaagse hardware had ik niet verwacht dat het een probleem zou zijn om zulke performance dus te halen. Blijkbaar wel!sloth schreef op zaterdag 27 oktober 2012 @ 13:47:
[...]
CPU is met een load van 62,3% geen bottleneck. Dit is met 712Mbit/s oftewel 89MB/s aan inkomend verkeer.
De average write throughput wordt sterk naar beneden gehaald door de transfer stalls tot 0 MB/s. Alsnog is er een gemiddelde van 76MB/s, wat imo lang niet slecht is.
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
[ Voor 8% gewijzigd door sloth op 27-10-2012 14:29 ]
...dit bericht verwijdert zichzelf zodra sloth weer terug is.
[ Voor 5% gewijzigd door Dadona op 27-10-2012 18:46 ]
Dat kan inderdaad probleemloos. Aangezien ZFS on Linux zal zien dat de pool door een ander systeem gebruikt is, moet je hem denk ik wel eerst expliciet importeren: zpool import en dan zpool import <poolnaam> maar check of dit ook geldt voor ZoL.Durandal schreef op zaterdag 27 oktober 2012 @ 03:39:
Zeg Cipher, als ik mijn zpool gebouwd met ZFS-on-Linux, inmiddels goed gevuld met data, wil testen met de ZFSGuru live CD, verandert die ZFSGuru dan iets aan de pool? Oftewel, kan ik hem daarna weer probleemloos importeren in linux?
Het leuke van ZFS is dus dat je - in principe - kunt switchen tussen verschillende platforms. Zo kun je ook ZFSguru installeren op die pool, al zul je tenminste één disk met ZFSguru moeten formatteren om bootable te kunnen zijn. Dat is mogelijk als je een redundante config hebt door die disk te offlinen en te formatteren in ZFSguru en dan weer toe te voegen, wachten op rebuild en dan ZFSguru installeren en booten.
Dat ZFSguru op de pool staat verander ook niets; gewoon wat data in <poolnaam>/zfsguru inclusief een ZVOL. ZFS on Linux ziet dat gewoon als data. En je kunt die hele zfsguru filesystem ook rustig verwijderen je verliest enkel je instellingen die je in ZFSguru hebt gemaakt zoals Samba shares.
Kortom, je kunt 'shoppen'. Bij Solaris is het wel vervelend dat deze een nogal beperkte GPT ondersteuning heeft. Maar je kunt in ZFSguru de partition map editor gebruiken om solaris partities te maken dan kun je ook tussen BSD platform en Solaris platform switchen. Ik zelf vind het altijd een groot voordeel als je niet 'vast' zit aan één oplossing. Bevalt je iets niet of loop je tegen iets rots aan, dan heb je altjid nog een vluchtweg naar een alternatief.
Bedankt voor je feedback. Ik heb dat specifieke stukje niet geschreven, maar een beetje terughoudendheid mag denk ik wel. Ik zal het wat aanpassen.sloth schreef op zaterdag 27 oktober 2012 @ 12:26:
Ik heb zonet de nieuwe TS gelezen, maar vond dit stukje minder waarheidsgetrouw:
Ik zou N4F absoluut geen beta noemen. Tijdens tests heb ik geen enkele bug gevonden, en was het performancewise vaak sneller dan FreeNAS.
Wat ik begrepen heb is dat dergelijke grote opslagsystemen vooral door IOps bottlenecked wordt omdat alle sequential I/O door elkaar uiteindelijk allemaal random I/O wordt. Zeker met hardeschijven moet je dan goede striping toepassen om met hoge queue depth ook hoge IOps te kunnen bereiken. In een dergelijke situatie is de SATA latency denk ik een minder groot issue en heb je dus niet zoveel last van SAS expanders.Verwijderd schreef op zaterdag 27 oktober 2012 @ 02:14:
Ik heb het over wat grotere oplossingen laten we zeggen een halve PB. Daar wordt veelvuldig gebruik gemaakt van SAS expanders. Wat ik enkel probeer aan te geven: SATA niet doen als het niet hoeft
Maar ik vind vooral de markt voor thuisgebruikers en MKB interessant. Dat deze groep nu ook de beschikking krijgt over next-gen filesystems is een grote stap, zodat ook zij eindelijk deftige bescherming krijgen voor hun waardevolle data. Google schrijft gewoon zijn eigen filesystem, maar thuisgebruikers willen ook wat; dat NTFS zijn ze al tijden op uitgekeken.
Ik ben zo benieuwd wat die 'slechte' Realtek doet als jullie polling ingeschakeld hebben, wat dus kan als je de kernel hercompileert. Dit kan vrij eenvoudig met ZFSguru als je de service 'FreeBSD sourcecode' installeert, DM me maar voor instructies.sloth schreef op zaterdag 27 oktober 2012 @ 13:47:
Allereerst zit er een goedkope Realtek nic op dit bordje, die zoals CiPHER al aangaf bij netwerk transfers 1 volledige core in beslag neemt aan interrupts.
Als het namelijk puur de CPU is die door de interrupts aan de max zit en de doorvoer beperkt, kun je dit dus met polling oplossen. De CPU usage daalt zo naar acceptabel niveau en dan blijkt die Realtek opeens in elk geval met iPerf grofweg dezelfde performance te bieden als een Intel NIC. Althans, dat is mijn ervaring.
Ik vind het wel tof dat jullie dit uittesten, zeker interessant voor een groep mensen. Ik wil echter wel aangeven dat ik het vreemd vind dat iemand voor dit bordje kiest als hij niet tevreden is met 70MB/s. Als je een dergelijke veeleisende gebruiker bent, zul je toch iets dieper in de buidel moeten tasten dan heb je ook wat meer marge om tegen probleempjes als hoge CPU interrupts tegen te gaan en de scores te halen die je wilt.
sloth is eigenlijk de oorzaak dat ik af en toe wat test en hoewel ik inderdaad momenteel niet echt een schokkende performance nodig heb (daar pak ik de minder zuinige opstelling wel voor), valt een maximum van 50MB/sec toch wel tegen. Ik gooi het op een nog niet optimale driver, aangezien deze pas met 9.1 erbij is gekomen.
Ik voel binnenkort een dm-thread aankomen met jou, sloth en mij.
Helaas moet ik noodgedwongen toch weer even terug naar de Realtek omdat Virtualbox in ZFSguru mijn Intel niet wil zien. Ik krijg bij de VMs alleen een 'lege' netwerkkaart optie (in plaats van em0) en een Realtek optie (re0).
Over een tijdje ga ik eens kijken of het mooier kan, maar nu gaat de voorkeur uit naar de snelste optie die werkt.
Verwijderd
Wat mij ook opviel is dat er in NAS4free veel meer opties leken te zijn om bestanden te delen.
Zijn deze opties zoals ftp, itunes server etc. er ook in ZFSguru?
Alleen zijn er nog geen services voor FTP en iTunes. Wel kun je de portstree installeren en zelf compileren (pureftpd, proftpd). ZFSguru services zijn relatief nieuw. Nog dit jaar zou er een service komen waarmee je zelf services kan maken. Dan denk ik dat het aantal services snel groter wordt en je zelf 'maintainer' kunt zijn van een bepaalde service. Tot die tijd kun je in ZFSguru net als FreeBSD zelf je software installeren en configureren, maar daarvoor moet je dus wat tijd uittrekken.
zpool export <pool>, zpool import <pool>, inmiddels vaak genoeg mee gespeeld. Is hetzelfde op ZoL. Wat ik opmaak uit dev trackers is dat de devs echt zo veel mogelijk de Solaris implementaties blijven aanhangen.Verwijderd schreef op zaterdag 27 oktober 2012 @ 20:05:
Dat kan inderdaad probleemloos. Aangezien ZFS on Linux zal zien dat de pool door een ander systeem gebruikt is, moet je hem denk ik wel eerst expliciet importeren: zpool import en dan zpool import <poolnaam> maar check of dit ook geldt voor ZoL.
Mijn dank voor de info.Verwijderd schreef op zaterdag 27 oktober 2012 @ 20:05:
Het leuke van ZFS is dus dat je - in principe - kunt switchen tussen verschillende platforms. Zo kun je ook ZFSguru installeren op die pool, al zul je tenminste één disk met ZFSguru moeten formatteren om bootable te kunnen zijn.
Ik heb vanmiddag alleen helaas de BIOS van de HBA gewist omdat ik toch niet van de pool ging booten. Ik hou het voorlopig wel bij live CD
EDIT: Nu ik er over nadenk.. Ik boot van een aparte boot harddisk (buiten de pool bedoel ik). Kan ik hier een extra partitie bij zetten om ZFSGuru van te booten (vanuit het grub2 bootmenu)? Hoe gaat dat en hoe groot moet de partitie zijn?
[ Voor 9% gewijzigd door Durandal op 28-10-2012 01:47 ]
Zijn de services niet stabiel genoeg of doe ik iets fout?
Jouw verhaal is echter anders; je zegt dat SABnzbd+ zelf niet meer wilt starten? Wat krijg je te zien als je dit handmatig probeert met: /usr/local/etc/rc.d/sabnzbdplus onestart of zoiets?
Even niets...
Vergelijkbaar met de NTFS en share permissies op Windows dus...(?)Durandal schreef op vrijdag 26 oktober 2012 @ 02:11:
[...]
Heb je al naar je samba groepen en permissies gekeken voor je shares (/etc/samba/smb.conf)? Daar kan je instellen wat de permissies zijn van je accounts op je diverse shares. Dat kan je zien als een 2e laag met permissies op je files. Je kan zo makkelijk al je shares op read only zetten bijvoorbeeld.
Je kan daar ook instellen wat de default permissies zijn voor nieuwe door samba aangemaakte files/dirs.
Terwijl de unix permissies toelaten dat een gebruiker door mag, kan je met de share permissies toch nog afblokken(?)
Waar doe je dat? in de guest doet hij het automatisch onder media/sf_Downloads , dus ik heb daar geen mount zelf moeten doen en in VirtualBox zag ik die optie niet direct...FireDrunk schreef op donderdag 25 oktober 2012 @ 21:20:
Je kan bij de mount een uid en gid meegeven.
[ Voor 19% gewijzigd door HyperBart op 28-10-2012 20:19 ]
@HyperBart: het filesystem heeft permissies maar applicaties kunnen dat ook hebben; net zoals je een FTP login hebt en wellicht permissie-instellingen die niets met filesystem permissies te maken hebben. Samba kun je met 'valid users' authenticatie opleggen, of bijvoorbeeld 'write list' aangeven dat alleen gebruiker X en Y mag schrijven en de rest alleen lezen, etc.
Ik ben even mijn installatie procedure aan het doorlopen maar ik zie nergens waar deze loader vandaan komt aangezien ik een zfs loader gebruik.
maakt het uberhaupt nog uit of de /boot/loader veranderd is als je een zfsloader gebruikt?
[ Voor 11% gewijzigd door justice strike op 28-10-2012 21:21 ]
U can call me sir.... or justice as long as u bow down ;)

root@SICKBEARD:~# cat /etc/fstab proc /proc proc nodev,noexec,nosuid 0 0 UUID=8759a66b-39d4-4c50-9c90-45a842564b18 / ext4 errors=remount-ro 0 1 UUID=7b36a8fb-233c-4c6d-8ad7-4fd9477ef5f7 none swap sw 0 0 data /mnt/data vboxsf rw,async,uid=1000,gid=1000 0 0
Zo dus. Automount werkte niet (stabiel) bij mij.
[ Voor 4% gewijzigd door FireDrunk op 28-10-2012 21:30 ]
Even niets...
===
Mijn oog valt net op dit:
http://www.guru3d.com/art...flash_drive_review,1.html
Een SLC USB 3.0 stick... Leuk voor ZIL, en kost je dus geen SATA poort!
Capacity: 8 GB (MXUB3SES-8G - 19.90 Euro), 16 GB (MXUB3SES-16G - 29.90 Euro) and 32 GB (MXUB3SES-32G - 49.90 Euro)
[ Voor 93% gewijzigd door FireDrunk op 29-10-2012 13:22 ]
Even niets...
nobody?justice strike schreef op zondag 28 oktober 2012 @ 21:05:
Ik heb net wat gedaan met mijn /boot/loader file... ik weet niet zeker of deze not wel correct is. Kan iemand mij aangeven hoe ik na kan gaan of deze nog goed gaat werken en/of hoe ik deze kan restoren.
Ik ben even mijn installatie procedure aan het doorlopen maar ik zie nergens waar deze loader vandaan komt aangezien ik een zfs loader gebruik.
maakt het uberhaupt nog uit of de /boot/loader veranderd is als je een zfsloader gebruikt?
U can call me sir.... or justice as long as u bow down ;)
@FireDrunk: alleen wel jammer dat sommige stickjes stiekem heel erg traag zijn met random I/O. Dat moet je echt goed uitzoeken. SLC betekent helemaal niets als je alsnog 0,009MB/s aan 4K write doet. Dat is gewoon meer dan 100 keer langzamer dan een hardeschijf; en ongeveer honderdduizend keer langzamer dan een SSD.
4k random read 15MB/s / 4k random write 0.009MB/s
Erg slecht dus
Even niets...
Even niets...
Het installeren gaat goed en het werkt ook eenmalig. Na een reboot weigert zfsguru om het process te starten.Verwijderd schreef op zondag 28 oktober 2012 @ 15:52:
SABnzbd+ service is inderdaad buggy. Maar het enige probleem dat ik had was dat van de extra services (couchpotato, headphones, sickbeard) er maar één wilt starten. Dit heeft te maken met de startupscripts in /usr/local/etc/rc.d/.
Jouw verhaal is echter anders; je zegt dat SABnzbd+ zelf niet meer wilt starten? Wat krijg je te zien als je dit handmatig probeert met: /usr/local/etc/rc.d/sabnzbdplus onestart of zoiets?
Handmatig starten levert de volgende error op (in ZFSguru scherm):
Warning: could not start service sabnzbdplus_x!
In het system log staat het volgende:
Oct 29 21:26:04 zfsguru root: /etc/rc: WARNING: $headphones_enable is not set properly - see rc.conf(5).
Oct 29 21:26:04 zfsguru root: /etc/rc: WARNING: $couchpotato_enable is not set properly - see rc.conf(5).
Oct 29 21:26:04 zfsguru kernel: .
Nogmaals proberen levert geen extra entries op in het log.
Overigens weet ik vrij weinig van kernels of commando's. Laat staan waar ik ze moet invullen
Edit: ik heb de startpost uitgebreid met L2ARC / SLOG / SSD stuk op het einde. Kan iemand dat even nalezen of het duidelijk genoeg is? Misschien iets te technisch of gaat het wel?
[ Voor 55% gewijzigd door Verwijderd op 29-10-2012 22:59 ]
Couchpotato installeren gaf volgende fouten:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
| gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/src'
Making all in doc
gmake[2]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/doc'
Updating ./version.texi
restore=: && backupdir=".am$$" && \
am__cwd=`pwd` && CDPATH="${ZSH_VERSION+.}:" && cd . && \
rm -rf $backupdir && mkdir $backupdir && \
if (/bin/sh /usr/ports/ftp/wget/work/wget-1.13.4/build-aux/missing --run makeinf o --version) >/dev/null 2>&1; then \
for f in wget.info wget.info-[0-9] wget.info-[0-9][0-9] wget.i[0-9] wget.i[0-9 ][0-9]; do \
if test -f $f; then mv $f $backupdir; restore=mv; else :; fi; \
done; \
else :; fi && \
cd "$am__cwd"; \
if /bin/sh /usr/ports/ftp/wget/work/wget-1.13.4/build-aux/missing --run makeinfo -I . \
-o wget.info ./wget.texi; \
then \
rc=0; \
CDPATH="${ZSH_VERSION+.}:" && cd .; \
else \
rc=$?; \
CDPATH="${ZSH_VERSION+.}:" && cd . && \
$restore $backupdir/* `echo "./wget.info" | sed 's|[^/]*$||'`; \
fi; \
rm -rf $backupdir; exit $rc
./texi2pod.pl -D VERSION="1.13.4" ./wget.texi wget.pod
/usr/local/bin/pod2man --center="GNU Wget" --release="GNU Wget 1.13.4" wget.pod > wget.1
gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/doc'
Making all in po
gmake[2]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/po'
gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/po'
Making all in tests
gmake[2]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/tests'
gmake[2]: Nothing to be done for `all'.
gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/tests'
Making all in util
gmake[2]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/util'
gmake[2]: Nothing to be done for `all'.
gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/util'
gmake[2]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4'
gmake[2]: Nothing to be done for `all-am'.
gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4'
gmake[1]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4'
===> Installing for wget-1.13.4_1
===> Generating temporary packing list
===> Checking if ftp/wget already installed
gmake install-recursive
gmake[1]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4'
Making install in lib
gmake[2]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/lib'
gmake install-recursive
gmake[3]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/lib'
gmake[4]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/lib'
gmake[5]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/lib'
if test no = no; then \
case 'freebsd9.1' in \
darwin[56]*) \
need_charset_alias=true ;; \
darwin* | cygwin* | mingw* | pw32* | cegcc*) \
need_charset_alias=false ;; \
*) \
need_charset_alias=true ;; \
esac ; \
else \
need_charset_alias=false ; \
fi ; \
if $need_charset_alias; then \
/bin/sh /usr/ports/ftp/wget/work/wget-1.13.4/build-aux/install-sh -d /usr/loca l/lib ; \
fi ; \
if test -f /usr/local/lib/charset.alias; then \
sed -f ref-add.sed /usr/local/lib/charset.alias > /usr/local/lib/charset.tmp ; \
install -o root -g wheel -m 444 /usr/local/lib/charset.tmp /usr/local/lib/cha rset.alias ; \
rm -f /usr/local/lib/charset.tmp ; \
else \
if $need_charset_alias; then \
sed -f ref-add.sed charset.alias > /usr/local/lib/charset.tmp ; \
install -o root -g wheel -m 444 /usr/local/lib/charset.tmp /usr/local/lib/c harset.alias ; \
rm -f /usr/local/lib/charset.tmp ; \
fi ; \
fi
gmake[5]: Nothing to be done for `install-data-am'.
gmake[5]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/lib'
gmake[4]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/lib'
gmake[3]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/lib'
gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/lib'
Making install in src
gmake[2]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/src'
gmake[3]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/src'
test -z "/usr/local/bin" || ../build-aux/install-sh -c -d "/usr/local/bin"
install -s -o root -g wheel -m 555 wget '/usr/local/bin'
gmake[3]: Nothing to be done for `install-data-am'.
gmake[3]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/src'
gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/src'
Making install in doc
gmake[2]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/doc'
gmake[3]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/doc'
gmake[3]: Nothing to be done for `install-exec-am'.
/bin/sh /usr/ports/ftp/wget/work/wget-1.13.4/build-aux/install-sh -d /usr/local/ etc
/bin/sh /usr/ports/ftp/wget/work/wget-1.13.4/build-aux/install-sh -d /usr/local/ man/man1
install -o root -g wheel -m 444 wget.1 /usr/local/man/man1/wget.1
test -z "/usr/local/info" || ../build-aux/install-sh -c -d "/usr/local/info"
install -o root -g wheel -m 444 ./wget.info '/usr/local/info'
install-info --info-dir='/usr/local/info' '/usr/local/info/wget.info'
gmake[3]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/doc'
gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/doc'
Making install in po
gmake[2]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/po'
../build-aux/install-sh -c -d /usr/local/share
installing be.gmo as /usr/local/share/locale/be/LC_MESSAGES/wget.mo
installing bg.gmo as /usr/local/share/locale/bg/LC_MESSAGES/wget.mo
installing ca.gmo as /usr/local/share/locale/ca/LC_MESSAGES/wget.mo
installing cs.gmo as /usr/local/share/locale/cs/LC_MESSAGES/wget.mo
installing da.gmo as /usr/local/share/locale/da/LC_MESSAGES/wget.mo
installing de.gmo as /usr/local/share/locale/de/LC_MESSAGES/wget.mo
installing el.gmo as /usr/local/share/locale/el/LC_MESSAGES/wget.mo
installing en_GB.gmo as /usr/local/share/locale/en_GB/LC_MESSAGES/wget.mo
installing eo.gmo as /usr/local/share/locale/eo/LC_MESSAGES/wget.mo
installing es.gmo as /usr/local/share/locale/es/LC_MESSAGES/wget.mo
installing et.gmo as /usr/local/share/locale/et/LC_MESSAGES/wget.mo
installing eu.gmo as /usr/local/share/locale/eu/LC_MESSAGES/wget.mo
installing fi.gmo as /usr/local/share/locale/fi/LC_MESSAGES/wget.mo
installing fr.gmo as /usr/local/share/locale/fr/LC_MESSAGES/wget.mo
installing ga.gmo as /usr/local/share/locale/ga/LC_MESSAGES/wget.mo
installing gl.gmo as /usr/local/share/locale/gl/LC_MESSAGES/wget.mo
installing he.gmo as /usr/local/share/locale/he/LC_MESSAGES/wget.mo
installing hr.gmo as /usr/local/share/locale/hr/LC_MESSAGES/wget.mo
installing hu.gmo as /usr/local/share/locale/hu/LC_MESSAGES/wget.mo
installing id.gmo as /usr/local/share/locale/id/LC_MESSAGES/wget.mo
installing it.gmo as /usr/local/share/locale/it/LC_MESSAGES/wget.mo
installing ja.gmo as /usr/local/share/locale/ja/LC_MESSAGES/wget.mo
installing lt.gmo as /usr/local/share/locale/lt/LC_MESSAGES/wget.mo
installing nb.gmo as /usr/local/share/locale/nb/LC_MESSAGES/wget.mo
installing nl.gmo as /usr/local/share/locale/nl/LC_MESSAGES/wget.mo
installing pl.gmo as /usr/local/share/locale/pl/LC_MESSAGES/wget.mo
installing pt.gmo as /usr/local/share/locale/pt/LC_MESSAGES/wget.mo
installing pt_BR.gmo as /usr/local/share/locale/pt_BR/LC_MESSAGES/wget.mo
installing ro.gmo as /usr/local/share/locale/ro/LC_MESSAGES/wget.mo
installing ru.gmo as /usr/local/share/locale/ru/LC_MESSAGES/wget.mo
installing sk.gmo as /usr/local/share/locale/sk/LC_MESSAGES/wget.mo
installing sl.gmo as /usr/local/share/locale/sl/LC_MESSAGES/wget.mo
installing sr.gmo as /usr/local/share/locale/sr/LC_MESSAGES/wget.mo
installing sv.gmo as /usr/local/share/locale/sv/LC_MESSAGES/wget.mo
installing tr.gmo as /usr/local/share/locale/tr/LC_MESSAGES/wget.mo
installing uk.gmo as /usr/local/share/locale/uk/LC_MESSAGES/wget.mo
installing vi.gmo as /usr/local/share/locale/vi/LC_MESSAGES/wget.mo
installing zh_CN.gmo as /usr/local/share/locale/zh_CN/LC_MESSAGES/wget.mo
installing zh_TW.gmo as /usr/local/share/locale/zh_TW/LC_MESSAGES/wget.mo
if test "wget" = "gettext-tools"; then \
../build-aux/install-sh -c -d /usr/local/share/gettext/po; \
for file in Makefile.in.in remove-potcdate.sin quot.sed boldquot.sed en@quot.h eader en@boldquot.header insert-header.sin Rules-quot Makevars.template; do \
install -o root -g wheel -m 444 ./$file \
/usr/local/share/gettext/po/$file; \
done; \
for file in Makevars; do \
rm -f /usr/local/share/gettext/po/$file; \
done; \
else \
: ; \
fi
gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/po'
Making install in tests
gmake[2]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/tests'
gmake[3]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/tests'
gmake[3]: Nothing to be done for `install-exec-am'.
gmake[3]: Nothing to be done for `install-data-am'.
gmake[3]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/tests'
gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/tests'
Making install in util
gmake[2]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/util'
gmake[3]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4/util'
gmake[3]: Nothing to be done for `install-exec-am'.
gmake[3]: Nothing to be done for `install-data-am'.
gmake[3]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/util'
gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4/util'
gmake[2]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4'
gmake[3]: Entering directory `/usr/ports/ftp/wget/work/wget-1.13.4'
gmake[3]: Nothing to be done for `install-exec-am'.
gmake[3]: Nothing to be done for `install-data-am'.
gmake[3]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4'
gmake[2]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4'
gmake[1]: Leaving directory `/usr/ports/ftp/wget/work/wget-1.13.4'
install-info --quiet /usr/local/info/wget.info /usr/local/info/dir
===> Compressing manual pages for wget-1.13.4_1
===> Registering installation for wget-1.13.4_1
===> SECURITY REPORT:
This port has installed the following files which may act as network
servers and may therefore pose a remote security risk to the system.
/usr/local/bin/wget
If there are vulnerabilities in these programs there may be a security
risk to the system. FreeBSD makes no guarantee about the security of
ports included in the Ports Collection. Please type 'make deinstall'
to deinstall the port if this is a concern.
For more information, and contact details about the security
status of this software, see the following webpage:
http://www.gnu.org/s/wget/
===> Cleaning for wget-1.13.4_1
Cloning into '/usr/local/couchpotato'...
remote: Counting objects: 15400, done.
remote: Compressing objects: 100% (5879/5879), done.
remote: Total 15400 (delta 9815), reused 14878 (delta 9389)
Receiving objects: 100% (15400/15400), 6.52 MiB | 1.48 MiB/s, done.
Resolving deltas: 100% (9815/9815), done.
ls: /usr/local/etc/rc.d/couchpotato: No such file or directory
couchpotato 100% of 2922 B 10 MBps
couchpotato already running? (pid=1203).
Failed! Installing CouchPotato didn't finish, try again or:
Copy the text above and report an issue at the following address:
https://github.com/Mar2zz/LaSi/issues
Press a key to continue |
Sickbeard installeren geeft het volgende probleem:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
| Are you sure you want to continue and install SickBeard? [yes/no]: y ls: /usr/local/sickbeard: No such file or directory Cloning into '/usr/local/sickbeard'... remote: Counting objects: 21357, done. remote: Compressing objects: 100% (7073/7073), done. remote: Total 21357 (delta 14550), reused 19977 (delta 13345) Receiving objects: 100% (21357/21357), 7.85 MiB | 1.71 MiB/s, done. Resolving deltas: 100% (14550/14550), done. ls: /usr/local/etc/rc.d/sickbeard: No such file or directory sickbeard 100% of 2573 B 29 MBps sickbeard already running? (pid=1203). Failed! Installing SickBeard didn't finish, try again or: Copy the text above and report an issue at the following address: https://github.com/Mar2zz/LaSi/issues Press a key to continue |
Ja dat weet ik dus niet. Ik ben nog een beetje aan het spelen en installeren en heb geen zin een scrub af te starten die 2 dagen duurt. Of scubt 'ie allen de aanwezige data?FireDrunk schreef op maandag 29 oktober 2012 @ 15:39:
Hoe lang duurt ie?
Als je me zegt hoe lang een 1TB scrub ongeveer duurt kom ik er wel uit
Probeer CP eens te starten via:
1
| /usr/sbin/daemon -f -u share -p /usr/local/couchpotato/couchpotato.pid python /usr/local/couchpotato/CouchPotato.py |
Ik heb thuis opgeschreven wat ik allemaal moest doen om het geheel naar mijn wens werkend te krijgen (SABnzbd: postprocessing scripts dir was niet meegekomen, e-mail templates werkten niet. CP, LaSi installeert CP v1 ik wilde CP v2 en nog wat kleine dingen).
edit: even de switch voor draaien als ZFSguru user share toegevoegd.fluppie007 schreef op dinsdag 30 oktober 2012 @ 01:02:
Via LaSi.sh lukte SABnzbd schijnbaar wel, alleen kan ik er niet bij, dus volgens mij is het installeren helemaal niet gelukt...
Couchpotato installeren gaf volgende fouten:
[knip]
[ Voor 5% gewijzigd door Griever op 30-10-2012 08:05 ]
@CiPHER, ik heb de startpost even doorgelezen, ziet er prima uit!
[ Voor 32% gewijzigd door FireDrunk op 30-10-2012 08:34 ]
Even niets...
OT: Ben in het proces van verhuizen, dus ik ben wat minder actief, maar eens ik verhuisd ben ga ik de disks van mijn N40L terug overbouwen in mijn ESXi-server. Dus ik kom ZEKER nog even langs binnenkort!
[ Voor 74% gewijzigd door gitaarwerk op 30-10-2012 13:05 ]
Ontwikkelaar van NPM library Gleamy
Als je die niet hebt, zul je met RDM aan de slag moeten.
Even niets...
Thanks. De raid controller heb ik namelijk gecancelled. Ik dacht, prima, niet meer nodig (was een vrij prijzige ook). En dan kan ik een infiniband kaart erin gooien voor latere uitbereiding met een ander project.FireDrunk schreef op dinsdag 30 oktober 2012 @ 13:16:
Je kan je SSD's op de onboard controller hangen, en je data disks op je losse controller (als je die hebt).
Als je die niet hebt, zul je met RDM aan de slag moeten.
RDM it will be dus.
Enige wat ik lees dan nog, is of het dan wel Bad Sectors weer kan opleveren? of omzeil je juist dit met RDM?
Ontwikkelaar van NPM library Gleamy
Of je ze detecteert, hangt af van het OS wat je erop gaat draaien... In het geval van ZFS zijn er nog geen incidenten geweest dat het niet zou werken tot nu toe.
Met andere woorden, tot op heden word er nog vanuit gegaan dat RDM en ZFS samen werken.
Even niets...
M1015'tje is nu toch niet ZO duur, ok rond de 100EUR, maar dat is mijn data en comfort van mijn setup nu nog net waardgitaarwerk schreef op dinsdag 30 oktober 2012 @ 13:30:
[...]
Thanks. De raid controller heb ik namelijk gecancelled. Ik dacht, prima, niet meer nodig (was een vrij prijzige ook). En dan kan ik een infiniband kaart erin gooien voor latere uitbereiding met een ander project.
RDM it will be dus.
Enige wat ik lees dan nog, is of het dan wel Bad Sectors weer kan opleveren? of omzeil je juist dit met RDM?
Thanks!FireDrunk schreef op dinsdag 30 oktober 2012 @ 13:37:
Bad sectors staan los van je software implementatie, dat is een hardware failure.
Of je ze detecteert, hangt af van het OS wat je erop gaat draaien... In het geval van ZFS zijn er nog geen incidenten geweest dat het niet zou werken tot nu toe.
Met andere woorden, tot op heden word er nog vanuit gegaan dat RDM en ZFS samen werken.
@HyperBart,
Nou, ik heb 1 PCIe slot, en wil deze eigenlijk voor wat anders gebruiken..
Ik ben nu bezig met RDM (via ssh op esxi). Beetje helaas niet conform dit topic omdat het meer een ESXi vraag is. RDM werkt op sich okay dus, maar het zijn allen 3TB schijven... nu blijkt dus dat je niet meer dan 2TB via RDM kan doorvoeren. Is er een manier voor om dit correct te doen?
Ik zie wel dat ze via esxi gesplitst worden, en later in het OS weer aan elkaar gelijmd. Het lijkt dan wel of er een vreemde RMD gemaakt word.
Zou dit een goede manier zijn? Dus 8x 1,5 TB pakken en dan in ZFSGuru koppelen onder RAIDZ2?
Lijkt me dan wel als er dus 2 schijven uitvallen, en dat zijn wellicht precies meer dan deze "virtuele" schijven, ik die data kwijt ben?
Lijkt me dan uiteindelijk toch beter om dan een RAID kaart te kopen en de controller dan een passtrough te geven ipv RDM?
edit: Ik heb eindelijk gevonden dat de -r flag in ESXi niet werkt voor >2TB drives.. -z dus wel.
http://lime-technology.com/forum/index.php?topic=20192.0 (in comments)
[ Voor 10% gewijzigd door gitaarwerk op 30-10-2012 14:58 ]
Ontwikkelaar van NPM library Gleamy
Hooguit een HBA (Host Bus Adapter), of een controller waarvan je zeker weet dat hij IT-mode (Initiator-Target) kan draaien. Zoals een LSI3081E of een IBM M1015. Deze worden nog wel eens als RAID controllers verkocht, maar zijn eigenlijk maar hele simpele Host Bus Adapters die door middel van wat smerige firmware, RAID0 en RAID1 kunnen doen.
Even niets...
DuidelijkFireDrunk schreef op dinsdag 30 oktober 2012 @ 18:07:
Even voor de duidelijkheid, voor ZFS moet je *NOOIT* een RAID kaart kopen....
Hooguit een HBA (Host Bus Adapter), of een controller waarvan je zeker weet dat hij IT-mode (Initiator-Target) kan draaien. Zoals een LSI3081E of een IBM M1015. Deze worden nog wel eens als RAID controllers verkocht, maar zijn eigenlijk maar hele simpele Host Bus Adapters die door middel van wat smerige firmware, RAID0 en RAID1 kunnen doen.
even afgezien daarvan... ik heb op mijn onboard controller wel in raidmodus geschakeld in de bios. De handleiding schreef mij voor dit te gebruiken om zo te hotswappen. Hoe zit dit dan? Ik bedoel.. moet je dus wel raid modus gebruiken voor hot swap? of is gewoon AHCI genoeg?
RDM is overigens niet gelukt.. blijkbaar kan ESXi de bestanden niet locken, of zijn ze al gelocked (er is weinig ondersteuning voor aangezien het officieel niet ondersteund wordt op deze manier)
[ Voor 4% gewijzigd door gitaarwerk op 30-10-2012 19:34 ]
Ontwikkelaar van NPM library Gleamy
Als je geen Windows gebruikt, dient je chipset controller op AHCI ingeschakeld te zijn en niet op RAID. RAID mode wil zeggen Windows-only drivers - onboard RAID is immers driverRAID. Onder non-Windows OS werkt het mogelijk wel in RAID modus, maar ik raad dat af. Je hebt er niets aan en het kan problemen geven aangezien Linux en BSD ook hun eigen 'fakeRAID' engine hebben om chipset/onboard RAID metadata uit te lezen en na te bootsen. Dit wil je echter niet; alleen als je een Windows + Linux desktop systeem combineert bijvoorbeeld.
Las het net (voel me steeds minder wetend eigenlijk zo..Verwijderd schreef op dinsdag 30 oktober 2012 @ 19:36:
IBM M1015 is een LSI SAS controller met twee keer een Mini-SAS connector op de controller. Zo'n Mini-SAS connector kan 4 schijven voeden met een breakout kabel die zich in 4x SATA stekkertjes splitst. Met twee van die kabels sluit je dus 8 SATA schijven aan via twee kabels die elk in 4 SATA stekkers splitsen. Het is dus in feite een 8-poort controller.
Thanks... dus zet ik hem gewoon terug weer. \blijft nu nog het problemen over of ik dus toch nog een extra hba moet kopen..of toch een iets van RDM te kunnen hacken. Heeft een van jullie hier ervaring mee? (of er moet een infiniband interfacekaart zijn met daarop nog een raid controller voor intern gebruik.. maar dat lijkt me een beetje onwaarschijnlijkAls je geen Windows gebruikt, dient je chipset controller op AHCI ingeschakeld te zijn en niet op RAID. RAID mode wil zeggen Windows-only drivers - onboard RAID is immers driverRAID. Onder non-Windows OS werkt het mogelijk wel in RAID modus, maar ik raad dat af. Je hebt er niets aan en het kan problemen geven aangezien Linux en BSD ook hun eigen 'fakeRAID' engine hebben om chipset/onboard RAID metadata uit te lezen en na te bootsen. Dit wil je echter niet; alleen als je een Windows + Linux desktop systeem combineert bijvoorbeeld.
[ Voor 5% gewijzigd door gitaarwerk op 30-10-2012 19:46 ]
Ontwikkelaar van NPM library Gleamy
SmartOS (http://smartos.org/) ziet er op het eerste gezicht echt geweldig uit, maar de Solaris/Illumos gebaseerde OSen zijn nog wat beperkt in de KVM mogelijkheden (EPT CPU nodig, dus geen AMD of CPU zonder EPT, tenzij je zelf de code van buiten de standaard source gaat compilen https://github.com/jclulow/illumos-kvm). Waarbij ik geen idee heb hoe goed dit werkt.
En de implementatie van ZFS onder Linux lijkt ook nog niet helemaal optimaal.
Heeft iemand hier een goede tip/suggestie?
Ik heb vaak zat met RDM gewerkt, wat wil je weten?
@aaahaaap,
QEMU op FreeBSD is niet echt stabiel (word niet echt onderhouden...), en alleen QEMU zonder QEMU-KVM is ook nog eens traag, omdat je geen hardware acceleratie hebt. Dus geen VT-x, geen Nested Paging, en geen SVM.
Als je wil virtualiseren is KVM wel mogelijk, maar de management tools voor KVM (en dus niet voor QEMU) zijn bar slecht voor FreeBSD. KVM op FreeBSD is in principe functioneel, alleen zijn een heel aantal kernel optimalisaties die Linux wel heeft, in FreeBSD niet aanwezig, waardoor de performance stukken slechter is.
Misschien kan je beter een kaal Linux OS draaien met KVM en ZFSguru virtualiseren door de je controller via VT-d door te geven. KVM heeft VirtIO, en ZFSGuru kan hier prima mee omgaan. Dus je performance is in principe prima. Nadeel is wel, dat ZFS iets langzamer word door de virtualisatie penalty, maar dat is niet echt super veel.
Even niets...
ZoL draait bij mij prima. Moet je wel zelf je server willen optuigen en ondehouden.En de implementatie van ZFS onder Linux lijkt ook nog niet helemaal optimaal.
Heeft iemand hier een goede tip/suggestie?
- 1 voor nzbget, sickbeard, couchpotato en (nu nog) samba
- 1 voor webserver
- 1 voor devven
- 1 voor te klooien (teamspeak draait hier bijv op)
Maar wel met de mogelijkheid dit gemakkelijk uit te breiden hoe ik wil. Een nieuwe VM + disk is slechts een paar commando's invoeren.
CLI vind ik geen probleem, eerder een voordeel, alhoewel een webui ook wel handig is.
Is QEMU niet heel erg traag? (in vergelijking met KVM/Xen)
Met andere woorden, je hebt heel veel context switches, en dat is traag.
Xen is wel weer een ander verhaal, dat is een custom kernel, met custom userland tooling.
Hoe Xen samengaat met ZFS heb ik (en volgens mij nog niemand hier) getest.
Even niets...
Ik wilde de 3TB dus RDM-en, maar met de limiten krijg ik ook weer gezeur. Ik ga dus toch gewoon maar een extra HBC nemen. De serverraid m1015 is betaalbaar.FireDrunk schreef op dinsdag 30 oktober 2012 @ 22:06:
@gitaarwerk,
Ik heb vaak zat met RDM gewerkt, wat wil je weten?
Vraag is alleen of deze dan snel genoeg is? (deze gaat of voor de SSD's, of voor de passtrough). het is namelijk wel 150, gene 300 of 600... nu zullen de WD-RED schijven niet enorm snel zijn, maar ik haal wel graag een beetje snelheid met ZFS dus
Ontwikkelaar van NPM library Gleamy
Even niets...
Ah, perfect,.. (vraag me af waarom ik dan een SATA150 zie staan bij de specsFireDrunk schreef op woensdag 31 oktober 2012 @ 11:05:
Die M1015 is een SAS2.0/SATAIII controller (6Gbps dus)
Prima om daar dus de SSD's op te zetten, en dan onboard te houden voor de 3TB drives.
Ontwikkelaar van NPM library Gleamy
Even niets...
Gaan we wel beetje off-topc, maar hoezo opstarttijd? in principe maakt mij die opstarttijd niet zoveel uit,... hij moet toch 24/7 blijven draaien zometeen. (ESXi wordt gestart vanaf een USB drive).FireDrunk schreef op woensdag 31 oktober 2012 @ 11:11:
Ik zou het andersom doen.... Dan flash je de M1015 zonder BIOS, scheelt je opstarttijd.
Ik heb overigens geen ervaring met het flashen van dit soort kaarten. Ik lees op Hardforum aardig wat mensen die LSI firmware flashen op deze kaart. Dus ik heb hier totaal geen kaas van gegeten.
Ontwikkelaar van NPM library Gleamy
Als je een BIOS flasht, kan je van de kaart opstarten, maar moet tijdens de boot dat ding even ratelen om de devices te detecteren enzo.
Zonder BIOS hoeft dat niet, en start de kaart iets sneller door.
Even niets...
Ik draai zelf thuis met OpenIndiana, en VirtualBox daarop. KVM was niet echt een optie, omdat ik AMD cpu's heb. Heb wel OpenIndiana en KVM op dikke intel-machines gedraaid, en dat draait ook wel stabiel, maar er zijn geen tools om het makkelijk te managen, en geen libvirt.aaahaaap schreef op dinsdag 30 oktober 2012 @ 21:26:
Ik zit een beetje te twijfelen tussen een ZFS oplossing of LVM+MDADM voor m'n storage + VM server. Probleempunt is dat ik VM's gebruik (via KVM, waarin ik voornamelijk Linux guests draai) en het lastig blijkt om dit te combineren met een ZFS host.
SmartOS (http://smartos.org/) ziet er op het eerste gezicht echt geweldig uit, maar de Solaris/Illumos gebaseerde OSen zijn nog wat beperkt in de KVM mogelijkheden (EPT CPU nodig, dus geen AMD of CPU zonder EPT, tenzij je zelf de code van buiten de standaard source gaat compilen https://github.com/jclulow/illumos-kvm). Waarbij ik geen idee heb hoe goed dit werkt.
En de implementatie van ZFS onder Linux lijkt ook nog niet helemaal optimaal.
Heeft iemand hier een goede tip/suggestie?
VirtualBox werkt best goed, en voordeel voor mij is dat ik het ook op mijn laptop gebruik, en migraties van VM's is dan echt geen probleem. GUI voor management is ook netjes, en eventueel is er een project voor een web-gui voor virtualbox. En de documentatie is erg goed, installatie ook erg simpel.
TL;DR: Go VirtualBox
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Dat is nog wel een mogelijkheid om te proberen. Ik zal het eens installeren op mn testserver. Virtualbox kun je wel gewoon headless draaien toch? (meen me wat console commando's te herinneren)u_nix_we_all schreef op woensdag 31 oktober 2012 @ 14:13:
[...]
Ik draai zelf thuis met OpenIndiana, en VirtualBox daarop. KVM was niet echt een optie, omdat ik AMD cpu's heb. Heb wel OpenIndiana en KVM op dikke intel-machines gedraaid, en dat draait ook wel stabiel, maar er zijn geen tools om het makkelijk te managen, en geen libvirt.
VirtualBox werkt best goed, en voordeel voor mij is dat ik het ook op mijn laptop gebruik, en migraties van VM's is dan echt geen probleem. GUI voor management is ook netjes, en eventueel is er een project voor een web-gui voor virtualbox. En de documentatie is erg goed, installatie ook erg simpel.
TL;DR: Go VirtualBox
Wat gebruik je als HDD in de VM's?
Andere optie is denk ik nog FreeBSD/ZFSGuru, heeft iemand ervaring daarmee icm virtualisatie?
Voor de rest zit er vooral veel in de koker: Xen dom0 support voor FreeBSD 10 en BHyVe virtualisatie klinkt allemaal erg stoer maar zal nog wel een jaar duren voordat dat écht werkt. Alhoewel Xen dom0 misschien wel dit najaar al bruikbaar is; wie weet!
Mijn OI-servertje draait ook headless. Ik heb wel eerst een complete install met GUI gedaan dus niet de text-installer. Maar daarna alleen via VNC een remote desktop, daarmee kan ik bij de standaard GUI van VirtualBox.aaahaaap schreef op woensdag 31 oktober 2012 @ 14:19:
[...]
Dat is nog wel een mogelijkheid om te proberen. Ik zal het eens installeren op mn testserver. Virtualbox kun je wel gewoon headless draaien toch? (meen me wat console commando's te herinneren)
Wat gebruik je als HDD in de VM's?
Andere optie is denk ik nog FreeBSD/ZFSGuru, heeft iemand ervaring daarmee icm virtualisatie?
Er is echter ook VBoxHeadless, daarmee kun je vanaf de CLI je VM starten, beheren kan met VBoxManage. En als je helemaal geen gui of vnc wilt hebben op je headless servertje, maar wel een web-gui, kun je phpvirtualbox proberen.
Voor je VM HDD's kun je kiezen, of diskimages (.vdi) op een gewoon zfs filesystem, maar ook zvol blockdevices aan je VM geven is mogelijk.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Je wilt toch juist wel VNC hebben op Headless? Dat werkt in elk geval goed met ZFSguru die wat aanpassingen heeft; omdat phpVirtualBox standaard enkel RDP ondersteunt en geen VNC.En als je helemaal geen gui of vnc wilt hebben op je headless servertje, maar wel een web-gui, kun je phpvirtualbox proberen.
Je wilt wel een remote desktop naar je VM's hebben ja, en of dat dan VNC of RDP is, maakt in principe niet zoveel uit. VirtualBox ondersteunt geloof ik nog geen VNC, tenzij je zelf uit source compileert, maar RDP werkt wel goed.Verwijderd schreef op woensdag 31 oktober 2012 @ 14:55:
[...]
Je wilt toch juist wel VNC hebben op Headless? Dat werkt in elk geval goed met ZFSguru die wat aanpassingen heeft; omdat phpVirtualBox standaard enkel RDP ondersteunt en geen VNC.
Ik bedoel eigenlijk dat je geen gui op je server/hypervisor nodig hebt om VM's te kunnen draaien.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Even niets...
Voor je virtualbox VM's werkt RDP out-of-the box, daar hoef je niet veel voor te doen. En met remmina (of de oudere tsclient) zijn er ook zat opensource clients te vinden.FireDrunk schreef op woensdag 31 oktober 2012 @ 15:24:
Andersom, VNC werkt goed, RDP is windows only.
Ja, ik prefereer ook VNC, maar RDP is best bruikbaar hoor, ook als je niets met windows hebt
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Dus RDP is niet bruikbaar; alleen VNC is bruikbaar. Daarvoor moet je ook nog hacks uitvoeren want phpVirtualBox ondersteunt alleen RDP en geen VNC. Dus op BSD platform heb je normaliter helemaal geen video output; geen RDP en geen VNC. Alleen met workarounds kun je VNC krijgen; RDP zal nooit gaan werken totdat Oracle ook voor BSD een expansion pack maakt.
Als bovenstaande niet klopt, hoor ik dat graag, want dat is dan nieuw voor mij.
Even niets...
Onder solaris werkt het wel. Je hebt gelijk dat je dan het expansion pack moet installeren, maar ik ging er even vanuit dat een thuisserver onder "personal use" valt. Het is vanuit de management-gui van virtualbox te installeren, en is platform onafhankelijk. Tenminste, de extpack download is voor "all platforms", maar misschien zitten er toch binaries in voor alleen ondersteunde platforms.Verwijderd schreef op woensdag 31 oktober 2012 @ 15:53:
VirtualBox ondersteunt alleen RDP als je het proprietary expansion pack hebt geïnstalleerd; zonder dat ondersteunt VirtualBox alleen VNC en geen RDP. Dat betekent dat RDP sowieso niet werkt op FreeBSD en ik denk ook niet onder Solaris platform? Wel onder Linux verwacht ik.
Klopt allemaal, maar ik denk dat onze definities van "bruikbaar" verschillen:Dus RDP is niet bruikbaar; alleen VNC is bruikbaar. Daarvoor moet je ook nog hacks uitvoeren want phpVirtualBox ondersteunt alleen RDP en geen VNC. Dus op BSD platform heb je normaliter helemaal geen video output; geen RDP en geen VNC. Alleen met workarounds kun je VNC krijgen; RDP zal nooit gaan werken totdat Oracle ook voor BSD een expansion pack maakt.
Als bovenstaande niet klopt, hoor ik dat graag, want dat is dan nieuw voor mij.
Een setup waarbij je de CLI gebruikt om VirtualBox VM's te starten (met VNC-support gecompileerd) en een aparte vnc-viewer, is omslachtig, maar voor sommige mensen best bruikbaar.
Een setup met phpVirtualBox erbij, zodat je een gui om machines te stoppen/starten/aan te maken/configureren hebt, is ook zonder die RDP support alweer een stuk bruikbaarder. Je moet alleen nog steeds met een aparte viewer naar je VM's console (en lets be honest, de meeste embedded java viewers voor VNC/RDP zijn toch redelijk beperkt (en traag) t.o.v een echte client, dus die client gebruik ik evengoed wel).
Een setup zoals hierboven, met directe toegang tot je console (vnc support in phpvirtualbox wordt aan gewerkt zag ik) is helemaal compleet.
Is het nu bruikbaar voor gepackagede installatie op een (compleet opensource) NAS met als target-audience een niet zo technische eindgebruiker ? Maybe not.
Is het bruikbaar voor een tweaker die z'n VM's wil kunnen draaien ? Lijkt me toch wel ...
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Dat klopt maar dat is overigens niet waar ik op doelde. Ik doelde op phpVirtualBox + VNC support. Dat werkt bij ZFSguru out of the box, door je VMs een naam als 'Ubuntu;5900' te geven, het getal is de VNC poort zonder authenticatie.Een setup waarbij je de CLI gebruikt om VirtualBox VM's te starten (met VNC-support gecompileerd) en een aparte vnc-viewer, is omslachtig, maar voor sommige mensen best bruikbaar.
Je kunt natuurlijk wel als je VM eenmaal draait een applicatie-level VNC server installeren wat vaak beter werkt. Maar je wilt toch je OS kunnen installeren en op 'de monitor' kunnen kijken en een toetenbord kunnen bedienen. Dat toch minimaal. Nadeel van VNC is wel dat er geen geluid overheen kan, bij RDP is dat volgens mij wel zo?
Ik heb het volgende draaien:
1 x een ESXI host, CPU I7, 32GB
ESXi boot vanaf een USB device.
1e VM met Nexenta op een SDD geinstalleerd. Nexenta heeft een vmdk van 8GB, (SDD=VMFS5)
2e VM Windows 7 met een 70GB VMDK.
Daar naast had ik een 5GB van de SDD aan ESX toegewezen als Cachedrive.
De rest van de SDD zo'n 25GB heb ik in Nexenta aan mijn volume als cache drive toegewezen.
Mijn volume bestaat uit twee maal een 2 TB mirror, die ik middels RDM heb toegewezen + de bovengenoemde cache drive.
Werkt op zich goed, ware het niet, dat ik de laatste dagen al enkele keren te maken kreeg met een SDD die niet meer te benaderen was. En de volgende melding in ESX te zien kreeg.
Device or filesystem with identifier device_ID has entered All Paths Down state.
Als ik vervolgens het systeem opnieuw opstart werkt alles weer. Nu vraag ik me het volgende af, kan dit te maken hebben met het feit, dat er een lock op de disk geplaatst word?
Wie kan mij hier meer over vertellen, en dan vraag ik me tevens af, of ik de vrije ruimte van de SDD aan ESX als cache moet wijzen, of aan NEXENTA, of kan in een gedeelte aan ESX, en een gedeelte aan NEXENTA toewijzen, zoals ik het momenteel hebt draaien
( waarschijnlijk niet, want nu gaat het regelmatig fout).
Zou graag wat suggesties van jullie ontvangen.
Ja, het is een RDP protocol met speciale uitbreidingen om ook geluid en ik geloof zelfs USB tussen je lokale en remote desktop te kunnen doen.Verwijderd schreef op woensdag 31 oktober 2012 @ 17:03:
[...]
Dat klopt maar dat is overigens niet waar ik op doelde. Ik doelde op phpVirtualBox + VNC support. Dat werkt bij ZFSguru out of the box, door je VMs een naam als 'Ubuntu;5900' te geven, het getal is de VNC poort zonder authenticatie.
Je kunt natuurlijk wel als je VM eenmaal draait een applicatie-level VNC server installeren wat vaak beter werkt. Maar je wilt toch je OS kunnen installeren en op 'de monitor' kunnen kijken en een toetenbord kunnen bedienen. Dat toch minimaal. Nadeel van VNC is wel dat er geen geluid overheen kan, bij RDP is dat volgens mij wel zo?
En ja, toegang tot die console is zeker wel nodig voor installatie/troubleshooting etc. Maar vanaf het moment dat de VM start (vanaf je virtuele bios) kun je net zo goed met een losse vncclient erbij als met een client die in phpvirtualbox draait.
Ik vind nog steeds zowel de java RDP client in phpvirtualbox, als bijv. de java VNC client die cloudmin (webmin frontend voor KVM) gebruikt echt niet fijn werken, als ik echt aan de gang moet, pak ik al een losse client erbij. Tuurlijk, heel handig om meteen bij de console van je net aangemaakte VM te kunnen, maar niet zaligmakend IMHO.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Dit stukje snap ik dus niet, want ik ken geen VNC client die in phpVirtualBox draait. Alleen RDP en dat werkt niet op BSD platform. Dus dat betekent dat phpVirtualBox geen video output geeft behalve dat minischermpje wat eens per seconde een screenshot afgeeft. Je hebt dus altijd een VNC client nodig om uberhaupt iets te kunnen zien, en dat werkt alleen door workarounds samen met phpVirtualBox zoals ZFSguru dat heeft geintegreerd. Maar je hebt daarbij dus wel een losse VNC client nodig.Maar vanaf het moment dat de VM start (vanaf je virtuele bios) kun je net zo goed met een losse vncclient erbij als met een client die in phpvirtualbox draait.
Snappen we elkaar zo beter?
Ja daar was ik niet helemaal duidelijk. Ik bedoel, stel dat phpvirtualbox die client wel zou hebben ...Verwijderd schreef op woensdag 31 oktober 2012 @ 17:21:
[...]
Dit stukje snap ik dus niet, want ik ken geen VNC client die in phpVirtualBox draait. Alleen RDP en dat werkt niet op BSD platform.
Volgens mij praten we nog steeds een beetje langs elkaar heenDus dat betekent dat phpVirtualBox geen video output geeft behalve dat minischermpje wat eens per seconde een screenshot afgeeft. Je hebt dus altijd een VNC client nodig om uberhaupt iets te kunnen zien, en dat werkt alleen door workarounds samen met phpVirtualBox zoals ZFSguru dat heeft geintegreerd. Maar je hebt daarbij dus wel een losse VNC client nodig.
Snappen we elkaar zo beter?
Mijn punt is dat de VNC-poort voor de console van je VM beschikbaar is, ongeacht of phpvirtualbox er een client voor heeft,of wat voor workarounds dan ook dat staat namelijk helemaal los van elkaar. Zodra je VM start, biedt VirtualBox een VNC poort aan om connectie te kunnen maken met je console.
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
ZFSguru heeft daarom twee services: virtualbox en X-virtualbox. Die laatste is inclusief qt4 management client of console of frontend of hoe je het wilt noemen. Ik snap alleen niet zo snel wat de relatie met VNC is in jouw verhaal. Je zegt dat die client intern VNC gebruikt om de videodata te krijgen? Bij het commando VBoxHeadless moet je in elk geval zelf een VNC poort opgeven, en zonder dat heb je denk ik geen VNC toegang. VirtualBox moet ook speciaal met VNC support zijn gecompileerd althans er is een optie voor die je kunt enablen voor de FreeBSD port ervan.
Ik heb nog niet het gevoel dat we elkaar goed begrijpen.
Met "de console" bedoel ik het (virtuele) scherm en toetsenbord / muis van de VM. Ik denk daar wat verwarring ontstaan is.Verwijderd schreef op woensdag 31 oktober 2012 @ 17:47:
Wat bedoel je precies met 'console'? De Qt-client of GTK-client zoals VirtualBox onder Windows draait zeg maar? Dat is dus niet beschikbaar voor systemen die zonder grafische schil draaien.
ZFSguru heeft daarom twee services: virtualbox en X-virtualbox. Die laatste is inclusief qt4 management client of console of frontend of hoe je het wilt noemen. Ik snap alleen niet zo snel wat de relatie met VNC is in jouw verhaal. Je zegt dat die client intern VNC gebruikt om de videodata te krijgen? Bij het commando VBoxHeadless moet je in elk geval zelf een VNC poort opgeven, en zonder dat heb je denk ik geen VNC toegang. VirtualBox moet ook speciaal met VNC support zijn gecompileerd althans er is een optie voor die je kunt enablen voor de FreeBSD port ervan.
Ik heb nog niet het gevoel dat we elkaar goed begrijpen.
Edit .....
Laat ik nog eens proberen samen te vatten wat ik probeerde te zeggen:
Het ontbreken van vnc-support in phpvirtualbox is IMHO geen groot probleem omdat je elke willekeurige vncclient kunt gebruiken. Je mist geen mogelijkheden of functionaliteit daardoor. Het is nogsteeds een bruikbare virtualisatie-omgeving.
Toch ?
[ Voor 13% gewijzigd door u_nix_we_all op 31-10-2012 19:44 ]
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Even niets...
De SDD is een ADATA 120GB DISKVerwijderd schreef op woensdag 31 oktober 2012 @ 17:14:
Begin met vertellen wat voor SSD je gebruikt? Een 'slechte' SSD kan inderdaad veel problemen veroorzaken; corruptie, lange timeouts en andere problemen. Met een goede SSD is de kans daarop veel kleiner, maar ook niet afwezig. Kan ook een ander probleem zijn bijvoorbeeld ESXi specifiek, daar kan ik je dan weer niet bij helpen.
Momenteel ben ik aan het testen, door de ESXi cache te verwijderen,
en het verplaatsen van de windows 7 VM naar een andere disk.
Ik hoop dat ik je goed begrijp, maar je hebt dus een SSD met over de gehele grootte een VMFS5 partitie erop. Daarop staan 2 VMDK's, 1 van 8GB voor Nexenta's boot partitie, en 1 voor Nexenta om als Cache drive te gebruiken voor je ZFS mirror.Goudduif schreef op woensdag 31 oktober 2012 @ 17:05:
Foute configuratie?
Ik heb het volgende draaien:
1 x een ESXI host, CPU I7, 32GB
ESXi boot vanaf een USB device.
1e VM met Nexenta op een SDD geinstalleerd. Nexenta heeft een vmdk van 8GB, (SDD=VMFS5)
2e VM Windows 7 met een 70GB VMDK.
Daar naast had ik een 5GB van de SDD aan ESX toegewezen als Cachedrive.
De rest van de SDD zo'n 25GB heb ik in Nexenta aan mijn volume als cache drive toegewezen.
Mijn volume bestaat uit twee maal een 2 TB mirror, die ik middels RDM heb toegewezen + de bovengenoemde cache drive.
Werkt op zich goed, ware het niet, dat ik de laatste dagen al enkele keren te maken kreeg met een SDD die niet meer te benaderen was. En de volgende melding in ESX te zien kreeg.
Device or filesystem with identifier device_ID has entered All Paths Down state.
Als ik vervolgens het systeem opnieuw opstart werkt alles weer. Nu vraag ik me het volgende af, kan dit te maken hebben met het feit, dat er een lock op de disk geplaatst word?
Wie kan mij hier meer over vertellen, en dan vraag ik me tevens af, of ik de vrije ruimte van de SDD aan ESX als cache moet wijzen, of aan NEXENTA, of kan in een gedeelte aan ESX, en een gedeelte aan NEXENTA toewijzen, zoals ik het momenteel hebt draaien
( waarschijnlijk niet, want nu gaat het regelmatig fout).
Zou graag wat suggesties van jullie ontvangen.
Oh wacht, nu lees ik even opnieuw, je geeft de 'resterende' 5GB aan ESXi als Cach drive?
Volgens mij mag een SSD niet en als datastore, en als cache drive functioneren.
Het is of/of volgens mij...
[ Voor 7% gewijzigd door FireDrunk op 01-11-2012 09:44 ]
Even niets...
Voor welke SSD zou ik dan beter kunnen gaan?Verwijderd schreef op donderdag 01 november 2012 @ 09:26:
Een Sandforce SSD dus. Dan heb je een redelijke kans op corruptie en andere problemen, dus dat zou je oorzaak kunnen zijn.
Het is toch zo dat ik minimaal een VMFS moet hebben, om NEXENTA op te draaien?Moet je de SSD wel op VMFS draaien of kun je de storage ook op je storage-VM halen? Dat zou dan veiliger zijn omdat ook deze opslag dan met ZFS is beveiligd.
ESXi en een SSD is of VMFS, of met RDM werken en met maar 1 VM op de SSD schrijven.
Even niets...
[ Voor 83% gewijzigd door Verwijderd op 01-11-2012 16:57 . Reden: CiPHER: onnodige quote verwijderd ]
New: beta8 web-interface, 9.1-004 system image and graphical services
Je kan natuurlijk in bovenstaande thread reageren, maar reacties zijn hier ook welkom. Wie denkt de grafische services te gaan gebruiken?
Ik ben alvast heel benieuwd naar de prestaties!
Hoeveel geheugen heeft deze proprietary software nodig? Want dan kan ik het eens uit testen in VirtualBox in mijn open source OSVerwijderd schreef op donderdag 01 november 2012 @ 22:46:
Er is een nieuwe ZFSguru release beschikbaar: beta8 en ook een nieuwe systeemversie op basis van FreeBSD 9.1-RC3. Inclusief grafische services en natuurlijk nieuwe LiveCD.![]()
New: beta8 web-interface, 9.1-004 system image and graphical services
Je kan natuurlijk in bovenstaande thread reageren, maar reacties zijn hier ook welkom. Wie denkt de grafische services te gaan gebruiken?
Ja maar ik denk niet dat dat verstandig is, in het geval van een power failure is er toch weinig bescherming tegen data corruptie... VMFS5 is goed, maar niet zó goed volgens mij...Goudduif schreef op donderdag 01 november 2012 @ 15:55:
Als ik nu de Windows7 VM van de SDD verwijdert, kan ik dan die ruimte gebruiken, door twee VMDK's aan te maken? één voor cache en één voor de log?
Even niets...
Het systeem staat achter een UPS. Maar stel in het ergste geval dat het systeem in een keer uit zou vallen, of dat de SDD het opeens begeeft. Dan verlies ik dus de cache en de log, maar als ik me goed ingelezen hebt, betekend dit dat ik maar enkele minuten data kwijt zou kunnen raken. Dat zou namelijk acceptable zijn. Je moet er natuurlijk niet aan denken dat je een risico loopt, dat je gehele ZFS corrupt raakt, en je zodoende je data niet meer kan benaderen.FireDrunk schreef op vrijdag 02 november 2012 @ 07:56:
[...]
Ja maar ik denk niet dat dat verstandig is, in het geval van een power failure is er toch weinig bescherming tegen data corruptie... VMFS5 is goed, maar niet zó goed volgens mij...
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.