Need more data. We want your specs. Ik ben ook maar dom. anders: forum, ff reggen, ff topic maken
En als je een oplossing hebt gevonden laat het ook ujb ff in dit topic horen.
Na afloop van de herinstall is het mij gelukt de bestaande pool opnieuw te importeren via de web gui.
Op de pool \tank was echter een ook een dataset media en een dataset ftp aangemaakt, beide zijn nog wel aanwezig op \tank, maar zijn niet zichtbaar binnen de Freenas webgui.
Ik heb mij een ongeluk gezocht naar het juist commandline commando om deze opnieuw te importeren.
Heeft iemand enig idee of er ergens een howto te vinden is waarin dergelijke commando's terugkomen?
Wellicht dat deze url ook in de startpost kan worden opgenomen.
server: DUAL 1800+mp 3x80gb raid 5 +2x40+1x10 2 x 300gb maxtor HD, Nvidia Gforce3 128MB DDR
Heb je zpool status en zfs list commando's gebruikt om te kijken wat voor filesystems je hebt? Wat heb je al geprobeerd en wat lukt er precies niet?
In Freenas is het vanuit de webinterface mogelijk om datasets aan te maken, waarop quotas gezet kunnen worden.
In mijn eerste Freenas installatie zijn 2 datasets aangemaakt (media en ftp), beide datasets zijn nog wel aanwezig in de pool, wanneer ik een nieuwe dataset probeer aan te maken met de naam media, dan krijg ik een foutmelding (zie screenshot)
http://imageshack.us/phot...enasdatasetwiththesa.jpg/
Wanneer ik ZFS list doe, dan krijg ik:
Name | Used | AVAIL | REFER | MOUNTPOINT |
tank | ||||
tank/ftp | ||||
tank/media |
Binnen de webinterface krijg ik echter alleen het /mnt/tank te zien, eventuele windowsshares kan ik dan ook alleen maar rechtstreeks op /mnt/tank maken, en niet op /mnt/tank/media of /mnt/tank/media
Nog een bijkomend nadeel is, dat ik binnen windows in de explorer van de nieuwe media share enkel nog te zien krijg, dat er 5,22TB van de 5,22TB vrije ruimte is, terwijl er binnen deze share ongeveer 8 TB aan data aanwezig is.
Vanuit de Freenas webinterface is het niet mogelijk om de genoemde datasets opnieuw te importeren, zodat deze zichtbaar worden, en dus ook weer beheerd kunnen worden.
Vanuit de commandline zou dit wel mogelijk moeten zijn, maar kan het commando hiervoor niet terugvinden.
[ Voor 10% gewijzigd door BOUBOU op 22-06-2011 20:27 ]
server: DUAL 1800+mp 3x80gb raid 5 +2x40+1x10 2 x 300gb maxtor HD, Nvidia Gforce3 128MB DDR
Het begrip dataset bestaat niet in ZFS, wat jij bedoelt zijn ZFS filesystems. Je hebt een hoofdfilesystem (tank) en twee filesystems daarin genaamd ftp en media. Om te zien waar die gemount zijn moet je de zfs list output bekijken; kun je die pasten ergens? Daarbij heb ik het over command line output, niet wat je in FreeNAS web-interface ziet. Het commando is heel simpel: zfs list
Het kan zijn dat de filesystems niet gemount zijn, of op een andere plek. Dat kun je in de zfs list output zien.
Hoezo is dat een nadeel? Als je bestanden op een ander filesystem binnen dezelfde pool hebt staan, heb je niet de volledige 8TB als vrije ruimte; dat lijkt mij heel erg logisch? Als jij iets minder dan 3TB in een of ander filesystem hebt staan, is die ruimte niet beschikbaar voor andere filesystems. Alle vrije ruimte wordt gedeeld met alle filesystems op dezelfde pool (tank in jouw geval).Nog een bijkomend nadeel is, dat ik binnen windows in de explorer van de nieuwe media share enkel nog te zien krijg, dat er 5,22TB van de 5,22TB vrije ruimte is, terwijl er binnen deze share ongeveer 8 TB aan data aanwezig is.
Importeren doe je alleen met pools, niet met filesystems. Als je pool niet is geïmporteerd, dan zie je die ook niet in de zfs list output.
Als je het screenshot goed bekijk, dan zie je dat er binnen Freenas wel degelijk gesproken wordt over datasets, vandaar mijn referentie naar 'dataset'Anoniem: 15758 schreef op woensdag 22 juni 2011 @ 20:53:
Als er al een tank/media filesystem bestaat, kun je niet een nieuw filesystem met dezelfde naam aanmaken; anders zou opeens je oude filesystem weg zijn inclusief alle data. Dit is dus volkomen logisch.
Het begrip dataset bestaat niet in ZFS, wat jij bedoelt zijn ZFS filesystems. Je hebt een hoofdfilesystem (tank) en twee filesystems daarin genaamd ftp en media. Om te zien waar die gemount zijn moet je de zfs list output bekijken; kun je die pasten ergens? Daarbij heb ik het over command line output, niet wat je in FreeNAS web-interface ziet. Het commando is heel simpel: zfs list
Het kan zijn dat de filesystems niet gemount zijn, of op een andere plek. Dat kun je in de zfs list output zien.
In de tabel hierboven heb ik de output van 'zfs list' geplaats, hier is te zien, dat ik de volgende mountpoints heb in mijn pool.
tank
tank/ftp
tank/media
Vanuit Freenas kan ik helaas geen output pasten.
[...]
Het is mij bekend dat alle vrije ruimte wordt gedeeld, er verwacht in de windows share echter wel te kunnen zien wat de totale grote van de tank is.Hoezo is dat een nadeel? Als je bestanden op een ander filesystem binnen dezelfde pool hebt staan, heb je niet de volledige 8TB als vrije ruimte; dat lijkt mij heel erg logisch? Als jij iets minder dan 3TB in een of ander filesystem hebt staan, is die ruimte niet beschikbaar voor andere filesystems. Alle vrije ruimte wordt gedeeld met alle filesystems op dezelfde pool (tank in jouw geval).
het commando zfs list geeft de volgende informatie:
Tank
Used 8,36T
Available 5,23T
Totaal is dit 13,9T
Nu heb ik vanuit de Freenas gui een windows share gemaakt met de naam media, deze is koppeld aan Tank.
Wat ik nu verwacht te zien in windows is 5,23TB free of 13,9TB, 13,9TB is immers de totale grote van Tank
Wat ik nu zie is 5,23TB free of 5,23TB
Wanneer ik de share media open, dan kom ik hier de map media tegen, met daarin 8TB aan data
8,36TB + 5,23TB is volgens mijn rekenmachine 13,9TB, en niet 5,23TB
Aangezien Tank, Tank/media en Tank/ftp alle 3 getoond worden in de zfs list output, betekend dat deze wel zijn geïmporteerd, ik zie deze dus niet terug binnen de webinterface van FreeNas.Importeren doe je alleen met pools, niet met filesystems. Als je pool niet is geïmporteerd, dan zie je die ook niet in de zfs list output.
Ik hoop dat het nu duidelijker is.
server: DUAL 1800+mp 3x80gb raid 5 +2x40+1x10 2 x 300gb maxtor HD, Nvidia Gforce3 128MB DDR
M.b.t. je gebruik van schijfruimte het volgende:
Tank: 5TB totaal
Media: 1TB gebruikt
FTP: 1TB gebruikt
Als je nu in je tank pool benaderd via bijv. samba dan zie je dat er totaal 3TB beschikbaar is. De rest is immers als gebruikt in je andere filesystems en dus niet meer beschikbaar voor je tank pool. Vergelijk het met een beschrijfbare CD. Aangezien er na het schrijven geen ruimte meer is om aanvullende data toe te voegen, geeft windows niet de volledige grootte van de CD weer maar de totale grootte van de beschreven ruimte. Zodra je ergens in je pool bestanden verwijderd zodat je Media filesystem opeens 0,5TB wordt, dan zie je deze ruimte automatisch weer bij je pool groot toegevoegd worden.
Ik denk dat je er gewoon aan moet zullen wennen dat je gewoon andere informatie voor handen hebt dan dat je gewend bent.
________________________
Wat je zou kunnen doen als je via Samba werkt (getest onder Solaris 11) is een custom script te schrijven die bepaald hoe Samba de share grootte moet bepalen:
- Maak een apart scriptje met de volgende inhoud in bijv. /usr/bin/smbdiskspace
1
2
3
4
5
6
| #!/bin/bash used=`/usr/sbin/zfs get -Hp used $1 | awk '{print $3}'`; avail=`/usr/sbin/zfs get -Hp available $1 | awk '{print $3}'`; total=$(($avail+$used)); print "$total $avail\n"; |
- Voeg de volgende code toe aan je personal shares in je smb.conf. In jouw geval bijv. onder media
1
2
| [media] dfree command = /usr/sbin/smbdiskspace tank/media |
[ Voor 20% gewijzigd door CurlyMo op 22-06-2011 23:59 . Reden: Samba optie toegevoegd ]
Sinds de 2 dagen regel reageer ik hier niet meer
Aha; maar dat vind ik verwarrend aangezien deze terminologie in ZFS zelf niet wordt gebruikt. De juist benaming is ZFS filesystems; elk filesystem heeft zijn eigen attributen en staat los van andere filesystems. Filesystems lijken gewoon directories vanuit Samba (CIFS).BOUBOU schreef op woensdag 22 juni 2011 @ 22:01:
[...]
Als je het screenshot goed bekijk, dan zie je dat er binnen Freenas wel degelijk gesproken wordt over datasets, vandaar mijn referentie naar 'dataset'
Nee daar staan alleen je filesystems, niet je mountpoints. Mountpoints beginnen met een /.In de tabel hierboven heb ik de output van 'zfs list' geplaats, hier is te zien, dat ik de volgende mountpoints heb in mijn pool.
Voorbeeld:
1
| tank/nfs/archives 30K 751.7G 30K /tank/nfs/archives |
Als je SSH login instelt kun je heel makkelijk output pasten. Als je SSH nog nooit hebt gebruikt, kleine tip: download PuTTY (google).Vanuit Freenas kan ik helaas geen output pasten.
Dat klopt, maar de grootte van 'tank' neemt af zodra andere filesystems gevuld worden. Als media en ftp samen 90% van de vrije ruimte in gebruik hebben, zal 'tank' laten zien dat de totale grootte 10% is met eigen gebruik 1% en dus 9% vrije ruimte, waarbij 100% de maximale grootte is (13,9TiB in jouw geval). tank zal dus in grootte afnemen zodra andere filesystems gevuld worden. Dit gedrag is verwarrend voor mensen die het begrip ZFS filesystems nog niet zo kennen. Maar speel er wat mee en het wordt je vast wel duidelijk.Het is mij bekend dat alle vrije ruimte wordt gedeeld, er verwacht in de windows share echter wel te kunnen zien wat de totale grote van de tank is.
Importeren werkt alleen op hele pools. Wel kan het zijn dat de overige filesystems niet gemount zijn. Daarom vroeg ik om de zfs list output, zodat je dit kunt zien.Aangezien Tank, Tank/media en Tank/ftp alle 3 getoond worden in de zfs list output, betekend dat deze wel zijn geïmporteerd
Oh en dat scriptje hierboven is erg handig! Als je dat onder FreeBSD/FreeNAS wilt gebruiken moet je hem als volgt gebruiken:
1
2
3
4
5
6
| #!/usr/local/bin/bash used=`/sbin/zfs get -Hp used $1 | awk '{print $3}'`; avail=`/sbin/zfs get -Hp available $1 | awk '{print $3}'`; total=$(($avail+$used)); print "$total $avail\n"; |
[ Voor 7% gewijzigd door Anoniem: 15758 op 22-06-2011 23:54 . Reden: scriptje toegevoegd ]
DESCRIPTION The zfs command configures ZFS datasets within a ZFS storage pool, as described in zpool(1M). A dataset is identified by a unique path within the ZFS namespace. For example: pool/{filesystem,volume,snapshot} where the maximum length of a dataset name is MAXNAMELEN (256 bytes). A dataset can be one of the following: file system A ZFS dataset of type filesystem can be mounted within the standard system namespace and behaves like other file systems. While ZFS file systems are designed to be POSIX compliant, known issues exist that prevent compli- ance in some cases. Applications that depend on stan- dards conformance might fail due to nonstandard behavior when checking file system free space. volume A logical volume exported as a raw or block device. This type of dataset should only be used under special cir- cumstances. File systems are typically used in most environments. snapshot A read-only version of a file system or volume at a given point in time. It is specified as filesystem@name or volume@name.
De term dataset heb ik echter in zfs/zpool output nog niet voorbij zien komen. Maar het klinkt logisch; een dataset is de verzameling aan filesystems, zvols en snapshots in een pool.
Echter als je volumes had gehad in plaats van filesystems, was het logisch dat die niet gemount waren, omdat die dan in /dev/zvol/<volumenaam> worden geplaatst. Dus het lijkt me beter om het over filesystems te hebben.
@TS: heb je al wat meer informatie over de mountpoints, is SSH login gelukt?
Als dit niet lukt, dan ga ik een poging wagen met Putty/SSH
Het probleem met de ontbrekende datasets heb ik voorlopig maar even omzeild, door een nieuwe dataset aan te maken, welke dus wel vanuit Freenas te beheren is, en alle data dmv. het cp command, over te kopieeren naar vanuit de oude dataset, naar de nieuwe.
Dit ging met ongeveer 266mb p/s.
Is dit een gangbare snelheid voor een 10 x 2TB RaidZ2 setup op basis van een Supermicro X8ST3-F icm. een Xeon X3440?
server: DUAL 1800+mp 3x80gb raid 5 +2x40+1x10 2 x 300gb maxtor HD, Nvidia Gforce3 128MB DDR
Even niets...
Even niets...
Ik heb zelf zfs-fuse niet getest, maar in plaats daarvan er zijn ook native kernel modules beschikbaar die ook prima onder Squeeze werken: https://launchpad.net/~dajhorn/+archive/zfsmagistus schreef op vrijdag 24 juni 2011 @ 14:58:
...
Iemand ervaring met zfs-fuse (0.6.9-1, ik zit enigzins vast aan Debian Squeeze AMD64) of kan ik beter virtueel (ik kan mijn HBA met pci passthrough aan een KVM-virtual aanbieden) iets anders gaan draaien?
Dit zal waarschijnlijk beter werken dan fuse, maar nog steeds niet zo snel als op een (Open)Solaris/OpenIndiana/Nexenta (en misschien *BSD?).
In mijn zoektocht naar een nette oplossing heb ik o.a. naar deze packages gekeken maar deze kreeg ik op dat moment niet netjes aan de praat. Ik kan me ook herinneren dat er oorspronkelijk letterlijk een melding stond dat de maverick packages prima onder squeeze zouden moeten werken, maar tegen de tijd dat ik ging pielen was deze opmerking verdwenen en was het resultaat niet best. Volgens mij liep ik tegen een bug in dkms aan oid waarbij de versienummering van de modules problemen gaf. Gezien het feit dat zfs-fuse gewoon in Debian Stable zit, leek dit mij momenteel de netste keuze, vandaar het huidige ideeMicr0mega schreef op vrijdag 24 juni 2011 @ 16:06:
[...]
Ik heb zelf zfs-fuse niet getest, maar in plaats daarvan er zijn ook native kernel modules beschikbaar die ook prima onder Squeeze werken: https://launchpad.net/~dajhorn/+archive/zfs
Dit zal waarschijnlijk beter werken dan fuse, maar nog steeds niet zo snel als op een (Open)Solaris/OpenIndiana/Nexenta (en misschien *BSD?).
Maar ik zou zeggen, test het lekker in een VM op je desktop, met eventueel één (of een paar) van de disks aangesloten op de VM. Zo heb ik het gedaan, icm VMware Player.
Ik heb per categorie een nieuwe dataset aangemaakt, vervolgens heb ik alles vanuit de dataset media via scp over gekopieerd naar de nieuwe datasets, en heb ik de dataset media verwijderd. Doordat de windows shares nu weer rechtstreeks op de dataset gekoppeld is, worden in Windows nu ook weer de juiste waarden getoond bij totaal gebruikte en beschikbare ruimte.
Zie onderstaande resulaat.
1
2
3
4
5
6
7
8
9
10
11
| freenas# zfs list NAME USED AVAIL REFER MOUNTPOINT tank 8.31T 5.28T 49.3M /mnt/tank tank/Foto 4.17G 5.28T 4.16G /mnt/tank/Foto tank/MP3 174G 5.28T 174G /mnt/tank/MP3 tank/beveiligingscamera 5.53T 5.28T 5.53T /mnt/tank/beveiligingscamera tank/MusicVideo 12.6G 5.28T 12.6G /mnt/tank/MusicVideo tank/opgenomen_tvshows 2.60T 5.28T 2.60T /mnt/tank/TVShows tank/backup 804K 5.28T 274K /mnt/tank/backup tank/backup/fotoclone-auto-20110624.0900-2w 530K 5.28T 4.16G /mnt/tank/backup/fotoclone-auto-20110624.0900-2w tank/ftp 686K 5.28T 686K /mnt/tank/ftp |
Allen bedankt voor het meedenken.
server: DUAL 1800+mp 3x80gb raid 5 +2x40+1x10 2 x 300gb maxtor HD, Nvidia Gforce3 128MB DDR
Anoniem: 187449
sliimme oplossingBOUBOU schreef op vrijdag 24 juni 2011 @ 23:06:
Doordat het niet mogelijk was om het beheer van /tank/media terug te krijgen in de gui van Freenas, heb ik de volgende workarround uitgevoerd.
Ik heb per categorie een nieuwe dataset aangemaakt, vervolgens heb ik alles vanuit de dataset media via scp over gekopieerd naar de nieuwe datasets, en heb ik de dataset media verwijderd. Doordat de windows shares nu weer rechtstreeks op de dataset gekoppeld is, worden in Windows nu ook weer de juiste waarden getoond bij totaal gebruikte en beschikbare ruimte.
Zie onderstaande resulaat.
code:
1 2 3 4 5 6 7 8 9 10 11 freenas# zfs list NAME USED AVAIL REFER MOUNTPOINT tank 8.31T 5.28T 49.3M /mnt/tank tank/Foto 4.17G 5.28T 4.16G /mnt/tank/Foto tank/MP3 174G 5.28T 174G /mnt/tank/MP3 tank/beveiligingscamera 5.53T 5.28T 5.53T /mnt/tank/beveiligingscamera tank/MusicVideo 12.6G 5.28T 12.6G /mnt/tank/MusicVideo tank/opgenomen_tvshows 2.60T 5.28T 2.60T /mnt/tank/TVShows tank/backup 804K 5.28T 274K /mnt/tank/backup tank/backup/fotoclone-auto-20110624.0900-2w 530K 5.28T 4.16G /mnt/tank/backup/fotoclone-auto-20110624.0900-2w tank/ftp 686K 5.28T 686K /mnt/tank/ftp
Allen bedankt voor het meedenken.
Anoniem: 187449
tja achteraf is alles makkelijk ....Micr0mega schreef op zaterdag 25 juni 2011 @ 11:33:
Slimmer, en leuker, was het geweest als hij 'zfs send' en 'zfs receive' had gebruiktGoogle maar eens naar 'zfs replication', zijn interessante commando's en dan weet je meteen weer waarom ZFS zo mooi is.
[ Voor 6% gewijzigd door Anoniem: 187449 op 25-06-2011 11:57 ]
Ik zie de voordelen niet zo van lokale replicatie, replicatie tussen 2 verschillende locaties daarintegen weer wel, ik heb helaas niet de mogelijkheid om dit in te richten, behalve dan eventueel de mogelijkheid via VMware en passthrough een installatie van Freenas uit te zetten, met daaronder een ZFS mirror van 2 x 1 TB voor backup.Micr0mega schreef op zaterdag 25 juni 2011 @ 11:33:
Slimmer, en leuker, was het geweest als hij 'zfs send' en 'zfs receive' had gebruiktGoogle maar eens naar 'zfs replication', zijn interessante commando's en dan weet je meteen weer waarom ZFS zo mooi is.
Ziet iemand van jullie wel de voordelen om binnen één pool 2 locaties te repliceren?
server: DUAL 1800+mp 3x80gb raid 5 +2x40+1x10 2 x 300gb maxtor HD, Nvidia Gforce3 128MB DDR
Dus ik aan de slag:
1
2
3
| # pfexec pkg set-publisher --non-sticky opensolaris.org pkg set-publisher: Certificate '/home/vargo/Downloads/OpenSolaris_extras.certificate.pem' for publisher 'extra' needed to access 'https://pkg.sun.com/opensolaris/extra/', has expired. Please install a valid certificate. |
Dan maar even vernieuwen dacht ik, maar WTF! Je kan helemaal geen certificaten meer krijgen!?
Bovenstaande link leidt tot een forbidden en ook andere referenties leiden tot een dood spoor.
Ben bang dat dat dus openindiana from scratch installeren wordt? Of iemand een idee om alsnog aan nieuwe certificaten te komen / dit te omzeilen?
Ik vrees dat je dus een clean install moet uitvoeren.
[ Voor 58% gewijzigd door Anoniem: 15758 op 25-06-2011 16:09 ]
Ik ben het eens met de voordelen, maar om 'echte kopie' van een pool te maken is een 2e pool op dezelfde server, of een 2e pool op een 2e server noodzakelijk, deze heb ik momenteel (nog) niet beschikbaar.Anoniem: 15758 schreef op zaterdag 25 juni 2011 @ 15:58:
Lokaal != binnen één pool. Je kunt met zfs send/receive bijvoorbeeld een echte kopie van een pool maken. Dat is wat anders dan bestanden kopiëren. Met zfs send/receive worden ook alle filesystems en diens attributen en snapshots overgezet. Dat kun je nergens anders mee dan met de send/receive functionaliteit.
Zijn er nog voordelen te bedenken van replicatie tussen 2 ZFS datasets binnen dezelfde pool?
server: DUAL 1800+mp 3x80gb raid 5 +2x40+1x10 2 x 300gb maxtor HD, Nvidia Gforce3 128MB DDR
Send / Receive gebruik je voor het saven en restoren van snapshots. Dit kan handig zijn als je bijv een omgeving hebt waarbij je later nog eens een restore wilt doen naar een bepaalde snapshot, zonder de originele dataset terug te rollen. Het gaat hierbij wel echt om het online brengen van die dataset, want als je simpelweg een bestand wil hebben van dat moment kan je onder .snapshot dit bestand gewoon oproepen.BOUBOU schreef op zaterdag 25 juni 2011 @ 16:48:
[...]
Ik ben het eens met de voordelen, maar om 'echte kopie' van een pool te maken is een 2e pool op dezelfde server, of een 2e pool op een 2e server noodzakelijk, deze heb ik momenteel (nog) niet beschikbaar.
Zijn er nog voordelen te bedenken van replicatie tussen 2 ZFS datasets binnen dezelfde pool?
[ Voor 33% gewijzigd door vargo op 26-06-2011 10:58 ]
Met diezelfde query + performance kom je ook gelijk tegen waarom je dat niet moet doen...Micr0mega schreef op zaterdag 25 juni 2011 @ 11:33:
Slimmer, en leuker, was het geweest als hij 'zfs send' en 'zfs receive' had gebruiktGoogle maar eens naar 'zfs replication', zijn interessante commando's en dan weet je meteen weer waarom ZFS zo mooi is.
Steun Elkaar, Kopieer Nederlands Waar!
Voor degenen die de time slider niet kennen: hiermee kan je in de file browser van solaris/openindiana via een slider terug gaan in de tijd (op basis van de aanwezige snapshots).
Het lijkt me dus superhandig als je dit vanaf je client kan doen op je NAS share (dus vanuit windows explorer / mac finder etc).
Wat je zou kunnen proberen is het volgende (intikken in google) "samba shadow copy zfs". Ik zeg proberen aangezien het mij nooit gelukt is. Je kan dus samba je snapshot directory laten gebruiken voor je windows shadow copy functionaliteit. Dat is het dichtste dat je bij een 'time slider' functionaliteit kan komen in Windows.vargo schreef op zondag 26 juni 2011 @ 11:07:
Weet iemand of er ooit een initiatief gestart is om de time slider beschikbaar te maken over bv NFS / CIFS / AFS?
Voor degenen die de time slider niet kennen: hiermee kan je in de file browser van solaris/openindiana via een slider terug gaan in de tijd (op basis van de aanwezige snapshots).
Het lijkt me dus superhandig als je dit vanaf je client kan doen op je NAS share (dus vanuit windows explorer / mac finder etc).
Je snapshots moeten natuurlijk wel op een vast moment aangemaakt worden met een bepaalde naam (anders heeft zo'n time slider natuurlijk ook geen zin).
Voor MAC moet het ook vast wel kunnen maar dat heb ik nooit geprobeerd.
Sinds de 2 dagen regel reageer ik hier niet meer
dan krijg je in windows de mogelijkheid om gebruik te maken van previous versions. werkt zeer goed
Als ik de volgende manier gebruik, wat volgens mij de juiste is:
1
| zpool attach -f syspool c2t0d0s0 c1t0d0s0 |
Krijg ik de volgende melding;
1
| cannot attach c1t0d0s0 to c2t0d0s0: no such pool or dataset |
Wat ik raar vind want syspool bestaat toch echt....
Misschien komt het omdat deze schijf de mirror schijf was van deze mirror, die nu een single disk vdev is geworden
Overigens wou ik een andere schijf in de pool gooien maar dan zegt hij:
1
| cannot label 'c4d1': EFI labeled devices are not supported on root pools. |
Oke, ik snap er niks meer van

Volgens mij is het commando als volgt:Splendid schreef op maandag 27 juni 2011 @ 23:20:
Crap! Ik heb 'per ongeluk' mijn mirror schijf van mijn syspool gedetached en ik krijg hem met geen mogelijkheid meer terug in de syspool!
Als ik de volgende manier gebruik, wat volgens mij de juiste is:
code:
1 zpool attach -f syspool c2t0d0s0 c1t0d0s0
Krijg ik de volgende melding;
code:
1 cannot attach c1t0d0s0 to c2t0d0s0: no such pool or dataset
Wat ik raar vind want syspool bestaat toch echt....
1
| zpool attach -f syspool c1t0d0s0 |
Waarom wil je labels maken. Je kan toch gewoon je rauwe disk aan je mirror toevoegen.Misschien komt het omdat deze schijf de mirror schijf was van deze mirror, die nu een single disk vdev is gewordenHoe krijg ik die schijf nu terug.
Overigens wou ik een andere schijf in de pool gooien maar dan zegt hij:
code:
1 cannot label 'c4d1': EFI labeled devices are not supported on root pools.
Oke, ik snap er niks meer van
Sinds de 2 dagen regel reageer ik hier niet meer
Nee commando klopt wel, anders krijg ik:CurlyMo schreef op maandag 27 juni 2011 @ 23:27:
[...]
Volgens mij is het commando als volgt:
code:
1 zpool attach -f syspool c1t0d0s0
[...]
Waarom wil je labels maken. Je kan toch gewoon je rauwe disk aan je mirror toevoegen.
1
2
3
| missing <new_device> specification usage: attach [-f] <pool> <device> <new-device> |
En ik label niks, ik doe exact hetzelfde maar dan met een andere schijf en dan krijg ik die error. Dus met 2 schijven exact hetzelfde proberen en 2 verschillende errors krijgen...zucht
M.b.t. de labels bedoel ik dat je nu je schijven in je dataset hebt zitten aan de hand van je eerste slice, c1t0d0s0. Je kan je schijven ook toevoegen aan de hand van de hele disk, dus onafhankelijk van je slices, c1t0d0. Waarom doe je het tweede niet / of heb je dat niet gedaan?
Sinds de 2 dagen regel reageer ik hier niet meer
Ja ik had gelezen dat je dat moest doen, dus dat doe ik dan netjesCurlyMo schreef op maandag 27 juni 2011 @ 23:33:
Terwijl je toch de error krijgt dat die je c2t0d0s0 schijf als de pool of dataset interpreteerd.
M.b.t. de labels bedoel ik dat je nu je schijven in je dataset hebt zitten aan de hand van je eerste slice, c1t0d0s0. Je kan je schijven ook toevoegen aan de hand van de hele disk, dus onafhankelijk van je slices, c1t0d0. Waarom doe je het tweede niet / of heb je dat niet gedaan?
Sinds de 2 dagen regel reageer ik hier niet meer
Ja ook allemaal al geprobeerd.CurlyMo schreef op maandag 27 juni 2011 @ 23:41:
Heb je dat label al verwijderd van je schijf via format -e?
Wat ik nog wel vond is de volgende command om dit eventueel te omzeilen:
1
| prtvtoc /dev/rdsk/c2t0d0s0 | fmthard -s - /dev/rdsk/c1t0d0s0 |
Maar ik heb geen idee wat dit voor gevolgen heeft voor mijn pool...ben niet bekend met de prtvtoc commando...
http://dd-b.net/ddbcms/20...a-solaris-efi-disk-label/
Sinds de 2 dagen regel reageer ik hier niet meer
Jeuh het werkt! Wel op de nieuwe schijf, maar dat is goed want ik wou de oude swappen voor de nieuwe. Thanks for the link!CurlyMo schreef op maandag 27 juni 2011 @ 23:51:
Dan blijf je toch weer via slices werken? Zo ja, dit al geprobeerd:
http://dd-b.net/ddbcms/20...a-solaris-efi-disk-label/
Ik gebruik zelf al een geruime tijd rdiff-backup.wallyberk schreef op woensdag 29 juni 2011 @ 16:54:
Is er een mogelijkheid om naast de zfs-send / zfs-receive een echt backup te kunnen maken van je pool. De zfs-send / zfs-receive lijkt meer als een replication, dan een backup. Ik zou een tool willen zien waarmee ik ook bijvoorbeeld incrementele backups zou kunnen maken.
Sinds de 2 dagen regel reageer ik hier niet meer
Je kunt het zo simpel en zo gek maken als je zelf wilt.
Als je stil blijft staan, komt de hoek wel naar jou toe.
Met de snapshot ga je terug naar een bepaalde rsync-sessie (/staat van de harde schijf op een moment). Dat kan met rdiff-backup ook. Maar rdiff-backup heeft daarboven op (en als primaire functie) dat je naar een revisie van een bestand terug kunt gaan. Dat is sneller dan door middel van snapshots zoeken naar een bepaalde revisie, of er moet inmiddels iets slims zijn om dat boven tafel te krijgen uit snapshots.
Windows 7 | --> | Solaris 11 |
8KB (default) | 252Mb/s | 125KB (default) |
16KB | 559Mb/s | 125KB |
32KB | 800Mb/s | 125KB |
64KB | 1.08Gb/s | 125KB |
Windows 7 | <-- | Solaris 11 |
8KB (default) | 1001Mb/s | 48KB (default) |
64KB | 1009Mb/s | 125KB |
Zoals te zien in de tabel is er een aanzienlijk verschil in doorvoersnelheid wanneer er in Windows van een grotere tcp window size gebruik gemaakt wordt. Is er een manier om deze de default tcp window size van windows op 64KB te zetten of op andere manieren de doorvoersnelheden te halen die volgens iperf wél mogelijk zijn?
[ Voor 3% gewijzigd door CurlyMo op 01-07-2011 10:11 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Niet zelf geprobeerd:schreef op vrijdag 01 juli 2011 @ 10:09:
Is er een manier om deze de default tcp window size van windows op 64KB te zetten of op andere manieren de doorvoersnelheden te halen die volgens iperf wél mogelijk zijn?
Description of Windows 2000 and Windows Server 2003 TCP Features
Ik schat zo in dat je de windows 2003 optie moet gebruiken. Zelf patch ik dit soort settings bewust niet om op mijn ontwikkel machine dezelfde default settings te hebben als op andere machines waar men niet met deze settings heeft gevarieerd.Click Start, click Run, type Regedit, and then click OK.
Expand the registry subkey specific to your version of Windows:
For Windows 2000, expand the following subkey:
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\Tcpip\Parameters\Interfaces
For Windows Server 2003, expand the following subkey:
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\Tcpip\Parameters
On the Edit menu, point to New, and then click DWORD Value.
Type TcpWindowSize in the New Value box, and thne press Enter
Click Modify on the Edit menu.
Type the desired window size in the Value data box.
Note. The valid range for window size is 0-0x3FFFC000 Hexadecimal.
Need more data. We want your specs. Ik ben ook maar dom. anders: forum, ff reggen, ff topic maken
En als je een oplossing hebt gevonden laat het ook ujb ff in dit topic horen.
Sinds de 2 dagen regel reageer ik hier niet meer
Bij vista heeft het ook nog te maken met Autotuningschreef op vrijdag 01 juli 2011 @ 11:48:
Wanneer ik deze settings toepas blijft de standaard iperf TCP window size op 8Kbyte staan.
Need more data. We want your specs. Ik ben ook maar dom. anders: forum, ff reggen, ff topic maken
En als je een oplossing hebt gevonden laat het ook ujb ff in dit topic horen.
Sinds de 2 dagen regel reageer ik hier niet meer
Kijk anders even hier
EDIT: Oke aanpassen helpt dus ook niet? Doen je problemen zich echt alleen voor tussen Windows en Solaris? Een Windows naar Windows netwerk haalt wel de te verwachten snelheid?
Maar dan nog zou eigenlijk client side tuning niet zo hard nodig moeten zijn, mijn clients lezen en schrijven van en naar de open indiana test machine met ruim 100MBps zonder client side tuning. Dit is natuurlijk wel met grote sequentiele reads en writes.
[ Voor 42% gewijzigd door dutch_warrior op 01-07-2011 12:07 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Welke bekabeling en switch gebruik je, ik kon zo snel niet terug vinden of dit al eens ter sprake is gekomen maar waarschijnlijk wel aangezien je probleem aan de post historie te zien al wat langer loopt
weet iemand hoe het zit met de performance van native zfs onder ubuntu? de benchmarks die ik kan vinden zijn namelijk al wat ouder.
eigenlijk hoef ik alleen maar mijn gigabit lijntje vol te trekken, meer niet
Windows naar Windows gaat in ieder geval beter. Ik weet niet of ik dan de lijn vol trek. Kan ik binnenkort wel even testen.dutch_warrior schreef op vrijdag 01 juli 2011 @ 12:53:
Maar de windows naar windows performance binnen het netwerk is wel goed?
Welke bekabeling en switch gebruik je, ik kon zo snel niet terug vinden of dit al eens ter sprake is gekomen maar waarschijnlijk wel aangezien je probleem aan de post historie te zien al wat langer loopt.
Sinds de 2 dagen regel reageer ik hier niet meer
Anoniem: 187449
Mean Time Between Failures is Misleading
[ Voor 34% gewijzigd door Anoniem: 187449 op 04-07-2011 10:10 ]
Ik weet niet zeker of dit nu een reactie is op mijn probleem maar ik ga er in mijn antwoord maar even vanuit.
Na het downloaden van het scriptje blijkt maar 1 procent in de ghost sectie te vallen waardoor ik de conclusie zou kunnen trekken dat een SSD niet écht nodig is.
Sinds de 2 dagen regel reageer ik hier niet meer
Ik heb nog even naar mijn Windows --> Windows tests gekeken maar het blijkt dat ik geen derde gigabit capable systeem heb. Mijn desktop en mijn NAS zijn de enige twee. Zal proberen een systeem te regelen met gigabit adapter zodat ik op die manier kan kijken of misschien één van de systemen de bottleneck is. Als niemand andere ideeën heeft, kom ik zodra ik die tests heb gedaan weer bij jullie terug met de resultaten.CurlyMo schreef op vrijdag 01 juli 2011 @ 18:35:
[...]
Windows naar Windows gaat in ieder geval beter. Ik weet niet of ik dan de lijn vol trek. Kan ik binnenkort wel even testen.
Sinds de 2 dagen regel reageer ik hier niet meer
http://constantin.glez.de...flash-memory-ssds-and-zfs
Everything is better with Bluetooth
Een paar posts terug staat precies dezelfde linkjeanj schreef op woensdag 06 juli 2011 @ 13:33:
Een link voor de OP met uitleg over ZIL en LARC2 en hoe dit met een SSD te realiseren
http://constantin.glez.de...flash-memory-ssds-and-zfs

Sinds de 2 dagen regel reageer ik hier niet meer
Langer:
Ik loop nu al een tijdje met een idee in mijn hoofd, maar ik kan maar niet inschatten of het echt lekker gaat werken: deduplicatie voor besturingssytemen.
Het lijk mij ideaal, een SSD van 120GB van Intel kunnen verantwoorden omdat je een deel inzet voor de caching van ZFS (waarbij je profiteert van de grootte van de SSD) en het restant inzet voor het besturingssysteem. Alleen vind ik het nogal zonde om alle computer te voorzien van SSDs. De kleinere versies zijn langzamer en daarnaast heb ik nog altijd het idee dat voor de meeste mensen, inclusief mijzelf, een SSD maar weinig echt van toevoeging is. Zeker als je, net als ik, alles openlaat en de computer altijd in slaapstand zet. Ik start dus bijna nooit een browser, emailclient, ..
Nu zat ik eraan te denken dat voor, bij gelijke versies van besturinggssystemen en een deel identieke software, een aanzienlijk deel van de data dubbel op de SSD zou staan. Met deduplication zou ik dat kunnen voorkomen, waardoor ik opeens op een 120GB schijf twee (of in sommige gevallen zelfs meer) meerdere besturingssystemen zou kunnen zetten. Maar krijg ik hier nog wel wat snelheid mee?
Ik kom er maar niet achter of dit lekker gaat werken en om een SSD aan te schaffen om het te testen en tijd te investeren om het lekker draaiende te krijgen kost allemaal geld, terwijl iemand misschien iets dergelijks heeft gezien, het kan berederen of de spullen heeft liggen om het eens te testen.
Als je de Intel 320 series neemt kun je hem ook voor SLOG gebruiken; dus dan kun je de SSD voor drie taken gebruiken:
1) L2ARC cache
2) SLOG buffer
3) primaire storage met deduplication (waarop je systeemdisks staan)
Als ik het project uitvoer dan neem ik zeker 16GB aan geheugen, sowieso doe ik niet al te moeilijk over extra geheugen
Anoniem: 187449
Toen alleen Oracle de controle over ZFS uitoefende, waren interoperabiliteitsproblemen eenvoudig te vermijden: bij elke nieuwe feature kreeg het schijfformaat van ZFS een nieuw versienummer. Zo introduceert ZFS 21 deduplicatie en ZFS 30 encryptie. Maar ondertussen hebben een aantal ZFS-ontwikkelaars Oracle verlaten en zich bij Illumos aangesloten, en ook de FreeBSD-ontwikkelaars focussen zich meer en meer op ZFS.
Flags in plaats van versienummers
Doordat de ontwikkeling van ZFS tegenwoordig meer gedistribueerd word ontwikkeld, is het versienummer als instrument om ondersteuning van functies aan te duiden niet meer bruikbaar. Als Oracle bijvoorbeeld een ZFS 32 uitbrengt, is het niet zeker of deze nog volledig dezelfde functies aanbiedt als Illumos ZFS 32 of FreeBSD ZFS 32. De ontwikkeling van ZFS bij die twee andere besturingssystemen gaat namelijk ook zonder Oracle verder.
Oracle is na ZFS 28 gestopt met het vrijgeven van de broncode van zijn nieuwe ontwikkelingen. Daarom heeft een groep van ZFS-ontwikkelaars het voorstel gedaan om feature flags te implementeren. Deze flags duiden de ondersteuning van specifieke functies aan, zoals een nieuw compressie-algoritme of nieuwe RAID-variant. In veel gevallen kan het besturingssysteem een ZFS-pool of -bestandssysteem nog altijd read/only benaderen als er onbekende functies aanwezig zijn. De feature flags functionaliteit wordt deze zomer ontwikkeld en in Illumos geïntegreerd.
Geheime werkgroep
Enkele maanden geleden is de ZFS-werkgroep in het geheim opgericht om alle ontwikkelaars van ZFS op verschillende besturingssystemen bij elkaar te brengen en een forum te geven om hun werk te coördineren en ideeën uit te wisselen. Tot de werkgroep behoren onder andere ontwikkelaars van Illumos/OpenIndiana, Mac OS X (Ten's Complement), FreeBSD, Linux en Solaris. Oracle, dat in de gloriejaren van OpenSolaris zowat de enige was die aan ZFS werkte, heeft ook iemand in de werkgroep, maar zal er nooit volledige controle over hebben: de meerderheid van de leden komen uit opensource-besturingssystemen.
Het doel van de ZFS-werkgroep is om samenwerking rond ZFS in de community te vergemakkelijken. De initiatiefnemers waren bezorgd dat ZFS in verschillende subcommunity's zou uiteenvallen per besturingssysteem waarop het ondersteund is. Dat zou interoperabiliteitsproblemen geven voor wie zijn gegevens in ZFS van één besturingssysteem naar een ander wil migreren.
Tot de oprichters behoren onder andere Adam Leventhal (de uitvinder van RAIDZ en één van de uitvinders van DTrace) van Delphix, Garrett D'Amore van Nexenta Systems en Matthew Ahrens van Delphix. Die laatste leidt de ZFS-werkgroep. De activiteiten van de werkgroep zijn bewust gesloten, en sommige deelnemers willen niet dat hun lidmaatschap bekend is, maar de groep zal regelmatig resultaten van besprekingen publiceren, zoals nu voor de eerste keer met het feature flags voorstel gebeurd is.
bron
Het project is dus nog niet ten einde, gelukkig. Ook heeft hij een update vrijgegeven waarin een update zit naar ZFS v28
Nu maar hopen dat hij blijft.
Had eigenlijk het idee om zelf (mee) te developen aan een NAS solution. Zodra ik tijd heb misschien maar eens praten met die Jason.
Goed plan, als je de mogelijkheid hebt om Jason helpen dan moet je daar zeker met hem over spreken.Anoniem: 15758 schreef op vrijdag 22 juli 2011 @ 00:23:
Hmm.. ben benieuwd!
Had eigenlijk het idee om zelf (mee) te developen aan een NAS solution. Zodra ik tijd heb misschien maar eens praten met die Jason.
Ik denk dat ZFS Guru qua visie en implementatie het beste bij jou past en jouw kennis zal zeker van waarde zijn voor het project.
Sowieso is ZFS Guru een project waar meerdere mensen met echte kennis van zaken actief bij betrokken moeten zijn en niet alleen Jason.
@Hierboven:
Ik draai momenteel ook Open Indiana met Napp-IT maar ik ga binnenkort toch wel switchen naar FreeBSD want dat werkt voor mij persoonlijk toch iets fijner.
[ Voor 23% gewijzigd door dutch_warrior op 23-07-2011 11:40 ]
Sinds vandaag zet ik mijn NAS ook in voor World Community Grid
Tijdens de installatie van ZFSguru heb ik voor de optie "aggressive memory tuning" gekozen, waarbij meer dan 75% van het geheugen aan ZFS wordt toegewezen. Nu is mijn (noob-)vraag: Kan andere software gebruik maken van dat geheugen wanneer ZFS het niet nodig heeft?
Dit geeft ZFSguru aan: 7.5 GiB, of which 7.2 GiB kernel memory (307.2 GiB max.)
Daar kan je best eens gelijk in hebben. FreeBSD ken ik redelijk en van dit platform heb je FreeNAS en ZFSguru. Probleem is dat FreeNAS een soort 'stripped' FreeBSD OS is waardoor je het niet eenvoudig kunt uitbreiden met andere dingen; en ZFSguru is FreeBSD + een webinterface en wat voorgeïnstalleerde meuk, maar dus nog steeds 100% compatible. Dat is iets wat mij erg trekt, omdat je dan als geavanceerde gebruiker nog steeds met het FreeBSD-gedeelte kunt werken.dutch_warrior schreef op zaterdag 23 juli 2011 @ 11:35:
Goed plan, als je de mogelijkheid hebt om Jason helpen dan moet je daar zeker met hem over spreken.
Ik denk dat ZFS Guru qua visie en implementatie het beste bij jou past en jouw kennis zal zeker van waarde zijn voor het project.
Je kunt ook zeggen: FreeNAS is een NAS OS met delen van FreeBSD OS, ZFSguru is een FreeBSD OS met een webinterface zodat het gemakkelijk als NAS is te bedienen. Dat laatste, dus een toevoeging ipv dingen wegbezuinigen, valt bij mij veel beter.
En ZFSguru kan ook dingen die FreeNAS niet kan; sommige dingen zijn best 'clever' in elkaar gezet.
Voor de survivability van een project is dat altijd beter. Toch kan het lastig zijn een klein project te runnen met meerdere mensen. Maar ik hoop dat Jason het wel oke vind als ik aan sommige delen zou werken bijvoorbeeld. Krijg er eigenlijk nu wel zin in.Sowieso is ZFS Guru een project waar meerdere mensen met echte kennis van zaken actief bij betrokken moeten zijn en niet alleen Jason.
Maar ik ga binnenkort op vakantie dus het zou al snel eind augustus/september worden dat ik daadwerkelijk iets toevoeg.
Mja, klinkt wel aardig enzo. Maar toch: vroeger scheelde het qua power niet zoveel tussen 100% idle en 100% stressed. Nu zit daar een wereld van verschil tussen. Een NAS kan idle enorm zuinig zijn en stressed enorm veel energie verbruiken. Als je zo'n programma installeert raak je de energiezuinigheid natuurlijk wel kwijt. Stel je gaat van 40watt naar 100 watt dan zit je aan 120 euro per jaar extra energiekosten. Het is dus zeker niet gratis.Kriss27 schreef op maandag 25 juli 2011 @ 00:24:
Sinds vandaag zet ik mijn NAS ook in voor World Community Grid
Nee, in principe niet. Maar hoeveel geheugen ZFS daadwerkelijk verbruikt houdt onder andere verband met hoe groot de ARC is. In je /boot/loader.conf kun je de arc_min en arc_max instellen. Je kunt kijken op welke waardes deze in je huidige loader.conf ingesteld staan. De arc_min is zeg maar het laagste verbruik en arc_max het hoogste; maar dit is niet al het gebruik van ZFS alleen van de ARC cache.Tijdens de installatie van ZFSguru heb ik voor de optie "aggressive memory tuning" gekozen, waarbij meer dan 75% van het geheugen aan ZFS wordt toegewezen. Nu is mijn (noob-)vraag: Kan andere software gebruik maken van dat geheugen wanneer ZFS het niet nodig heeft?
Je kunt ook 'top' draaien op de server (inloggen met SSH? of anders direct op de PC met monitor inloggen) dan zie je 'wired' geheugen gebruik; dat is grotendeels ZFS. Wired wil zeggen dat het niet geswapped kan/mag worden. Active = programma's (normaal maar iets van 40MB ofzo; erg laag dus!), Free = echt vrij/ongebruikt geheugen.
Het beste kun je een SWAP device ingesteld hebben; FreeBSD gebruikt die alleen als je hem echt nodig hebt. Met zoveel ruimte voor ZFS kun je af en toe die swap echt nodig hebben; anders gebeuren er vervelende dingen zoals processen die spontaan gekilled worden.
Waar zie je die 'aggressive' memory tuning eigenlijk?
Het verbruik is bij mij idle 65watt en onder load 100watt. Daar komt bij dat mijn NAS alleen van 09:00uur tot 23:00uur is ingeschakeld. Die paar euro per maand heb ik wel over voor de bijdrage aan dit project.Anoniem: 15758 schreef op maandag 25 juli 2011 @ 03:04:
Mja, klinkt wel aardig enzo. Maar toch: vroeger scheelde het qua power niet zoveel tussen 100% idle en 100% stressed. Nu zit daar een wereld van verschil tussen. Een NAS kan idle enorm zuinig zijn en stressed enorm veel energie verbruiken. Als je zo'n programma installeert raak je de energiezuinigheid natuurlijk wel kwijt. Stel je gaat van 40watt naar 100 watt dan zit je aan 120 euro per jaar extra energiekosten. Het is dus zeker niet gratis.
[...]
Waar zie je die 'aggressive' memory tuning eigenlijk?
Weet zo uit mijn hoofd niet waar dat aggresive tuning staat, zal het vanavond, wanneer ik thuis ben, even opzoeken.
De vraag over het geheugen stel ik, omdat er bij World Community Grid, projecten zijn die minimaal 1GB vrij geheugen vereisen. Mijn NAS bestaat uit een RAIDZ2 van 6x2TB Samsung F4 met 8GB geheugen. Ik denk dat ik liever al dit geheugen beschikbaar hou voor ZFS.
Je kunt in top kijken hoeveel ruimte je vrij hebt. Probeer eens lokaal iets van 100 gigabyte schrijven ofzo; en dan na een aantal minuten maximale load kijken hoeveel geheugen je echt vrij hebt. Is dat minder dan 1 gigabyte dan raad ik aan je memory tuning iets te verzachten. En sowieso: gebruik SWAP! Met ZFS ZVOL kun je heel mooi swap inschakelen. Commando's kan ik voor je opzoeken als je wilt.
ZFS heeft (neem ik aan) niet een eigen process wat daadwerkelijk 10GB geheugen in beslag neemt... Dat zou lastig zijn om dan te kunnen bepalen wanneer ZFS zijn cache moet legen t.o.v. andere programma's.
Kort door de bocht, je zou niet moeten kunnen zien hoeveel geheugen er echt gebruikt word door ZFS omdat die altijd ruzied met de rest van je systeem als het gaat om cached geheugen.
top - 13:52:11 up 23:01, 2 users, load average: 1.10, 1.06, 1.05 Tasks: 153 total, 2 running, 151 sleeping, 0 stopped, 0 zombie Cpu(s): 0.2%us, 2.4%sy, 0.0%ni, 97.3%id, 0.0%wa, 0.0%hi, 0.1%si, 0.0%st Mem: 12323416k total, 12236108k used, 87308k free, 154132k buffers Swap: 0k total, 0k used, 0k free, [b]11184404k cached[/b]
[ Voor 18% gewijzigd door FireDrunk op 25-07-2011 13:52 ]
Even niets...
Onder FreeBSD als je 16GB RAM hebt en je gebruikt UFS filesystem, en je leest een 100GB bestand, dan staat grofweg de laatste 16GB daarvan in de RAM. Je ziet dan vrijwel al het geheugen als "InAct" (inactive). Dat is gecached geheugen wat zo kan worden vrijgemaakt als een programma dat nodig heeft; je echte "Free" memory zou dan erg laag moeten zijn vaak maar een paar megabyte. Ook Windows werkt op exact deze manier, dat kun je volgen in Task Manager - Performance tab bij Physical Memory.
Maar ZFS zeker op FreeBSD is heel anders. Daar wordt kernel geheugen gebruikt; en dat zie je in de kolom Wired staan. Dit is speciaal geheugen wat niet/nooit geswapped mag worden. Het werkt minder elegant als het geheugengebruik van UFS en andere simpele filesystems. De geheugenallocator onder Solaris OS is compleet anders dan hoe ZFS onder FreeBSD werkt. Onder Solaris werkt het beter dan onder FreeBSD; zeker voor weinig RAM (onder de 6 gigabyte).
Bij foute FreeBSD geheugeninstellingen (te lage kmem) krijg je dan ook panic crashes met meldingen als: kmem_map too small. Dat is een nadeel van de manier hoe FreeBSD geheugen alloceert voor ZFS. In Solaris denk ik dat het OS en ZFS sterk zijn geïntegreerd en dat heeft zeker op dit vlak zijn voordelen.
Even niets...
Alleen voor filecache geldt wel meer geheugen betekent meer caching en dus meer performance; dus je wilt het liefst dat je filesystem al het niet-gebruikte geheugen als cache gebruikt, maar wel beschikbaar heeft als programma's het nodig hebben. Dus programma's gebruiken bijvoorbeeld 8% van je RAM en je filesystem gebruikt de overige 92%; dat is zeker voor (UNIX) servers een normale en gewenste situatie.
Het probleem is dat ZFS onder FreeBSD geheugen gebruikt wat niet zomaar teruggegeven kan worden aan de programma's als die extra RAM nodig hebben, en ook gebruikt ZFS niet al het vrije geheugen voor de ARC cache. Deze twee problemen zijn dus niet erg wenselijk; en ik hoop dat dat ooit verandert zodat de ARC cache van ZFS net als ouderwetse filesystems geheugen erg dynamisch gebruiken; alles gebruiken wat er is maar als programma's opeens 400MB nodig hebben ofzo dan ook gelijk vrij kunnen maken; dát is de gewenste situatie. Hoe het onder Solaris werkt weet ik niet precies, maar het werkt daar in elk geval wel beter dan op dit moment onder FreeBSD.
Stel je hebt een database die ingeladen word vanaf disk, dan komt de ruwe data daarna in memory van ZFS en word daarna geleverd aan de applicatie. Die gebruikt geheugen waar hij de database weer in losse tabellen in opslaat.
Op die database worden index gebouwd (at start van een database, full-table-walk) en word daar ook weer geheugen voor toegewezen.
Stel dat ZFS die ruwe database vast zou houden, en de applicatie dus geen geheugen zou krijgen om zijn database in memory te krijgen, maar swap geheugen toegewezen krijgt, zou de database toch echt substantieel trager worden.
Dit terwijl de data niet meer nodig is voor de database applicatie. ZFS doet zijn kunstje, namelijk caching, maar de applicatie heeft hier dan van te lijden...
Even niets...
Normaal als een applicatie meer geheugen wilt, snoept hij dat gewoon af van de filecache. Bij ZFS op FreeBSD werkt dat dus minder elegant; en kan een situatie zoals jij schetst dus inderdaad voorkomen. Dat ligt wel erg aan de ZFS instellingen; zo heb je arc_min en arc_max. Ik speculeer nu, maar het kan zijn dat bij memory shortage ZFS niet probeert tot de arc_max te gaan; zodat het programma toch meer geheugen krijgt. Maar hoe dan ook; het werkt heel anders dan normaal UFS waar een programma AL het geheugen van UFS kan gebruiken; als UFS 16GB RAM gebruikt dan is al dat geheugen beschikbaar voor programma's; als die dat op enig moment nodig zouden hebben. Bij ZFS werkt het minder elegant; althans onder FreeBSD.
Hoe het exact werkt, met name bij memory shortage, weet ik niet precies. Ik kan me voorstellen dat in de begindagen van ZFS op FreeBSD het stukken slechter werkt dan nu en er dus wel degelijk geprobeerd wordt de nadelen zoals geschetst te voorkomen. Maar de ideale situatie is zeker nog niet bereikt; terug naar een situatie zoals met UFS memory allocation. Nu is het bijvoorbeeld zo dat zonder tuning ZFS een heleboel geheugen gewoon niet gebruikt en dus echt als 'free' compleet ongebruikt verspild wordt. Dat is zonde want niet gebruikt geheugen is verspild geheugen. Het best is het altijd als cache te gebruiken en vrij te maken zodra programma's dat nodig hebben.
Programma RAM gebruik + filesystem cache = 100% physical RAM is dus de ideale situatie; de paar MB kernel geheugen en wat buffers uitgezonderd.
Even niets...
Anoniem: 15758 schreef op maandag 25 juli 2011 @ 03:04:
Waar zie je die 'aggressive' memory tuning eigenlijk?
Op deze afbeelding zijn de ZFS tuning opties te zien, waar je tijdens de installatieprocedure uit kunt kiezen.
Wanneer het systeem alleen gebruikt wordt door BOINC is er ongeveer 4 á 5GB vrij geheugen en tijdens het schrijven van 128GiB schommelt dit tussen 700 en 1100MB. Het is dus mogelijk om de projecten die meer geheugen vereisen mee te laten doen.Anoniem: 15758 schreef op maandag 25 juli 2011 @ 11:58:
Je kunt in top kijken hoeveel ruimte je vrij hebt. Probeer eens lokaal iets van 100 gigabyte schrijven ofzo; en dan na een aantal minuten maximale load kijken hoeveel geheugen je echt vrij hebt. Is dat minder dan 1 gigabyte dan raad ik aan je memory tuning iets te verzachten. En sowieso: gebruik SWAP! Met ZFS ZVOL kun je heel mooi swap inschakelen. Commando's kan ik voor je opzoeken als je wilt.
Met ZFSguru kan ik via de webinterface een ZVOL aanmaken. Hoe groot moet deze zijn? 1xRAM?
Hieronder de resultaten van de benchmark. Ben er zeer tevreden mee, want trek mijn gigabit lijntje mooi vol. Alleen wanneer het systeem tijdens het streamen van een bluray gaat parren/rarren dan wil de film nog wel eens gaan stotteren. Dit komt waarschijnlijk doordat het downloaden/parren/rarren op dezelfde pool gebeurt. Dit vanwege een tekort aan SATA poorten. Er komt binnenkort een LSI kaart bij met 8xSATA, zodat ik een aparte pool kan maken voor SABnzbd.
Pool : data
Read throughput : 443.9 MB/s
Write throughput: 242.7 MB/s
in plaats van de Supermicro X8SIL-F nu een:
Supermicro X9SCM-F met Intel Xeon E3-1220L Boxed
met 16gb mem. 2x KVR1333D3E9SK2/8G
had op hardforums al berichtje gezet. heb even bevestiging nodig voordat ik ga bestellen
Even niets...
En waarom niet een bordje met onboard LSI2008? Als je toch met VT-d wil werken...
http://tyan.com/product_S...=MB&pid=700&SKU=600000226
Zo eentje dus...
[ Voor 17% gewijzigd door FireDrunk op 26-07-2011 11:19 ]
Even niets...
ik heb zelf al een supermicro AOC-USAS-L8i kaartje die ik erin ga hangen. dan heb ik genoeg poortjes.
Ben ook benieuwd wat voor snelheden je haalt met dat ESXi; als je alles werkend hebt zou het misschien erg leuk zijn benchmarks te doen mét en zonder ESXi om te kijken hoeveel dat scheelt, bijvoorbeeld met een simpele sequential write (100GB) benchmark.
Even niets...
Anoniem: 77995
Na veel onderzoek neig ik er nu naar om deze acht schijven te voorzien van een RAID-Z2 bestandssysteem, met als belangrijke reden dat de opslag --zoals ik het allemaal begrijp, als ZFS noob-- op die manier hardware-onafhankelijk blijft.
Voor ik me straks vast leg, zou ik dit toch graag bevestigd krijgen...
Is het inderdaad zo dat ik de 8 schijven nu op een moederbord met 8 SATA aansluitingen kan aansluiten (GA-DS3R), maar deze config op een later moment ook kan inbouwen op een ander moederbord, welke --als voorbeeld-- gebruik maakt van een PCI-E SAS kaart die via twee SFF-8087 poorten diezelfde 8 aansluitingen levert?
Of zitten daar toch nog beperkingen aan of addertjes onder het ZFS gras?
[ Voor 4% gewijzigd door Anoniem: 77995 op 26-07-2011 20:20 ]
Een RAID controller zou met wat kunst en vliegwerk misschien ook wel werken, maar dat wil je niet...
Even niets...
Anoniem: 77995
Dat is goed nieuws, want ik vermoed dat deze setup vrij snel gaat "verhuizen".FireDrunk schreef op dinsdag 26 juli 2011 @ 20:45:
Zolang je een HBA (Host Based Adapter) gebruikt als die PCIe SAS controller, dan gaat dat prima werken.
Een RAID controller zou met wat kunst en vliegwerk misschien ook wel werken, maar dat wil je niet...
Ik ben niet helemaal zeker over de definitie van HBA; ik heb ook nog een HP Smart Array P400 RAID kaart liggen, zou ik die niet ook als 8-poorts SATA kaart kunnen gebruiken, als ik de hardware RAID niet gebruik, maar de kaart als "pass-through" inzet?
Even niets...
Voor ZFS wil je een 'echte' controller (HBA) zonder RAID functionaliteit. Passthrough of RAID0 arrays per disk is een mogelijkheid, maar kun je dus problemen krijgen zoals hierboven vermeld en in elk geval in mijn ervaring zorgt passthrough er niet voor dat het OS volledige controle heeft over de disk. Mijn Areca controller zorgte in passthrough nog steeds voor uitvallende disks; in zowel passthrough disk mode als in JBOD mode (alle disks automatisch passthrough). Kan wel zijn dat sommige controllers wel correct passthrough doen. Maar het beste is dus een 'echte' controller zonder RAID.
Populair zijn de LSI SAS controllers, bijvoorbeeld SuperMicro USAS-L8i (1068E) of de nieuwe USAS2-L8e. Die laatste doet PCI-express 2.0 en SATA/600 maar werkt niet onder alle OS. Alleen de meest recente FreeBSD ondersteunt die kaart; 8.2-RELEASE dus helaas niet. 8-STABLE inmiddels wel. Meer info kun je vinden op hardforum.
@DeKoning!: ben je je bewust van het feit dat 4K sector schijven het beste in een bepaalde configuratie kan worden gebruikt? Voor RAID-Z2 geldt dat 6 of 10 disks de beste configuratie is; veel beter dan 8 disks. Alleen met 512-byte sector schijven zoals de Hitachi 5K3000 heb je dat probleem niet. Heb je dus WD EARS of Samsung F4EG schijven, dan zou ik er 10 disks van maken in RAID-Z2. Dat is best een toffe configuratie gezien de lage redundancy overhead (weinig percentage verloren aan parity), uitstekende performance en goede bescherming. Je kunt 8 disks op een LSI controller zetten en 2 op je chipset SATA dat is geen enkel probleem.
Overweeg ook een Intel 320 SSD zodat je L2ARC en SLOG kunt gebruiken; de performance-boost die je pool tot grote hoogtes zal brengen.
Is een 40GB Intel 320 SSD hier ook geschikt voor? Deze heeft nog een schappelijke prijs, ongeveer 80 euro.Anoniem: 15758 schreef op woensdag 27 juli 2011 @ 08:54:
Overweeg ook een Intel 320 SSD zodat je L2ARC en SLOG kunt gebruiken; de performance-boost die je pool tot grote hoogtes zal brengen.
De leessnelheid van dit model is wel nog 200MB/s, alleen de schrijfsnelheid blijft niet veel van over, 45MB/s
Ik weet niet welke het belangrijkst is voor L2ARC en SLOG.
De 40GB versie is in principe prima geschikt; alleen zoals je zegt is de write snelheid erg beperkt. Dat is een beetje het nadeel van de Intel 320; lees snelheden en random I/O is allemaal prima, maar de 40GB en 80GB versies hebben een vrij beperkte sequential write. De 120GB versie is hierin veel beter en heeft een acceptabele writesnelheid.
Echter voor L2ARC hoef je alleen te kijken naar multiqueue random read performance. Alle SSDs zijn hierin goed, behalve JMicron/Toshiba omdat die geen NCQ ondersteunen. Je hebt geen SSD met supercapacitor nodig voor L2ARC; corruptie is niet erg omdat ZFS dit detecteert. Voor SLOG is het anders, daarvoor heb je wel een supercap nodig voor acceptabele betrouwbaarheid en hiervoor is de sequential en random write snelheid belangrijk.
Voor L2ARC heb je dus random read performance nodig, voor SLOG heb je alleen sequential+random write nodig. Van een SLOG wordt alleen gelezen vlak na een stroom failure of crash; verder alleen maar writes.
Anoniem: 77995
Geweldige informatie! Alles wat ik in de laatste weken heb gelezen, maar niet altijd volledig begreep - en dan als een held samengevat in een paar paragrafen. Hulde.
Ik weet nu wel wat ik ga doen
P400 verkopen, 8-poorts SAS/SATA kaartje aanschaffen en op slinkse wijze 10 HDDs het huis in smokkelen want dit is net iets meer dan ik zo even kan verantwoorden, dat was met 8 al lastig, haha!
@CiPHER goed plan om er de 320 in te zetten, maar performance is in dit geval niet nodig. Het gaat om een media-archief dus als het op 100Mbit kan streamen is het al overkill. Omdat ik er verder geen backup van ga maken is enige redundantie wel belangrijk, vandaar Z2.
[ Voor 24% gewijzigd door Anoniem: 77995 op 27-07-2011 11:24 ]
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.