Acties:
  • 0 Henk 'm!

Anoniem: 15758

Topicstarter
De drivers voor LSI 12Gbps controllers zijn ook gecommit een maand geleden ofzo. Dus genoeg leuk nieuws op BSD gebied. Ik heb overwogen om zelf een blogje te beginnen om de BSD commits kort te bespreken. Maar ik heb op veel gebieden te weinig kennis om de commits te beoordelen. En kost veel tijd; mn storageblog doe ik ook al een tijd niets aan. ;(

Nog wat nieuws: EFI boot werkt op -CURRENT met gecomprimmeerde kernel + mfsroot. Dat was de laatste barrière voor ZFSguru om USB-sticks met EFI-boot te ondersteunen. Ik heb het nu draaien en dat voelt wel gaaf!

Acties:
  • 0 Henk 'm!

  • Vaudtje
  • Registratie: April 2002
  • Niet online
Goed nieuws: het uitschakelen van APM zorgt ervoor dat de gewone power management spindown het nu doet zonder spindown service :)

In deeze zin staan drie fauten


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Topicstarter
Top! Ik zal de omschrijving aanpassen zodat dit duidelijker wordt.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
Dat moet ik ook maar eens proberen dan. Ik heb in mijn laatste server 2 pools, 1 spinned down, de ander niet. 1 zit op de 2308 chip van mainbord (+2 hdds op mainbord)
De andere pool zit op een M1015 controller (en weer 2 hdds op mainbord)

De hdd's die op het mainbord zitten gaan niet down, die op een lsi controller zitten wel. Ik moet even kijken op welke controller ze spindown gaan.

Ik heb die APM ook nog aan staan, en gebruik de spindown utility.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 03-06 19:03

FREAKJAM

"MAXIMUM"

Ben benieuwd wanneer ZFS 0.6.4 voor Linux gereleased gaat worden. Nog maar 4 issues die openstaan op dit moment.

is everything cool?


Acties:
  • 0 Henk 'm!

  • Pakjebakmeel
  • Registratie: September 2003
  • Laatst online: 07-04 07:06
Even een kleine update op het KVM en TRIM/DISCARD verhaal. ZFS ondersteund inderdaad nog geen discards, ik heb er voor gekozen om mijn SSD te gebruiken met EXT4. De data is toch maar voor testlab en ik heb goede backups. Om trim te laten functioneren moet (in tegenstelling tot eerder beweerd) de VM zelf discard doen.

1. VM verwijderd een bestand
2. VM geeft een discard aan de virtuele storage
3. KVM vertaald de blokken naar het host filesystem en geeft de discard door
4. Host filesystem discard de blokken en geeft de discard door naar fysieke storage

Om dit te laten werken moest ik hetvolgende doen:

1. VM configureren met een virtio-scsi controller, virtio-blk ondersteund de commando's (nog) niet.

code:
1
2
3
4
5
6
<disk type='file' device='disk'>
  <driver name='qemu' type='raw' cache='none' io='native' discard='unmap'/>
  <source file='/path/to/image/file'/>
  <target dev='vda' bus='scsi'/>
  <address type='drive' controller='0' bus='0' target='0' unit='0'/>
</disk>


Let op, disk hangt aan een scsi bus en ik geef de property discard='unmap'. De controller is een virtio-scsi, geen gewone ivm performance:

code:
1
<controller type='scsi' model='virtio-scsi' index='0'>


Zodra je Windows 8.1 installeert met de VirtIO drivers (niet getest met 7) zal het NTFS filesystem van de Guest discards commando's sturen. Als de host een filesystem draait zoals EXT4 en het is gemount met discard optie zal de discard naar het host filesystem doorgegeven worden.

Test:

code:
1
2
3
gentoo qemu # ll
total 9.5G
-rw-r--r-- 1 qemu qemu 100G Mar 23 08:28 roger.img


Nu een grote file naar de vm kopieeren:

code:
1
2
3
gentoo qemu # ll
total 12G
-rw-r--r-- 1 qemu qemu 100G Mar 23 08:31 roger.img


En alleen het bestand verwijderen in de VM, niets meer:

code:
1
2
3
gentoo qemu # ll
total 9.5G
-rw-r--r-- 1 qemu qemu 100G Mar 23 08:32 roger.img


Ook bewezen dat op virtio-blk of zonder discard='unmap' de ruimte op het host filesystem niet wordt vrij gegeven.

Goed discard werkt dus naar behoren. :9 Volgende waar ik tegenaan liep van was dat de performance blubber was. Schijnbaar vind virtio-scsi de CFQ scheduler niet leuk, omgezet naar deadline op de host en nu bare-metal throughput in de VM.

SSD komt morgen maar ik ben er klaar voor :-) Ik weet dat dit het ZFS topic is maar ik omdat ik hier mijn vraag initieel heb gesteld leek het mij de plek om in ieder geval mijn 'oplossing' tot mijn probleem te posten aangezien er nogal wat verwarring lijkt te zijn omtrent discard en KVM.

Zodra ZFS officieel discard ondersteunt neem ik aan dat dezelfde theorie zal werken op ZFS. (kan niet wachten).

Dank voor alle input.

Acties:
  • 0 Henk 'm!
Nice, goed om te weten!

Even niets...


Acties:
  • 0 Henk 'm!

  • Pakjebakmeel
  • Registratie: September 2003
  • Laatst online: 07-04 07:06
Klopt, wat je dus nodig hebt is:

1. VM met een OS wat TRIM ondersteund (8.1 bevestigd, 7 ongetest)
2. Drivers in de client met discard support, in dit geval de signed Red Hat VirtIO drivers v0.1-100
3. Virtuele controller met discard support, momenteel virtio-scsi de beste keuze
4. discard='unmap' optie aanbieden aan de client
5. Host filesystem met discard gemount

Ander bijkomend voordeel (ook voor als je geen SSD hebt) is dat door de discards je niet meer je virtuele HDD image hoeft te compacten en/of shrinken. Normaal wordt de disk image op de host alleen groter maar nooit kleiner; doordat de client een discard stuurt kan ook op de host de ruimte weer worden vrij gegeven.. _/-\o_

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 23:36
FREAKJAM schreef op maandag 23 maart 2015 @ 00:37:
Ben benieuwd wanneer ZFS 0.6.4 voor Linux gereleased gaat worden. Nog maar 4 issues die openstaan op dit moment.
Inderdaad, zitten wat leuke features in.. zoals bookmarks ( https://www.illumos.org/issues/4369 ).

gelukkig zou libzfs-python gewoon moeten blijven werken, anders blijf ik er mee bezig 8)7

[ Voor 10% gewijzigd door DXaroth op 24-03-2015 15:24 ]


Acties:
  • 0 Henk 'm!

  • Timoh
  • Registratie: November 2014
  • Laatst online: 10-10-2023
Zijn er mensen met ervaring met plex en zfs ? Zo juist plex geinstalleerd via zfsguru De service draait en wanneer ik een share aanmaak via plex kan ik geen enkel bestand "zien" Via verkenner geraak ik netjes aan de bestanden maar plex ziet geen enkel bestand. Na ettelijke tijd zoeken lukt het mij niet om dit aan de praat te krijgen. ZFSguru staat standaard, en de map is ook standaard gedeeld. Iemand die hier mee kan helpen om dit aan de praat te krijgen ?

Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 03-06 08:32
Timoh schreef op dinsdag 24 maart 2015 @ 23:41:
Zijn er mensen met ervaring met plex en zfs ? Zo juist plex geinstalleerd via zfsguru De service draait en wanneer ik een share aanmaak via plex kan ik geen enkel bestand "zien" Via verkenner geraak ik netjes aan de bestanden maar plex ziet geen enkel bestand. Na ettelijke tijd zoeken lukt het mij niet om dit aan de praat te krijgen. ZFSguru staat standaard, en de map is ook standaard gedeeld. Iemand die hier mee kan helpen om dit aan de praat te krijgen ?
Vooropgesteld dat ik Plex niet ken maar wat direct in mij opkomt:
- Via verkenner kun je er wel aankomen, staat er in Plex misschien een bestandsfilter aan?
- Heb je de files via windows verkenner gevonden OF via de interne ZFSguru verkenner? (lees staat het delen van bestanden wel aan naar het netwerk toe)
- NFS of SMB shares? (Samba staat standaard aan naar mijn weten)

Acties:
  • 0 Henk 'm!

  • Timoh
  • Registratie: November 2014
  • Laatst online: 10-10-2023
Ja NFS en SMB zijn in orde. Nu heb ik net even nog een test gedaan en wanneer ik naar een map maak in een share (filesystem) dan kan hij de bestanden wel vinden. Wanneer ik een map deel op het 'pool filesystem' kan hij in de map ik daar share geen inhoud zien. Heeft dit met rechten te maken of moet je altijd sharen via 'filesystem' zelf ?

Acties:
  • 0 Henk 'm!
Dat heeft denk ik wel met rechten te maken ja. Plex draait vast niet onder de standaard user.
En als je data niet 777 is, zal de Plex user er niet zomaar bij kunnen.

Nou weet ik dat ZFSguru by default veel dingen 777 maakt ( :X ), maar ik zou het even dubbelchecken.

Even niets...


Acties:
  • 0 Henk 'm!
Of netjes instellen via ACL ;)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Dat zou ook mijn voorkeur hebben, maar ZFS en ACL's op BSD?

Dan zit je met die NFS ACL's :X

[ Voor 4% gewijzigd door FireDrunk op 25-03-2015 09:56 ]

Even niets...


Acties:
  • 0 Henk 'm!
On another note:

nieuws: OCZ introduceert Vector 180-ssd met Barefoot 3-controller
http://ocz.com/consumer/d...tor_180_product_brief.pdf

Best wel een leuke SSD voor ZIL of L2ARC. Ik snap dat veel mensen nog een wrang gevoel hebben bij OCZ, maar de Vector serie staat toch redelijk goed aangeschreven, en ze hebben met deze SSD toch flink aan de weg getimmerd.

*) 44bit/1KB ECC (Dat zit ongeveer tussen de Crucial M500 en de Crucial MX100/200/BX100)
*) Power loss protectie
*) Ze zijn eerlijk over de performance bij bereiken "Steady State"

Enige nadeel is nog de prijs... Als ze die nou eens omlaag trekken, is het misschien nog een leuk alternatief voor Crucial's :)

Even niets...


Acties:
  • 0 Henk 'm!
ZFS ACL werkt echt perfect hier op BSD.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!
Maar dat zijn geen POSIX ACL's toch?

Even niets...


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 23:36
https://github.com/zfsonlinux/zfs/issues/170 @ FireDrunk

[ Voor 12% gewijzigd door DXaroth op 26-03-2015 08:53 ]


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 23:36
FireDrunk schreef op donderdag 26 maart 2015 @ 08:58:
[...]


Dat is ZFSonLinux, het ging over BSD :+
BSD heeft al iets
FireDrunk schreef op donderdag 26 maart 2015 @ 08:58:
[...]


Dat is ZFSonLinux, het ging over BSD :+
my bad, stukkie overgeslagen tijdens het lezen :+ ziek zijn en lezen gaat niet echt samen.

BSD ondersteunt wel ZFS ACL, maar dat is voor zover ik weet gebaseerd op NFS ACLs, niet op POSIX, dus ja, voor zover ik weet heb je daar gelijk in.

[ Voor 4% gewijzigd door DXaroth op 26-03-2015 09:07 ]


Acties:
  • 0 Henk 'm!

  • killercow
  • Registratie: Maart 2000
  • Laatst online: 03-06 12:35

killercow

eth0

FireDrunk schreef op woensdag 11 maart 2015 @ 16:42:
@killercow, ik zou trouwens sowieso die Adaptec RAID controller ertussen uit slopen... Die zorgt alleen maar voor meer ellende...
Even wat updates, de ashift was niet correct op mn array, deze is gefixt. Daarnaast heb ik een 11de disk toegevoegd zodat ik netjes uitkomt met de blocksize / 8)

De schrijfsnelheid is overigens dikke prima nu. De latency van de disks is inderdaad intens willekeurig en zo nu en dan erg hoog, maar dat is geen probleem voor de use-case. Het zijn tenslotte archive disks.

Ik schrijf met 300MB/s en doe ongeveer 2k Io/s

De adaptec controller is gereduceerd tot simpele sas kaart, het write-back cache is uitgeschakeld en door de fysieke disks de exporteren wordt ook het raid stuk icm alle aanverwante logica uit de vergeleiking gehaald.

openkat.nl al gezien?


Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 27-05 19:24
Even een vraag hier. lang verhaal kort. Ik kan geen NTFS mounten op mijn Freebsd servertje. Ntfs-3g geeft mij een operation not supported error, zelfs als ik root ben (ja fuse is geladen zowel in rc.conf als bekeken met kldstat).

enfin,Ik ben er klaar mee, ik wil nu zfs filesysteem erop pleuren, maar hoe kan ik dat het beste doen zodat ik de drive netjes kan afkoppelen en importeren in een nieuwe pc?

(mocht iemand weten hoe ntfs te mounten dan heeft dat natuurlijk mijn voorkeur, ik heb namelijk geen makkelijke access tot het system waar ik een backup van maak, maar ik zie bar weinig op internet mbt dit probleem)

code:
1
2
3
ntfs-3g /dev/da0s1 /mnt/ntfs -o rw
mount_fusefs: /dev/fuse0 on /mnt/ntfs: Operation not supported
fuse: failed to mount file system: No such file or directory

[ Voor 36% gewijzigd door justice strike op 28-03-2015 12:39 ]

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!
Als je de schijf opnieuw partitioneert met GPT en netjes een naam geeft.
Daarna een ZFS pool maakt via het GPT label zou het gewoon goed moeten gaan.

Je kan als extra zekerheid de hele disk met dd leegmaken, maar dat lijkt mij overbodig.

Even niets...


Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 27-05 19:24
FireDrunk schreef op zaterdag 28 maart 2015 @ 12:35:
Als je de schijf opnieuw partitioneert met GPT en netjes een naam geeft.
Daarna een ZFS pool maakt via het GPT label zou het gewoon goed moeten gaan.

Je kan als extra zekerheid de hele disk met dd leegmaken, maar dat lijkt mij overbodig.
moet wel een beetje plannen vooraf. Het is een 2tb schijf. Hiervan wil ik 340 gb gebruiken om een raaid array mee te voeden. Is het makkelijk om achteraf een zfs schijf te shrinken? of zou ik het beste 2 partities kunnen maken waarbij ik de ene 340gb laat zijn(deze kan ik weggooien als ik de bestanden er vanaf getrokken heb).

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!
Uh, ik snap geen bal van wat je wil doen :+

Je kan ZFS nooit shrinken, en groeien kan alleen als je alle schijven in een VDEV vervangt voor grotere
(dus alle partities tegelijkertijd vergroten kan ook, ZFS maakt geen verschil tussen schijven en partities.)

Even niets...


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Topicstarter
Je hebt nu een MBR-partitieschema op de schijf (kun je herkennen aan 's' zoals da0s1) terwijl je een GPT-schema wilt, te herkennen aan 'p' zoals da0p1. GPT schema kan normale partitielabels aan en ik raad sterk aan dat je dit zo gebruikt en de ZFS pool met GPT labels aanmaakt.

Acties:
  • 0 Henk 'm!
justice strike schreef op zaterdag 28 maart 2015 @ 12:32:
Even een vraag hier. lang verhaal kort. Ik kan geen NTFS mounten op mijn Freebsd servertje. Ntfs-3g geeft mij een operation not supported error, zelfs als ik root ben (ja fuse is geladen zowel in rc.conf als bekeken met kldstat).

enfin,Ik ben er klaar mee, ik wil nu zfs filesysteem erop pleuren, maar hoe kan ik dat het beste doen zodat ik de drive netjes kan afkoppelen en importeren in een nieuwe pc?

(mocht iemand weten hoe ntfs te mounten dan heeft dat natuurlijk mijn voorkeur, ik heb namelijk geen makkelijke access tot het system waar ik een backup van maak, maar ik zie bar weinig op internet mbt dit probleem)

code:
1
2
3
ntfs-3g /dev/da0s1 /mnt/ntfs -o rw
mount_fusefs: /dev/fuse0 on /mnt/ntfs: Operation not supported
fuse: failed to mount file system: No such file or directory
Misschien handig om de directory /mnt/ntfs eerst even aan te maken ;)
Dat is wat de foutmelding zegt, die directory bestaat nog niet.

Even niets...


Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 27-05 19:24
FireDrunk schreef op zaterdag 28 maart 2015 @ 12:50:
Uh, ik snap geen bal van wat je wil doen :+

Je kan ZFS nooit shrinken, en groeien kan alleen als je alle schijven in een VDEV vervangt voor grotere
(dus alle partities tegelijkertijd vergroten kan ook, ZFS maakt geen verschil tussen schijven en partities.)
die 2tb wil ik gebruiken om gegevens te verplaatsen. nadat ik dat gedaan heb wil ik 340gb op die schijf gebruiken in een raid. (i.e. partitie maken en aan een pool hangen). Ik denk dat ik mijn eigen vraag beantwoord heb. als ik een aparte partitie maak dan kan ik die later in een zpool gooien zonder dat ik de overige 1.65tb aan data kwijtraak.

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!
Ja, maar hoe ga je even een nieuwe partitie maken van 340GB op een reeds bestaande schijf met behoud van data? Dat kan wel, maar is niet zonder risico...

Even niets...


Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 27-05 19:24
FireDrunk schreef op zaterdag 28 maart 2015 @ 12:57:
Ja, maar hoe ga je even een nieuwe partitie maken van 340GB op een reeds bestaande schijf met behoud van data? Dat kan wel, maar is niet zonder risico...
dus vandaar mijn vraag, kun je een zfs partitie shrinken, of moet ik vooraf 2 partities maken waarvan ik er 1 kan weggooien en kan repurposen voor de raid array.

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!
Je wil niet 2 partities in 1 ZFS pool hebben, dat is zeker niet handig.

Ik denk dat je het beste gewoon even tijdelijk je data ergens anders kan dumpen, en de hele schijf van ZFS voorzien.

Even niets...


Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 27-05 19:24
FireDrunk schreef op zaterdag 28 maart 2015 @ 13:50:
Je wil niet 2 partities in 1 ZFS pool hebben, dat is zeker niet handig.

Ik denk dat je het beste gewoon even tijdelijk je data ergens anders kan dumpen, en de hele schijf van ZFS voorzien.
wie zegt 2 partities in 1 zfs pool?

2 partities maak ik aan, elk in een aparte (raid 0) zfs pool. De partitie die 340 gb is, kan ik later verwijderen en repurposen in een andere zfs pool als ik dat dan zou willen. Dat moet toch gewoon werken of niet?
FireDrunk schreef op zaterdag 28 maart 2015 @ 12:54:
[...]


Misschien handig om de directory /mnt/ntfs eerst even aan te maken ;)
Dat is wat de foutmelding zegt, die directory bestaat nog niet.
/mnt/ntfs directory bestaat. De foutmelding gaat over het fuse device.

Zoals je ziet staat er eerst mount_fuse, operation not supported, daarna zie je directory or file does not exist.

Wat mij dus doet vermoeden dat er iets verkeerd gaat met het mounten, waarna een fuse device niet bestaat en dus ook niet naar kunt verwijzen.
Anoniem: 15758 schreef op zaterdag 28 maart 2015 @ 12:52:
Je hebt nu een MBR-partitieschema op de schijf (kun je herkennen aan 's' zoals da0s1) terwijl je een GPT-schema wilt, te herkennen aan 'p' zoals da0p1. GPT schema kan normale partitielabels aan en ik raad sterk aan dat je dit zo gebruikt en de ZFS pool met GPT labels aanmaakt.
dat gaat zeker gebeuren. Dit is de as is situatie, ik heb ntfs erop zitten en dat wilde ik gaan gebruiken, als ik ntfs niet kan mounten ga ik het zaakje formatteren en gpt + 2 zfs partities op gooien.

[ Voor 54% gewijzigd door justice strike op 28-03-2015 15:41 ]

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 02-06 22:54
Wat bedoel je precies met zfs partities?
Zfs kent pools, vdevs, filesystems/dataset, Zvol en ik vergeet vast wat.

Een partitie maak je aan op een hardeschijf voordat je hem in een zfs vdev zet. En je wilt niet zoals je wel al begreep 2 partities op 1 schijf en deze alletwee gebruiken in een vdev.

Dus wat bedoel je precies?

Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 27-05 19:24
situatie schets:

server1
6 tb aan data in raidz5 zfs pool

server2:
virtual machine op windows (RDM schijven)
1 raidz5 zfs pool met 4 320gb schijven

Actie 1:
Ik heb een 2 tb schijf, waarmee ik gegevens van server 1 naar server 2 wil brengen.

actie 2:
ik wil nadat ik de bestanden heb overgezet, 320 gb van de 2tb gebruiken om de raidz1 pool groter te maken (wat betekent, alles van de raidz1 pool afhalen en opnieuw aanmaken). Nu wil ik als het mogelijk is de rest van de schijfruimte blijven gebruiken (immers is dat 1.6tb aan ongebruikte ruimte). Als ik dat ook nog eens kan doen zonder dat ik alles van die schijf af hoef te halen (i.e. ik kan de bestanden op die 1.6 tb laten) dan is dat helemaal mooi.

Wat ik zelf dacht te doen is:

op de 2tb met gpt 2 partities aanmaken. 1 van 320gb en 1 van 1.6tb. ik maak van elke partitie een zfs raidz0 pool (m.a.w. 2 pools, 1 is 320gb en 1 is 1,6tb). ik kopieer alles wat ik wil backuppen naar die twee pools.

vervolgens moet ik de schijf afkoppelen, overzetten op server2. 2 pools inporteren (i.e. 1 van 320gb en 1 van 1.6tb) vervolgens de 320gb aan data ergens overpompen en daarna de 320gb partitie repurposen voor de nieuwe raidz5 array (waarbij je de originele zpool moet destroyen en opniew moet aanmaken). Echter zou hierbij de 1.6tb partitie intact moeten blijven.

zoals je uit dit verhaal kunt opmaken, gebruik Ik de partitie als een vdev, om zo de overtollige ruimte op een schijf te kunnen benutten.

Volgens mij moet het bovenstaande gewoon makkelijk kunnen (corrigeer me als ik het verkeerd heb).

Wat mij niet helemaal duidelijk is, hoe kan ik een schijf 'exportere' en weer importeren in een nieuw systeem.

m.a.w. hoe zorg ik ervoor dat die 2 zpools die op server 1 aangemaakt zijn op de 2tb schijf netjes geimporteerd worden op server 2?

klinkt dit logisch

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 04:38
Vandaag wil ik mijn pool opnieuw bouwen naar 10x 3TB raidz2. Ik heb nog wel even een vraagje over de swap size: in mijn huidige pool staat ie op 2GB voor elke schijf. Wat doet deze swap precies en is het noodzakelijk? Moet deze in verhouding staan met het ram geheugen?

In FreeNAS heb je namelijk een optie:

Swap size on each drive in GiB, affects new disks only. Setting this to 0 disables swap creation completely (STRONGLY DISCOURAGED).

De pool word alleen maar gebruikt voor films/series (mkv's) en Windows back-ups.

Acties:
  • 0 Henk 'm!

  • Snow_King
  • Registratie: April 2001
  • Laatst online: 03-06 17:45

Snow_King

Konijn is stoer!

GioStyle schreef op zondag 29 maart 2015 @ 12:15:
Vandaag wil ik mijn pool opnieuw bouwen naar 10x 3TB raidz2. Ik heb nog wel even een vraagje over de swap size: in mijn huidige pool staat ie op 2GB voor elke schijf. Wat doet deze swap precies en is het noodzakelijk? Moet deze in verhouding staan met het ram geheugen?

In FreeNAS heb je namelijk een optie:

Swap size on each drive in GiB, affects new disks only. Setting this to 0 disables swap creation completely (STRONGLY DISCOURAGED).

De pool word alleen maar gebruikt voor films/series (mkv's) en Windows back-ups.
Swap heb je niet heel hard nodig indien je voldoende geheugen hebt.

Geheugen gebruik bij ZFS wordt mede bepaald door het aantal filesystems wat je er op aan maakt.

Hoe veel geheugen heeft de machine waar het op gaat draaien? Ik zou als het kan er een paar reepjes geheugen bij stoppen en geen swap gebruiken.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 04:38
Systeem heeft nu 1 reepje van 8GB. Voor mijn doeleinden eigenlijk meer dan genoeg.

Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 27-05 19:24
Nog even terugkomend op mijn vraag over het overzetten van schijven.

Is het echt zo simpel als:

zpool export tank

schijven van server 1 naar server 2 verplaatsen

zpool import tank

(tank is dan de zpool onder welke de vdev zit).

Of moet ik ook expliciet de vdevs offline gooien oid? (het lijkt een beetje te voor de hand liggend en bang dat je behalve de zpool ook de vdevs moet exporteren oid)

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Topicstarter
zpool export is niet strict nodig. Maar als je dat vergeet moet je bij het import commando -f (force) opgeven, omdat de pool mogelijk nog in gebruik is denkt hij. Dus het enige wat nodig is, is een import commando. Verder hoef je niets te doen.

Acties:
  • 0 Henk 'm!

  • TMon
  • Registratie: September 2006
  • Laatst online: 02-06 14:04
jacovn schreef op donderdag 19 maart 2015 @ 21:35:
Dat moet ik ook maar eens proberen dan. Ik heb in mijn laatste server 2 pools, 1 spinned down, de ander niet. 1 zit op de 2308 chip van mainbord (+2 hdds op mainbord)
De andere pool zit op een M1015 controller (en weer 2 hdds op mainbord)

De hdd's die op het mainbord zitten gaan niet down, die op een lsi controller zitten wel. Ik moet even kijken op welke controller ze spindown gaan.

Ik heb die APM ook nog aan staan, en gebruik de spindown utility.
Is het bij jou al gelukt? Ik heb APM uitgeschakeld. # voor alle APM regels.
zfsguru_spindown_enable="YES"
zfsguru_spindown_timer="60"
zfsguru_spindown_disks="ada0 ada1"

En de schijven op de M1015
spindown_enable="YES"
spindown_flags="-b -d da0 -d da1 -d da2 -d da3 -d da4 -d da5 -d da6 -da7 -t 60"

En toch zie ik in ZFS guru/disks/advanced niet dat ze down spinnen na 1 minuut...

Acties:
  • 0 Henk 'm!

Anoniem: 15758

Topicstarter
Detectie van SCSI-disks werkt niet altijd (da = SCSI/SAS interface; de disk zelf kan SATA zijn).

Dus even 'met de hand' controleren of je disks inderdaad downspinnen.

Acties:
  • 0 Henk 'm!

  • TMon
  • Registratie: September 2006
  • Laatst online: 02-06 14:04
Anoniem: 15758 schreef op zondag 29 maart 2015 @ 18:22:
Detectie van SCSI-disks werkt niet altijd (da = SCSI/SAS interface; de disk zelf kan SATA zijn).

Dus even 'met de hand' controleren of je disks inderdaad downspinnen.
check nu met de hand met een, waarschijnlijk, omslachtige regel.
1 # camcontrol cmd ada0 -a "E5 00 00 00 00 00 00 00 00 00 00 00" -r -
2 50 00 00 00 00 00 00 00 00 FF 00

FF zou betekenen dat de disk nog spint, zoals ZFSguru ook netjes aangeeft.

Momenteel geeft ZFSguru aan dat de "da"-disks down zijn. Dus alle schijven die aan de M1015 hangen.
De 2 ada schijven draaien nog.

Acties:
  • 0 Henk 'm!

Anoniem: 15758

Topicstarter
En je weet zeker dat ze niet zijn aangesproken?

Wat als je de spindown timer op 1 minuut instelt?

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
Anoniem: 15758 schreef op zondag 29 maart 2015 @ 18:22:
Detectie van SCSI-disks werkt niet altijd (da = SCSI/SAS interface; de disk zelf kan SATA zijn).

Dus even 'met de hand' controleren of je disks inderdaad downspinnen.
Ik heb het even geprobeerd via de web gui interface. Maar als je er 20 down klikt bevriest de zaak min of meer, het ijlt wat na :)
Down gaan ze wel dan.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
TMon schreef op zondag 29 maart 2015 @ 18:15:
[...]


Is het bij jou al gelukt? Ik heb APM uitgeschakeld. # voor alle APM regels.
zfsguru_spindown_enable="YES"
zfsguru_spindown_timer="60"
zfsguru_spindown_disks="ada0 ada1"

En de schijven op de M1015
spindown_enable="YES"
spindown_flags="-b -d da0 -d da1 -d da2 -d da3 -d da4 -d da5 -d da6 -da7 -t 60"

En toch zie ik in ZFS guru/disks/advanced niet dat ze down spinnen na 1 minuut...
Interessant om ze te controleren. Ik had wel al APM uitgezet, maar dat deed niet veel meer.

Ben dat aan het moven, dus down gaan de discs toch al niet op dit moment, maar ga dit zeker ook proberen.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • TMon
  • Registratie: September 2006
  • Laatst online: 02-06 14:04
Anoniem: 15758 schreef op zondag 29 maart 2015 @ 18:32:
En je weet zeker dat ze niet zijn aangesproken?

Wat als je de spindown timer op 1 minuut instelt?
In I/O monitor is geen activiteit te zien en ADA0 en ADA1 maken samen met DA0 DA1 en DA2 deel uit van een raidz pool en die laatste 3 blijven wel down.

Handmatig via de interface op spindown klikken zet ze wel stil en dan blijven ze ook sleeping voor langere periode

OS en sql database staan op ssd.

Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 27-05 19:24
Anoniem: 15758 schreef op zondag 29 maart 2015 @ 17:28:
zpool export is niet strict nodig. Maar als je dat vergeet moet je bij het import commando -f (force) opgeven, omdat de pool mogelijk nog in gebruik is denkt hij. Dus het enige wat nodig is, is een import commando. Verder hoef je niets te doen.
ik had ook begrepen dat als je geen export doet, je zpool in principe nog online is op server 1 en dat dat weer voor errors kan zorgen.

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Topicstarter
justice strike schreef op zondag 29 maart 2015 @ 19:55:
[...]

ik had ook begrepen dat als je geen export doet, je zpool in principe nog online is op server 1 en dat dat weer voor errors kan zorgen.
Het kan geen errors veroorzaken. Alleen als je niet exporteert, dan moet je de -f flag gebruiken.

Dat hele import en export is er maar voor één ding: zorgen dat de disks niet door twee ZFS implementaties tegelijk gebruikt worden. Dat kan in zeldzame situaties voorkomen. Zoals met Virtualbox kun je een ruwe disk maken van de lokale disk, dus ook waarvan je geboot hebt. Als je die disk vervolgens gaat mounten, dan heb je dus hetzelfde filesystem twee keer gemount. Dan is het een kwestie van tijd voordat je filesystem corrupt is. Dit is niet uniek voor ZFS maar geldt voor alle filesystems. ZFS heeft enkel een extra bescherming hiervoor. Als de pool nog niet bekend is met het systeem, moet je die handmatig importeren. Is de pool niet eerder geëxporteerd, dan moet je extra nog een -f parameter opgeven.

Ik doe zelf nooit een export op mijn pools. Ik hang ze gewoon aan het nieuwe systeem.

Acties:
  • 0 Henk 'm!

  • justice strike
  • Registratie: Juni 2001
  • Laatst online: 27-05 19:24
ok mooi. Nu moet ik alleen bekijken of hyper-v passthrough disks ook goed werken met een verse gpt disk met 2 zfs partities van een andere pc.

U can call me sir.... or justice as long as u bow down ;)


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
Ik heb een vraag..

Na het veranderen van de buffering voor de 10GE network interface in de etc/sysctl.conf file lijkt het of de services van het system niet meer goed starten.Onder system services draait alleen Lighttpd nog, veel andere dingen hebben wel autostart enabled maar zijn niet actief. Met de hand starten lukt niet en geeft meldingen als:"
Warning: could not start NFS daemon service!
Warning: could not start Samba service!

Ik kan wel shares met smb maken normal.
NFS share krijg ik permission denied op.
192.168.3.153:/tank5/share5: Permission denied

Dit heeft wel goed gewerkt, dus ik neem aan dat ik het stuk gemaakt heb.

Het zouden ook nog de permissies onder NFS kunnen zijn, maar als ik die wil bekijken krijg ik de volgende error:
NFS is currently not running. Enable automatic start of this service and reboot the system.


Op mijn 1e server waar ik nog niets op aangepast heb draait alles goed (Running official system image 9.1-005 featuring FreeBSD 9.1-RELEASE with ZFS v28)

De 2 aangepaste servers draaien: Running official system image 10.1-001 featuring FreeBSD 10.0-STABLE with ZFS v5000.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Topicstarter
Kan het zijn dat je het /etc/rc.conf bestand hebt aangepast en hierin een foutje hebt gemaakt? Zet anders je gehele /etc/rc.conf even op pastebin.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
#2 http://pastebin.com/EZnSjkc6
#3 http://pastebin.com/A2bTuKt2


Ik heb verder de volgende wijzigingen gedaan:
https://pleiades.ucsc.edu/hyades/FreeBSD_Network_Tuning

/boot/loader.conf
cc_htcp_load="YES"

/etc/sysctl.conf
# set to at least 16MB for 10GE hosts
kern.ipc.maxsockbuf=16777216
# socket buffers
net.inet.tcp.recvspace=4194304
net.inet.tcp.sendspace=2097152
net.inet.tcp.sendbuf_max=16777216
net.inet.tcp.recvbuf_max=16777216
net.inet.tcp.sendbuf_auto=1
net.inet.tcp.recvbuf_auto=1
net.inet.tcp.sendbuf_inc=16384
net.inet.tcp.recvbuf_inc=524288
# security
security.bsd.see_other_uids=0
security.bsd.see_other_gids=0
# drop UDP packets destined for closed sockets
net.inet.udp.blackhole=1
# drop TCP packets destined for closed sockets
net.inet.tcp.blackhole=2
# H-TCP congestion control algorithm
net.inet.tcp.cc.algorithm=htcp
# maximum incoming and outgoing IPv4 network queue sizes
net.inet.ip.intr_queue_maxlen=2048
net.route.netisr_maxqlen=2048


Zou het te maken hebben met: security.bsd.see_other_uids=0


edit: ja dat was het problem :(

[ Voor 128% gewijzigd door jacovn op 30-03-2015 15:16 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
Ik gooi hier maar even een balletje op...

Dit is de huidige status van mijn juggernaut-pool:

NAME         SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
EVO500       464G   427G  37.4G    91%  1.00x  ONLINE  -
M4-STRIPE    357G   293G  64.0G    82%  1.00x  ONLINE  -
juggernaut  18.1T  16.0T  2.09T    88%  1.00x  ONLINE  -
spiegeltje  1.81T   316G  1.50T    17%  1.00x  ONLINE  -

-----------------------------------------------------------------------------------------------------------------
| Dev | Model                     | Serial Number        | GB   | Firmware | Temp | Hours | PS | RS | RSE | CRC |   
-----------------------------------------------------------------------------------------------------------------
| sda | Samsung SSD 840 EVO 500GB |                      | 500  | EXT0AB0Q | ?    | 16773 | ?  | 0  | ?   | 50  |   
| sdb | Samsung SSD 840 EVO 250GB |                      | 250  | EXT0AB0Q | ?    | 21894 | ?  | 0  | ?   | 1   |   
| sdc | Crucial_CT120M500SSD1     |                      | 120  | MU03     | 34   | 10800 | 0  | 7  | 23  | 3   |   
| sdd | M4-CT128M4SSD2            |                      | 128  | 070H     | 0    | 10954 | 0  | 0  | 0   | 0   |   
| sde | M4-CT128M4SSD2            |                      | 128  | 0309     | 0    | 17496 | 0  | 0  | 0   | 0   |   
| sdf | M4-CT128M4SSD2            |                      | 128  | 0309     | 0    | 17537 | 0  | 0  | 0   | 0   |   
| sdg | ST4000DM000-1F2168        |                      | 4000 | CC52     | 20   | 11085 | 0  | 0  | ?   | 0   |   
| sdh | ST4000DM000-1F2168        |                      | 4000 | CC52     | 21   | 11086 | 0  | 0  | ?   | 0   |   
| sdi | ST4000DM000-1F2168        |                      | 4000 | CC52     | 20   | 11083 | 0  | 0  | ?   | 0   |   
| sdj | ST4000DM000-1F2168        |                      | 4000 | CC52     | 21   | 11083 | 0  | 0  | ?   | 0   |   
| sdk | ST32000542AS              |                      | 2000 | CC34     | 35   | 5630  | 0  | 0  | ?   | 0   |   
| sdl | ST32000542AS              |                      | 2000 | CC34     | 37   | 6573  | 0  | 0  | ?   | 2   |   
| sdm | ST4000DM000-1F2168        |                      | 4000 | CC52     | 21   | 11087 | 0  | 0  | ?   | 0   |   
| zd0 |                           |                      | 343  |          | ?    | ?     | ?  | ?  | ?   | ?   |   
-----------------------------------------------------------------------------------------------------------------




De oplettende ZFS-tweaker ziet dat mijn juggernaut pool langzaam edoch zeker volloopt. Mijn vuistregel is altijd geweest: als er op mijn vdev minder capaciteit overschiet dan de capaciteit die één spindle biedt, is het langzaam tijd om uitbreidingen/vergrotingen te zoeken. Tot nu toe komt dat regeltje goed uit (4 x 2TB naar 5 x 3TB naar 5 x TB)

De pool bestaat uit 5 x 4TB Seagate in RAIDZ...

Nu had ik dus graag meer capaciteit gehad...

Opties:

4TB disks bijkopen, en via een migratieverhaaltje de data kopieren of veilig stellen. Hoeveel disks? Geen idee, ik wil minstens ten aller tijde enkelvoudige pariteit behouden voor mijn data tijdens de migratie. Das mijn enige eis. Even als FYI: ik heb van mijn persoonlijke, meest kritieke data een ZFS kopie op spiegeltje en op een 400GB aparte cold disk...

4TB disks bijkopen, vdev toevoegen en een "unbalanced" pool hebben. Hoeveel disks: sjah, ik heb er niet altijd een fris gevoel bij dat ik nu met 4TB spindles maar enkelvoudige pariteit heb... Er is dus een klein stemmetje dat zegt:

Optie 1
  1. Koop 7 x 4TB
  2. Maak van 6 disks een RAIDZ2 aan en een nieuwe pool (hulk)
  3. Send alle ZFS datasets op juggernaut naar hulk
  4. Destroy juggernaut
  5. Voeg mijn juggernaut disks + de overblijvende nieuw aangeschafte disk toe als RAIDZ2 vDev aan hulk
Nadelen
alle data staat op de nieuwe disks, in een optimale wereld werden mijn vdev's gelijk opgevuld...
de meest ruimte-efficiente oplossing, maar ineens ook de absoluut duurste.
Een shitload aan disks in mijn thuisserver
Een nieuwe case nodig

Voordelen:
gewenste en maximale redundantie over alle vDev's
relatief gezien het meest kosten-efficient, zowel in $/GB als in pariteitsefficientie


Optie 2
"ok, mot ruimte hemmen"
2 x 4TB in mirror vDev erbij aan juggernaut

Nadelen:
onbalans vdev's: zowel in pariteitsmechanisme en I/O karakter
inefficiente redundantie
Ook een nieuwe case nodig

Voordelen:
Absoluut maximale redundantie
Absoluut gezien goedkoopste


Optie 3
Doe eens gek...
6 x Seagate Archive 8TB disks 8)7
Ok... Dan heb ik *eigenlijk* een relatief kleine investering, genomen dat ik mijn bestaande 5 x 4TB op V&A nog wel kwijt geraak voor een prijsje, laten we even stellen dat ik er nog 400 EUR voor vang...
Genomen dat ze 1620 EUR kosten, leg ik dan zelf nog 1220 EUR op. *glup*

Migratie is dan ook weer doodsimpel, want ik doe een forklift upgrade, in met het nieuwe, out with the old...

Voordelen:
Makkelijk
Dubbele capaciteit ineens
Gewenste redundantie

Nadelen
Absoluut gezien immens duur
Slecht verkrijgbare disks
Eerste generatie disks (failure rate ;( ?)


Optie 4
#yolo, deleten van data :+


Keuzes, keuzes, keuzes...

Nu ja, het is nog niet dat het brandt hier, maar toch iets om bij stil te staan.

[ Voor 24% gewijzigd door HyperBart op 30-03-2015 20:23 ]


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Kan freenas, als bv alle schijven van sata poort verwisseld worden die toch te kunnen lezen en terug gewoon gebruiken zoals ze waren of moet elke schijf aan dezelfde perfecte poort gaan als je bv. case upgrade doet?

Acties:
  • 0 Henk 'm!

Anoniem: 15758

Topicstarter
Ja. En op platforms waarbij dat niet standaard werkt (ZFS-on-Linux) kun je gewoon importeren.

Acties:
  • 0 Henk 'm!
Waarom zou dat onder linux niet werken? :?

Even niets...


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Topicstarter
Omdat Linux dacht ik nog een cache file gebruikt? En dus niet disks 'proeft' zoals BSD doet?

Acties:
  • 0 Henk 'm!
Huh? De ZFSonLinux implementatie werkt zelfs dubbelop, er is een cachefile, en er zijn een aantal distro's die by default zelfs pools die importeerbaar zijn importeren...

Even niets...


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 04:38
Afgelopen weekend druk bezig geweest met de migratie van 6x 3TB raidz2 naar 10x 3TB raidz2.

Ik had ongeveer 4,5TB aan data die ik tijdelijk ergens kwijt moest. Uiteindelijk 2 externe schijven kunnen regelen om als back-up te dienen.

Wat heb ik gedaan? Ik ging er vanuit dat ik geen back-up had en het met de 10 schijven moest doen.

Ik heb 2 pools van elk 1 schijf gemaakt om tijdelijk de 4,5TB verspreid te parkeren.

Daarna heb ik een degraded pool van 10 disks gemaakt: Door als eerst 2 'devices' te maken:
code:
1
2
3
mount -uw /
dd if=/dev/zero of=hdd09 bs=1 count=1 seek=2048G
dd if=/dev/zero of=hdd10 bs=1 count=1 seek=2048G


Vervolgens de pool aangemaakt:
code:
1
zpool create Media raidz2 /dev/da0 /dev/da1 /dev/da2 /dev/da3 /dev/da4 /dev/da5 /dev/da6 /dev/da7 /root/hdd09 /root/hdd10


Pool is aangemaakt, de 2 devices offline gemaakt en verwijderd:

code:
1
2
3
4
5
zpool offline Media /root/hdd09
zpool offline Media /root/hdd10
rm /root/hdd09
rm /root/hdd10
mount -uw /r


Pool was niet automatisch zichtbaar in de GUI van FreeNAS dus:
code:
1
zpool export Media

Om vervolgens de pool te importeren via de GUI van FreeNAS.

De data van de 2 eerdere pools terug kopieren naar de nieuwe degraded pool.

Om vervolgens de 2 pools te verwijderen en 1 voor 1 aan de degraded pool toe te voegen:

code:
1
2
zpool replace Media 10678936400980619173 /dev/ada0
zpool replace Media 16372093429675065902 /dev/ada1


Ik moet alleen nog autoexpand aanzetten, omdat zfs nog denkt dat het om 2TB schijven gaat door de 2 'devices'.

Leuke praktijkervaring opgedaan. :9

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 03-06 19:03

FREAKJAM

"MAXIMUM"

Had je niet ashift=12 moeten gebruiken voor het aanmaken van je nieuwe pool?

is everything cool?


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
FREAKJAM schreef op dinsdag 31 maart 2015 @ 11:56:
Had je niet ashift=12 moeten gebruiken voor het aanmaken van je nieuwe pool?
Dat gaat vanzelf in FreeBSD / FreeNAS. Denk ik.. :+

[ Voor 4% gewijzigd door Bigs op 31-03-2015 12:25 ]


Acties:
  • 0 Henk 'm!
Weet je dat heel zeker? :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
In mijn ervaring wel, maar misschien vergeet ik een tussenstap :) Het is alweer een paar maanden geleden sinds ik een nieuwe pool aanmaakte.

Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 02-06 22:54
FreeNas maakt via de wizard in GUI automatisch ashift=12 aan, en zet ook auto-expand aan op nieuwe vdevs. 3 dagen geleden iig wel.

Acties:
  • 0 Henk 'm!
Dat geloof ik ook, maar hij heeft het commando zelf op de commandline uitegevoerd :)
Dat lijkt mij dus anders...

Even niets...


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 04:38
Wat betreft ashift=12, ik heb van tevoren een aanpassing gedaan:

code:
1
vfs.zfs.min_auto_ashift=12


Autoexpand:

code:
1
2
3
[root@Hades ~]# zpool get autoexpand Media
NAME   PROPERTY    VALUE   SOURCE
Media  autoexpand  off     default


Autoexpand staat dus uit als je via commands een pool aanmaakt.

Zojuist gedaan:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
[root@Hades ~]# zpool set autoexpand=on Media
[root@Hades ~]# zpool list                                                      
NAME           SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
Logs          14.9G  8.01M  14.9G         -     0%     0%  1.00x  ONLINE  /mnt  
Media         19.9T  5.98T  13.9T     7.29T    14%    30%  1.00x  ONLINE  /mnt  
freenas-boot  14.9G   479M  14.4G         -      -     3%  1.00x  ONLINE  -     
[root@Hades ~]# zpool online Media /dev/ada0
[root@Hades ~]# zpool online Media /dev/ada1
[root@Hades ~]# zpool list
NAME           SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
Logs          14.9G  8.29M  14.9G         -     0%     0%  1.00x  ONLINE  /mnt  
Media         27.2T  5.98T  21.3T         -    10%    21%  1.00x  ONLINE  /mnt  
freenas-boot  14.9G   478M  14.4G         -      -     3%  1.00x  ONLINE  -

[ Voor 52% gewijzigd door GioStyle op 31-03-2015 14:06 ]


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Wat gebeurt er eigenlijk als ik 6 4tb schijven ipv 5 4tb schijven bv in een raikz doe? Gaat het gewoon niet gaan of gaat het veel trager zijn dan gewone 5 schijven?

Ik had wel iets gelezen van 40 kb bij 5 en bij 6 dat het 42.7 moest zijn maar dat dat niet ging en dan naar 43 moest afgerond worden?....

[ Voor 30% gewijzigd door thibautb op 31-03-2015 17:57 ]


Acties:
  • 0 Henk 'm!
Gaat prima, maar het zal je wat ruimte kosten vanwege inefficiente opslag (paar procent), tenzij je compressie aanzet, dan wordt het verlies weer bijna 0.

Heb zelf 4*4TB in RAIDZ en dat werkt prima, en is niet bepaald traag ofzo (nog ruim 200MB/s)

Even niets...


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Oke, dat is dan heel handig! Bedankt! 50 G meer of minder maakt niet zoveel uit.

Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Nu online
Heren, ik heb een vraagje. Ik draai al een poosje Ubuntu 14.04 met ZoL, dit naar volle tevredenheid.
Het ding draait als NAS, OpenHAB domotica, Syncthing host (sinds kort), web/database server etc.
Enige probleem: ZFS on Root voor ZoL is nog wat gedoe/gehack (IMHO nochtans), en dus draait het OS gewoon op EXT4.
Nu vroeg ik me dus af in hoeverre het mogelijk is om bijv. KVM te gaan draaien met ZFS filesystems als guest 'disk'?
Op die manier heb ik zowel de KVM config als de OS data van die KVM guests op ZFS disks (auto snapshot lijkt me vrij briljant voor VM's, om het nog maar niet te hebben over de dagelijkse zfs send backup), en hoeft mijn (kwetsbare EXT4) Ubuntu host OS niets meer te doen dan een KVM omgeving aan te bieden.
Zo een standaard Ubuntu+KVM setup heb ik bij een gecrashte disk binnen no time weer aan de praat, VM's weer starten en gaan :)
Nu vond ik dit zelf een vrij goed plan, maar als ik gewoon eens Google op KVM+ZFS loopt het nou niet over van de voorbeelden en enthousiasme...
Zie ik iets over het hoofd? Op welke manier zou ik bijvoorbeeld best de ZFS filesystems op de host doorgeven aan KVM?

[ Voor 7% gewijzigd door DRAFTER86 op 31-03-2015 21:38 ]


Acties:
  • 0 Henk 'm!
Kan prima, je kan ZVOL's aanmaken, en deze via disk passthrough doorgeven voor zover ik weet.
Wel even opletten met geheugengebruik.

Even niets...


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
Waarom gebruik je geen Proxmox?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Nu online
FireDrunk schreef op dinsdag 31 maart 2015 @ 22:03:
Kan prima, je kan ZVOL's aanmaken, en deze via disk passthrough doorgeven voor zover ik weet.
Wel even opletten met geheugengebruik.
Ok dan denk ik dat ik daar maar eens een weekendje mee ga spelen. Heb hier overigens nog een interessant artikel over performance voor verschillende KVM/ZFS setups gevonden.
Gewoon voor iedere guest een ZVOL lijkt een goede optie, maar hoe zit het dan met storage datasets? Welke manier om een ZFS dataset (op de host) beschikbaar te maken op meerdere guests? Het lijkt me dat dat enkel via NFS/Samba kan?
Thanks voor het meedenken in ieder geval!
A1AD schreef op dinsdag 31 maart 2015 @ 23:42:
Waarom gebruik je geen Proxmox?
Wat zou het grote voordeel hier van zijn? Ik heb in het verleden redelijk wat met KVM onder Ubuntu gedaan, en dat werkte eigenlijk prima?

Acties:
  • 0 Henk 'm!
Je wil 1 set Data beschikbaar stellen aan meerdere guests? Dan zul je inderdaad naar NFS moeten kijken (of Samba, maar ik zou NFS kiezen).

PS: Tof artikel DRAFTER86! Interresante kost!

[ Voor 15% gewijzigd door FireDrunk op 01-04-2015 08:28 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
hmm na 18 uur copieren hangt zfsguru zichzelf op. Via ssh is er geen ls commando meer te doen op hoofd filenivo.

Web interface reageert nog wel, maar reboot doen dan :(

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
Klinkt als vol geheugen... Vaker meegemaakt. Dan probeert je systeem waarschijnlijk te pagen/swappen.

Even niets...


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
Als iemand met 10GE onder FreeBSD (ZFSguru) de zaak wat aan de praat heeft hoor ik het graag..
Dit is bedroefende performance. Wellicht is mijn CPU een bottleneck (Xeon E3-1220).
Settings veranderen die men op allerlij web pagina's aanraad helpen weinig, of NFS wil gewoon niet sneller..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Topicstarter
@jacovn: heb je al basic troubleshooting gedaan?
1) test netwerk bandbreedte
2) test Samba throughput op tmpfs share
3) test Samba throughput op ZFS

Je hebt het verder over vastlopen; maar de web-interface doet het gewoon. Dat is niet mijn definitie van vastlopen. Maak anders een nieuw topic aan en zet e.e.a. helder neer want ik kan er niets mee zo.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
Ok sorry,

Ik zal het kort omschrijven.
3 ZFS guru machines nu. Allemaal Supermicor moederborden, Xeon E3-1220 processoren.
Ik wil de data van 1 server compleet moven naar de andere omdat ik de disk layout niet goed heb gedaan m.b.t. tot de backplane.

Alle machines hebben een Intel X520DA2 kaart met een DA koper kabel naar een D-Link 10GE switch.

Normaal move ik data vanaf mijn PC (intel i7-920 met ook een X520DA2 kaart) en dat gaat met 200-350 MB/sec naar elke nas toe.
Copieer ik data terug, dan heb ik snelheden van goed 100 MB/sec, maar dat maakt me verder niet uit, want dat doe ik toch nooit/niet vaak.

Nu wil ik dus de inhoud van een complete pool naar een andere server copieren.
snapshots en zfs send/receive ging mis, dus toen werd mij maar aangeraden NFS te gebruiken en dan via Midnight Commander copy actie te doen.

Dat is meer mijn nivo.

Dus:
mount -v -o wsize=262144,rsize=262144,intr,noatime 192.168.3.153:/tank5/share5 /remotemount

Zo krijg ik netjes een complete share onder mijn directory /remotemount

(heb hiervoor in de exports file de files systemen en de hosts gezet die er bij mogen, en ik heb met de hand permissies om gezet omdat de zfs guru gui een failure daarvoor gaf)

Ik kan prima data copieren, alleen zie ik maar 140-150 Mbyte/sec gaan.


1 copy slag van server 2 naar server 3 liep prima.
Na het opnieuw opzetten van server 2 moet de data weer terug. Na iets van 18 uur leek server 2 vast te lopen. De web interface deed het nog wel, maar via SSH kon ik niet meer in de hoofd directory.
Tijdje gewacht en toen via de web interface reboot gedaan.
Loopt nu al weer uren. Mocht het weer gebeuren zal ik meer roubleshooting doen..

Met betrekking tot je vragen.

1) network via iperf tussen wintel en zfs server is met de huidige settings 400 MB/sec voor 1 sessie als ik de TCP windows vergroot. met meer sessies kom ik tot 9xx MB/sec

2) er loopt een data copy van 140 MB/sec via midnight command van een mount van server 3.
Dan kan ik naar tmpfs nog 157 MB/sec moven vanaf PC (20 GB directory)
Er loopt dan dus tegelijk 300 MB/sec naar die machine toe. (20 GB was te veel en is afgebroken)

3) dat is normaal tot 350 MB/sec van PC naar NAS.
En 100 MB/sec terug van NAS naar PC.


Wat ik eigelijk zoek is de manier voor de simple ziel (ik dus) om data te moven op wat hogere snelheid.
Als ik met de gui een test op een lege pool doe zie ik 1000 MB/sec. Waarschijnlijk niet reëel om dat door het LAN te willen doen, maar 300-400 MB/sec zou wel mooi zijn.

NFS lijkt het niet te kunnen.

De aanpassingen die ik gedaan heb staan in het NAS zelfbouw forum, omdat NFS niet direct ZFS gerelateerd is leek me dat beter.

Voor 10GE heb ik de volgende website gebruikt: https://pleiades.ucsc.edu/hyades/FreeBSD_Network_Tuning

Die heeft dingen van een aantal andere mensen gecombineerd. Niet alles werkte, 1 regel deed prompt de services pagina van zfsguru de das om.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
Ik zal als ik vanavond of morgen tijd heb eens testen via KVM, dat is ook een soort 10GBE.

Even niets...


Acties:
  • 0 Henk 'm!

  • pica
  • Registratie: Juni 2000
  • Laatst online: 03-06 17:04
Ik wou mijn Supermicro X10SL7-F flashen naar IT mode, maar ik krijg het niet voor elkaar.

Ik doe het zoals omschreven in een post van jyavenard op:
https://forums.freenas.or...cro-x10sl7-f.14105/page-6

Met hetzelfde resultaat als onderstaand persoon.
http://serverfault.com/qu...tected-in-intel-efi-shell

Ik heb 2 verschillende USB sticks geprobeerd, beide FAT32, GPT.

Afbeeldingslocatie: http://static.tweakers.net/ext/f/mREZgSSyCTFuFTUdZDYnOCEW/full.jpg

Iemand nog suggesties?

Steam


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Jacobvn: kan je voor je test eens die dlink switch er tussen uit trekken, ik weet dat dit de goedkoopste 10gbe switch is en dat er online een paar meldingen stonden van niet-zo-awesome-zijn (sidenote: mikrotik is met iets bezig dat waarschijnlijk rond de zomer beschikbaar wordt, 8 of 10x 10gbe).

Over mijn IB verhaal: performance ligt eindelijk op lijn behalve voor randwrite onder de 1MB, dat stort erg snel in, naar drie keer niks. Vermoedelijk lopen lokale testen langs de schedueler heen terwijl IB traffiek door CFQ gejast wordt wat niet goed werkt met ZFS. Vreemd genoeg zou ik verwachten dat als je scst blockio gebruikt je dit bypassed. Ik ga binnenkort eens proberen met deadline of noop scheduelers.

Ik hoop binnenkort zestien intel vijf-twintigs te kunnen lenen van werk om mezelf te verzekeren dat het niet aan de rest ligt (storage: i5 3570, 16gb, lsi 9201 op h77 bord, virt: 1230v2, 32gb, x9scmf).

Nog een tip: zfs snapshots + thin provisioning = VMFS corruptie verzekering; tenminste als je net als ik de vrije ruimte niet in de gaten houdt.

[ Voor 20% gewijzigd door analog_ op 01-04-2015 18:43 ]


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
pica schreef op woensdag 01 april 2015 @ 18:32:
Ik wou mijn Supermicro X10SL7-F flashen naar IT mode, maar ik krijg het niet voor elkaar.

Ik doe het zoals omschreven in een post van jyavenard op:
https://forums.freenas.or...cro-x10sl7-f.14105/page-6

Met hetzelfde resultaat als onderstaand persoon.
http://serverfault.com/qu...tected-in-intel-efi-shell

Ik heb 2 verschillende USB sticks geprobeerd, beide FAT32, GPT.

[afbeelding]

Iemand nog suggesties?
Ik heb deze methode gebruikt:
https://forums.freenas.or...g-m1015-to-it-mode.20666/

Dus onder dos leeg maken, en onder uefi bios flashen.
Ik zou de p19 firmware van supermicro downloaden, ik heb wat berichten gelezen dat p20 wat minder zou zijn.

[ Voor 6% gewijzigd door jacovn op 01-04-2015 19:00 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
analog_ schreef op woensdag 01 april 2015 @ 18:38:
Jacobvn: kan je voor je test eens die dlink switch er tussen uit trekken, ik weet dat dit de goedkoopste 10gbe switch is en dat er online een paar meldingen stonden van niet-zo-awesome-zijn (sidenote: mikrotik is met iets bezig dat waarschijnlijk rond de zomer beschikbaar wordt, 8 of 10x 10gbe).
Dat heb ik eerst ook zo gebruikt, 3 devices in een 3-hoek. Zelfde performance als nu.
Iperf doet ook bijna 10 GE line rate door die switch. En zoals ik al getest heb kon ik naast de 140 MB/sec via nfs er nog 160 MB/sec naast zetten via smb.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • pica
  • Registratie: Juni 2000
  • Laatst online: 03-06 17:04
jacovn schreef op woensdag 01 april 2015 @ 18:48:
[...]

Ik heb deze methode gebruikt:
https://forums.freenas.or...g-m1015-to-it-mode.20666/

Dus onder dos leeg maken, en onder uefi bios flashen.
Ik zou de p19 firmware van supermicro downloaden, ik heb wat berichten gelezen dat p20 wat minder zou zijn.
Bedankt voor je suggestie, maar ik krijg de hele USB stick niet ingelezen onder uefi, dus eerst leeg maken en dan hopen dat uefi de USB pakt vind ik een verschrikkelijk eng idee :)

Steam


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
pica schreef op woensdag 01 april 2015 @ 19:09:
[...]

Bedankt voor je suggestie, maar ik krijg de hele USB stick niet ingelezen onder uefi, dus eerst leeg maken en dan hopen dat uefi de USB pakt vind ik een verschrikkelijk eng idee :)
Ga je wel naar de juiste device onder uefi ? Daar had ik ook wel wat moeite mee in het begin.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • pica
  • Registratie: Juni 2000
  • Laatst online: 03-06 17:04
jacovn schreef op woensdag 01 april 2015 @ 19:12:
[...]

Ga je wel naar de juiste device onder uefi ? Daar had ik ook wel wat moeite mee in het begin.
Yup, zie ook de screenshot hierboven.

Steam


Acties:
  • 0 Henk 'm!

  • bebbet
  • Registratie: September 2002
  • Laatst online: 02-04 22:55
@jacovn Als je toch op de commandline bezig bent, zou een rsync misschien sneller gaan? Dan sla je je eigen pc over, en kunt zo misschien latency overbruggen..

rsync -avzP /zpool/data/ /remotemount/
(let op de /'s maakt uit voor rsync)
Dan blijven wel de permissies gelijk (of je moet even in rsync manual duiken). Dan gaat het van server-server ipv server-client-server.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
De PC zit er niet tussen, dat is alleen een console met ssh naar de server toe..

Ik heb nog wat dd en iperf testen gedaan: jacovn in "Het grote DIY RAID NAS topic deel 3"

Dat is met wat grotere buffer 640 MB/sec voor DD en meer dan 1000MB/sec voor iperf.
Wellicht is die 2MB buffer niet goed te vergelijken met wat NFS doet, maar de netwerk laag hoeft blijkbaar niet de hindernis te zijn.

[ Voor 68% gewijzigd door jacovn op 02-04-2015 12:01 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
@javcon

Ik ben een beetje kwijt wat je oorspronkelijke probleem was. Misschien kan je dat nogmaals even beknopt posten.

Hierbij in ieder geval een stappen plan hoe zfs send / receive te optimaliseren.

Grof weg zijn er 5 punten die bekeken moeten worden
-Kan zfs send voldoende snel de data aanleveren?
-Kan de netwerk zender de data voldoende snel versturen?
-Kan het netwerk (tcp/ip & driver op de zender, netwerk zelf en driver & tcp/ip op de ontvanger) wel de datastroom verwerken?
-Kan de netwerk ontvanger de data voldoende snel ontvangen?
-Kan zfs receive de data voldoende snel wegschrijven?

Als eerste DISABLE iedere vorm van power safe, C-states, frequency scaling. De systemen moeten voor de baseline testen altijd op volle snelheid draaien.

Begin onderaan met ruwe tcp transfer snelheid te meten. Als je weet dat je tcp met wirespeed kan verwerken heb je een goed indicatie dat er geen obstakels zijn. Niet dat het betekent dat iedere applicatie vervolgens op wirespeed kan communiceren.
De manier om een eerste indruk te krijgen is mbv iperf en een cross cable. Die cross cable elimineert de switch als factor.
Begin met een default mtu van 1500 en in het geval van ethernet geen jumbo frames en disable alles van offloading en andere acceleratie in de driver. Maak eventuele tweaks in sysctl ofzo ook ongedaan. En reboot.
Nu kan je een baseline vaststellen. De baseline vertelt je hoe de prestaties zijn van het os, drivers en nic out of the box.

server# iperf -s -f m -m -i 5
client# iperf -c server -f m -m -i 5 -t 60

-s server mode
-f m report in megabits/sec
-m print mss en mtu
-i 5 print output om de 5 sec

-c server maak verbinding met server
-t 60 voer een test van 60 sec uit

Is de snelheid te laag kijk dan naar je TCP window size. Je kan deze in iperf vergroten bijv -w 130k. LETOP je kan je TCP window size niet onbeperkt vergroten je OS moet het aankunnen.
Tijdens de test hou je systeem in de gaten met bijv top. Kijk in top of het systeem niet overbelast wordt. Haal je nu wirespeed dan kan je daarna gaan kijken of je de load van je systeem kan verlagen. Je kan kijken of bepaalde offload features in de driver een verbetering opleveren. Je kan kijken of jumbo frames wat opleveren. Jumbo frames verlagen het aantal interrupts per sec. Moderne systemen hebben dankzij interrupt coalescing hier minder last van. Als je de laagste overhead wil dan moet je jumbo frames gebruiken.
Houd er rekening mee dat sommige aanpassingen een reboot vereisen. Letop dat je jumbo frames niet terecht komen op je wan bijv of je clients want dat werkt niet. Jumbo frames zou je alleen moeten gebruiken op een niet routeerbaar lan segment, bijv als esx storage traffic of een dedicated zfs send/receive segment. Met vlans kan je dit mooi isoleren.

Als je tevreden bent met het behaalde resultaat verwijder dan de cross cable en plaats de switch ertussen en test opnieuw om vast stellen dat er geen degradatie is opgetreden.

10Gigabit en infiniband.
Veel OS'es zijn niet voldoende out-of-the-box voorbereid op deze snelheden, evenmin sommige mobo's.
Om 10gb vol te duwen heb je minsten 1.25GB/sec nodig aan bandbreedte over je pcie. Zit de nic net in een verkeerd slot dan kan het wel eens niet optimaal werken. Ik kan hier geen specifieke tips geven want daarvoor zijn er teveel OS's. Wel is het in de meeste gevallen nodig om parameters aan te passen, waaronder read en write buffers heel erg te vergroten. Ik moet soms 10-20 dingen aanpassen om het onderste uit de kan te krijgen. Vergeet niet dat je settings wel compatible moeten zijn als je verschillende OS's door elkaar gebruikt. Letop dus op dat je niet iets optimaliseert tussen twee servers en dat je clients het vervolgens niet meer doen.

Als je tevreden bent met je netwerk en hebt gemeten wat je maximaal aan bandbreedte hebt kan je transfer applicatie gaan testen. De transfer applicatie leest van stdin, doet er optioneel iets (compressie of encryptie) mee, en verstuurd het via tcp naar de ontvanger die het proces omkeerd en de data naar stdout schrijft.
Veel gebruikte applicaties zijn ssh, nc en mbuffer.
SSH werkt prima alleen is het lastig echt hoge snelheden (meer dan 1 gbit) te behalen. Voor send/receive over WAN lijkt het mij de aangewezen tool.
nc (netcat) is de meest simpele tool. Het leest van stdin en schrijft naar een socket toe. De ontvanger piped de data naar stdout.
mbuffer is een geavanceerde versie van netcat. De belangrijkste meerwaarde is de buffering. Een bursty karakter kan worden glad gestreken en het netwerk kan constant worden belast.

server# mbuffer -s 128k -m 1G -I 5001 > /dev/null
client# dd if=/dev/zero bs=1M count=10000 | mbuffer -s 128k -m 1G -O server:5001

Luister op de server op poort 5001 (de iperf poort) met een buffer van 1GB en een blockgrootte van 128KB
Verstuur 10GB vanuit dev/zero door mbuffer naar de server.

Afhankelijk van je netwerk snelheid moet je misschien je buffersize vergroten alsmede blocksize.
Je moet met deze test dezelfde snelheden als iperf kunnen behalen.
Wederom houd je systeem goed in de gaten qua belasting.

Nu zfs, voordat je begint met overdracht via het netwerk stel je eerst de zfs send baseline vast.
client# zfs send -R mpool@snapshot > /dev/null
of
client# zfs send -R mpool@snapshot | dd bs=1M of=/dev/null
in andere vensters monitor je systeem bijv # top en # zpool iostat mpool 5 Vooral die laatste zal uitwijzen hoeveel profijt je hebt van mbuffer en of je disks voldoende snel zijn om het netwerk van data te voorzien.
Na deze test weet je hoelang het minimaal duurt om je gegevens over te zetten. Het zal nooit sneller gaan over het netwerk dan dit. Is dit (aflezen van de dd output) langzamer dan je netwerk snelheid dan zal je wat aan je vdevs moeten doen, meer vdevs, andere layout of snellere disks.

Ik heb even een testje gedaan op de volgende pool
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
wes$ zpool list -v mpool
NAME                        SIZE  ALLOC   FREE  EXPANDSZ    CAP  DEDUP  HEALTH  ALTROOT
mpool                      3.62T  1.09T  2.54T         -    30%  1.00x  ONLINE  -
  mirror                   1.81T   557G  1.27T         -
    c1t50024E9204294EE5d0      -      -      -         -
    c1t50024E900499258Fd0      -      -      -         -
  mirror                   1.81T   557G  1.27T         -
    c1t50024E9004992426d0      -      -      -         -
    c1t50024E9004992406d0      -      -      -         -
  c3t3d0                   1008M  1.50M  1006M         -
wes$ pfexec zfs send -R mpool@20131014 |  dd bs=1M of=/dev/null
29+78636479 records in
29+78636479 records out
1121265666080 bytes (1.1 TB) copied, 6452.31 s, 174 MB/s

Op dit systeem zal je nooit een hogere snelheid dan gemiddelde 174 MB/sec behalen anders gezegd het zal nooit korter duren dan 6452 seconden. Op sommige moment werd er met 300MB/sec gelezen op andere maar met 60MB/sec. ZFS send vertoont niet dezelfde karakteristiek als dd die een disk van lba 0 tot het einde leest. ZFS send parsed de metadata bouwt zo een geordende datastroom op, dit levert veel random io op. Dit toont ook aan om je testen uit te voeren op realistische data. Verschillen in data kunnen tot grote performance verschillen leiden.
Je (L2)ARC kan een positieve bedrage leveren. Even je ARC hit/miss ratio bekijken met # kstat -pn arcstats voor meer info.

De voorlaatste test. Het optimaliseren van de verzender.
server# mbuffer -s 128k -m 1G -I 5001 > /dev/null
client# zfs send -R mpool@snapshot | mbuffer -s 128k -m 1G -O server:5001
in andere vensters monitor je systeem weer # top en # zpool iostat mpool 5
Nu weet je wat de maximale overdracht snelheid is. Dit zou of net zo snel moeten zijn als zfs send of de eerder gemeten maximale netwerk snelheid.

Laatste stap
server# mbuffer -s 128k -m 1G -I 5001 | zfs recv -vFd mpool
client# zfs send -R mpool@snapshot | mbuffer -s 128k -m 1G -O server:5001
Nu meet je hoe snel de ontvanger het kan wegschrijven. Zie je buffer overruns dan kan de ontvanger het niet snelgenoeg wegschrijven, pas wederom je vdevs aan, meer vdevs, snellere disks.

Als laatste moet je rekening houden met het soort data, veel kleine files zijn trager dan grote streams bij zfs send/recv.

Pas als alles naar je zin is mag je eerder uitgezette energie besparende features weer aanzetten. En kijken hoeveel het scheelt.

Deze method is natuurlijk ook voor andere situaties van toepassing als SMB, NFS en iSCSI. Al is het lastiger om die protocollen te optimaliseren. ZFS send/recv is veruit de makkelijkste.

Succes

Update1: Voorbeeld benchmark van zfs send naar dev/null

[ Voor 10% gewijzigd door tvwes op 05-04-2015 19:01 ]


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
Dank je wel dat je een uitvoerige test strategie voor me gemaakt hebt.

Mijn probleem is wellicht: onwetendheid met FreeBSD en ZFS.

Ik heb ZFSguru genomen omdat die het makkelijkste installeerde en ik in notime alles werkend had
zonder te veel issues.
Ik gebruik de servers uitsluitend om Films op te zetten die ik dan met een HDI dune via SMB connectie van een server haal en afspeel in mijn Home Theater.

Onder mijn posts staan de specs van server #1 en server #2. server #3 is vergelijkbaar (E3-1220v3 op een Supermicro X10SL7-F mainboard, 32 GB Samsung ECC ram van de SM approved memory list, IBM M1015 in IT mode, de 2308 chip op mainboard in IT mode, beide P19 versie)
Server 3 heeft 2 Raid-z2 pools van 10 x 4 TB.

Het probleem wat ik meen te hebben is:
-server 1 en server 2 heb ik overhaast in elkaar gezet omdat ik mijn losse hdd's allemaal over wilde zetten in een server. Dat liep op unraid, beviel slecht en werd toen ZFSguru. Ik heb Norco 4220 behuizingen voor #1 en #2. Daar heb ik de hdds verkeerd in gezet. elke pool draait op 2,5 backplane, zeg maar horizontaal, en niet vertikaal zodat je 5 backplanes gebruikt.
Stel er sneuvelt een backplane nu, zijn 2 pools down.

Ik zou de hdd's volgens mij gewoon anders er in kunnen steken, rebooten en dan loopt het vast wel weer.
Echter heb ik ook de hdd's namen via de zfsguru interface gegeven en die hebben volgnummers.
Ik wil serienummer van hdd in de naam hebben.
Dus pool moet leeg, dan doe ik een herformat van alle hdd;s en schrijf ik data weer terug.

Het plan was goed, de uitvoering minder. zfs send en receive geprobeerd. Snapshot maken geen probleem, weggooien, helaas syntax foutje, heel file system weg..

Aldus wat huiverig geworden maar NFS mounts en copy middels Midnight commander. Dat is meer mijn nivo zeg maar..
Dit loopt goed, maar topt op 150 MB/sec.

Op dit moment heb ik een 2e sessie gestart, en zie ik 2 x 145 MB/sec lopen tussen de 2 servers.
Deze copy slag maak ik af, en die loopt tot dinsdag morgen.

Dan zal ik de tests uit gaan voeren.


Update:
Iperf heb ik wel al getest, daar kom ik tot een bijna volle 10GE verbinding.

De 10 GE interfaces (intel x520-da2 kaarten) zitten in een apart vlan op een d-link DGS-1510-28X switch. Van netwerken weet ik veel meer, dat is mijn dagelijkse werk.
Het is wel de goedkoopste 10GE switch, en ik ben hele dure Cisco CRS en ASR gewend, maar hij voldoet prima voor thuisgebruik voor zover ik nu kan zeggen.

[ Voor 9% gewijzigd door jacovn op 05-04-2015 21:18 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Scooper
  • Registratie: Juni 2001
  • Laatst online: 03-06 11:53
Pantagruel schreef op maandag 09 februari 2015 @ 14:12:
[...]


Idd. even je splitters na kijken, er zijn hier verschillende mensen die met molex -> SATA power splitters gezeur hebben gehad. Uiteindelijk waren deze van Silverstone in mijn geval een betere keuzehttp://tweakers.net/price...one-sst-cp06-4x-sata.html, of je moet losse SATA power connectoren op een kabel zetten.
Om hier nog even op terug te komen: Ik heb ter test de standby-functionaliteit uitgeschakeld waardoor de schijven niet meer elke keer hoeven op te spinnen. Het probleem met wegvallende schijven heeft zich sindsdien niet meer voorgedaan. Ik kan dus bevestigen dat het echt een stroomissue ging. Bedankt voor het meedenken!

SRK35ZS-W


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
Kan iemand me vertellen hoe ik eenvoudig mbuffer op zfsguru krijg ?

Ik was de stappen die tvwes voor me gemaakt heeft aan het voor bereiden, en mbuffer werkt niet.

1e stap werkt goed, 450 MB/sec naast de 148 MB/sec die loopt met de copy job zonder aanpassen buffers etc.

Ik heb wat gezocht en er zijn man pages dus het leek me standaard.
Moet ik het uit de ports tree of zo installeren ?

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

Anoniem: 15758

Topicstarter
code:
1
2
3
# whereis mbuffer
mbuffer: /usr/ports/misc/mbuffer
# pkg install mbuffer

Ik snap ook je verhaal hierboven niet zo goed. Je wilt serienummers in de GPT labels hebben? Doe dat dan?! Daarvoor hoef je toch niet de hele pool opnieuw aan te maken? Ik snap niet goed wat je probeert te bereiken.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
Ik zie bij boot netjes da1 etc. met welke hdd en serienummer er aan hangt.
Dat zet ik dan in de naam, en ik zet het in een spreadsheet.
Mocht er een hdd defect gaan hoef ik niet lang te zoeken, en kan ik controleren of ik de juiste echt heb.
Wellicht overbodig, maar het lijkt me voor mij de juiste manier.

Wat betreft de pool fysiek anders erin hangen:
Norco 4220, 5 backplanes horizontaal boven elkaar. (Onderste is 1 bovenste is 5)
Pool 1 zit nu 4 naast elkaar op onderste backplane(1)
4 op de backplane er boven (2)
2 op de bovenste backplane.(5)

2e pool over backplane 3 en 4 en weer 2 op 5e

Ik wil het veranderen naar vertikaal.
Dus 2 hdds naast elkaar per backplane, en dat 5 x boven elkaar. Met raid-z2 kan er dan een backplane defect raken en heb ik welliswaar degraded de pool toch nog bereikbaar.

Ik zal op server 1 eerst 10.1 zetten, want die is na 1 jaar nog steeds iets aan het installeren als ik de services in ga. Dat is nog 9.3 op dit moment.
Dan heb ik op alle servers dezelfde versie draaien, dat lijkt me ook beter.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
@javcon Vervelend van het foutje, ook al weet ik nog niet wat je precies hebt gedaan wat tot zulke ellende heeft geleid.

Ik denk dat je beter weg kan blijven bij de ports, die moet je compileren en krijg je soms lastige vragen, gebruik gewoon de binary packages via pkg

Eenmalig je packages initialiseren
# /usr/sbin/pkg
Daarna
# pkg install mbuffer
misschien # pkg install misc/mbuffer

Wat bedoelde je met 450MB/sec? Aub graag het commando even ervoor zetten dan weet een ieder hoe je aan 450 MB/sec bent gekomen.
Ik wil je graag helpen maar wees aub duidelijk in je beschrijving. Welk commando leidde tot welke output?

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 16-05 21:50
tvwes schreef op maandag 06 april 2015 @ 20:05:
@javcon Vervelend van het foutje, ook al weet ik nog niet wat je precies hebt gedaan wat tot zulke ellende heeft geleid.
Beginners geluk denk ik ;)

Nee te gehaast opgezet vanwege weinig tijd en veel data over te zetten, due niet genoeg nagedacht over de impact van hoe ik de hdd's in de kast gezet heb.
Eenmalig je packages initialiseren
# /usr/sbin/pkg
Daarna
# pkg install mbuffer
Dat werkt keurig op 10.1, thx.
Wat bedoelde je met 450MB/sec? Aub graag het commando even ervoor zetten dan weten hoe je aan 450 MB/sec bent gekomen.
De 1e test die je beschreef:
code:
1
2
server# iperf -s -f m -m -i 5
 client# iperf -c server -f m -m -i 5 -t 60

Die gaf 450 MB/sec doorvoer aan, naast de copy job die met 148 MB/sec loopt.

Ik wilde de syntax even testen vandaag om dan morgen alles achter elkaar te kunnen testen. Het moet tussen mijn werk door, dus het leek me handig even te testen, zo vond ik ook het ontbreken van mbuffer.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
@javcon
Is dit op helemaal standaard systemen? Geen specifieke driver hints? Geen aanpassingen in sysctl.conf?
Geen specifieke instellingen op je switch?

Dan vind ik 600MB/sec helemaal zo gek nog niet. Kijk morgen als de copy klaar is of iperf dan 450MB/sec of 600MB/sec haalt.

Heel belangrijk voor troubleshooting in het algemeen. Ga niet aan meer dan een knop tegelijk draaien als je echt wilt weten wat het effect is. Alles hoger draaien levert niet altijd een netto beter resultaat. Ja, ik weet dat kost tijd.

NFS (single stream) is ook lastig te optimaliseren. Soms veel obscure tunables. Maar 145 MB/sec zou wel beter moeten kunnen.
Pagina: 1 ... 144 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.