Zeker, nieuwe schijven doen al snelheden boven 1Gb netwerk, dus tenzij je trunks maakt of met 10Gb aan de slag gaat, heb je niet veel spindels of snelle schijven nodig.
Even niets...
Even niets...
| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett
OK, top, dan ga ik die bestellen. Dan heb ik hem morgen binnen (hoop ik) en is m'n pool tenminste niet meer degraded.FireDrunk schreef op dinsdag 19 maart 2013 @ 18:33:
Zeker, nieuwe schijven doen al snelheden boven 1Gb netwerk, dus tenzij je trunks maakt of met 10Gb aan de slag gaat, heb je niet veel spindels of snelle schijven nodig.
Hogere write performance en netto meer opslagruimte (dus goedkoper). Met mirroring ben je namelijk 50% van je schijven kwijt aan redundancy, bij RAID-Z1 met 3 schijven maar 33,3%.Jaap-Jan schreef op dinsdag 19 maart 2013 @ 18:38:
En waarom per sé RAID-Z1 en niet gewoon een mirror?
[ Voor 5% gewijzigd door Compizfox op 19-03-2013 18:45 ]
Gewoon een heel grote verzameling snoertjes
Zoals gezegd, je test cycles zijn 5, dus je test begint met 5 * 4 kilobyte = 20 kilobyte. Dat moet minimaal 8 keer je RAM zijn, dus minimaal 64 gigabyte in plaats van 20 kilobyte. De hele test die je doet is fout; wat je test is gewoon doorvoer ofwel sequential I/O naar je server. L2ARC kun je het beste testen met realistische scenario's. Zoals: installeer een spel op je NAS met en zonder L2ARC en ga de opstarttijd testen of level load of wat dan ook.Xudonax schreef op vrijdag 15 maart 2013 @ 15:23:
En als "laatste stukje" van mijn benchmarks de resultaten met een SSD als cache:
Juist andersom: vrijwel niks sneller (alleen SMP is iets sneller) maar idle power zou een factor 10 tot 20 afgenomen zijn. Dat geldt echter enkel voor de mobiele tak, waarbij ook de VRM nu op de package wordt geïntegreerd. Deze zuinige Haswell chips zullen enkel in BGA versie uitkomen. Dat betekent dus dat je ze niet kunt kopen (stel zeg! dat we zouden kunnen kopen wat we willen...)EnerQi schreef op zaterdag 16 maart 2013 @ 09:36:
Intel processor 'Haswell' komt binnenkort uit (opvolger Ivy bridge). Voor zover ik het begrepen heb, zou het weer sneller moeten zijn maar het idle gebruik gaat zeer weinig omlaag.
Sneller RAM scheelt bijna nooit iets in de prestaties. Echter, dat zijn standaardapplicaties. Taken waarbij de RAM flink wordt gebruikt, zien we wel grote verschillen. Denk hierbij aan AMD met IGP; ander geheugen kan hierbij de prestaties met 50% doen toenemen versus het langzaamste geheugen. Dat is wat anders dan de gebruikelijke 1-2%.FireDrunk schreef op zaterdag 16 maart 2013 @ 09:37:
Alleen 1600Mhz CL9 of CL10 is eigenlijk een upgrade t.o.v. 1333Mhz geheugen. Maar voor een standaard NAS boeit het allemaal vrij weinig, dus neem dan gewoon het goedkoopste.
Je gaat het vooral voelen in de opslagruimte die beperkt wordt door extra slack. Aangenomen dat je ashift=12 draait (optimaal voor 4K disks) - met standaard ashift ben je geen extra ruimte kwijt maar dan lever je dus wel in qua prestaties. Optimale configuraties zijn optimaal voor zowel prestaties als opslagruimte.Jormungandr schreef op zaterdag 16 maart 2013 @ 21:47:
In hoeverre ga je de performance hit voelen als je een niet-conform disk aantal gebruikt voor raidz/raidz2?
ZFSguru wel, maar ZFS biedt die ondersteuning niet. Ook niet onder Solaris platform. De feitelijke support gebeurt door een userland binary (een normale applicatie) die 'zfsd' wordt genoemd. Dit is nu ook naar BSD geport en zou in FreeBSD 10 moeten zitten. Maar in de meeste situaties wil je RAID-Z2 draaien in plaats van hot-spare.Bigs schreef op maandag 18 maart 2013 @ 10:14:
Biedt ZFSguru eigenlijk ondersteuning voor hotspares?
Sendmail is een van de dingen (net als BIND) die standaard geïnstalleerd zijn op FreeBSD en je ook expliciet moet disablen anders gaat die elke nacht mailqueue herkauwen. Ik vind het een ramp, dus schakel sendmail ook gelijk uit. Sendmail is verder berucht om security vulnerabilities. Vieze zooi vind ik het. Maar als je simpelweg mail wilt kunnen versturen, is dit wel wat je wilt.Mafketel schreef op maandag 18 maart 2013 @ 21:36:
Ik ben een beetje in de war....
portmaster -l vind dat sendmail niet is geinstallerd en postfix wel....
Tijd om KVM + FreeBSD + ZFS als incompatible of experimenteel aan te duiden? Want dit probleem had je niet met ESXi op dezelfde hardware, correct?FireDrunk schreef op dinsdag 19 maart 2013 @ 16:51:
Warning: some files on your pool are inaccessible due to unrecoverable corruption! The files affected, are:
Godverdomme, nog heel even en ik flikker mijn server het raam uit...
Afgelopen 4 dagen, geen enkele kernel log melding wat ook maar iets met problemen te maken heeft...
Zowel in de host niet, als in de ZFSguru VM.
Wat doen jullie toch met jullie servers?Compizfox schreef op dinsdag 19 maart 2013 @ 16:57:
Verdomme, weer een schijf gesneuveld....
Dat betekent dus 1,5 core gemiddeld over de laatste 60 seconden; althans als je dat ziet in ZFSguru op de status pagina. Dat is gewoon de average load van de laatste minuut maal honderd. 150% is dus niet heel hoog ofzo. Je kunt het met top -P in een terminal beter zien. Dan zie je ook de interrupt usage bijvoorbeeld.
Kun je de output van 'ifconfig' eens geven? Ik heb hetzelfde bord en dat werkt prima. Heb je DHCP op je netwerk?ilovebrewski schreef op dinsdag 19 maart 2013 @ 17:59:
Blijkt aan de pc te liggen waar ik in eerste instantie de bootable usb heb gemaakt. USB aansluiting werkt niet naar behoren.
Nu in de server en hij boot iig op![]()
Maar hij vind alleen geen ip adres. Staat http://0.0.0.0 (loop)
Het is bedraad GB netwerk en ik heb het volgende moederbord.
Ja, maar ik durf echt geen schuldige aan te wijzen, want ik kan echt NERGENS een foutmelding vinden. Enige wat ik kan verzinnen is dat het met tijd (of clockskew voor de nerds) te maken heeft, en dat ZFS zijn checksums berekend afhankelijk van tijd ofzo.Verwijderd schreef op dinsdag 19 maart 2013 @ 19:37:
Even in een nieuw bericht, voor de overzichtelijkheid:
[...]
Tijd om KVM + FreeBSD + ZFS als incompatible of experimenteel aan te duiden? Want dit probleem had je niet met ESXi op dezelfde hardware, correct?
Enige mogelijkheid die ik zie is dat er toch een vorm van RAM corruptie is ontstaan. Heb je al scrub gestart en wat gebeurt er dan met de corruptie? Ennuhh.. niet zomaar op knopjes drukken hè.![]()
vm_fault: pager read error, pid 19989 (smbd) vm_fault: pager read error, pid 21203 (smbd)
[ Voor 31% gewijzigd door FireDrunk op 19-03-2013 20:02 ]
Even niets...
[ Voor 19% gewijzigd door FireDrunk op 19-03-2013 20:23 ]
Even niets...
Hieronder de output. Ik heb gewoon DHCP. Live-cd via virtual box op mijn laptop pakt hij wel gewoon.Verwijderd schreef op dinsdag 19 maart 2013 @ 19:37:
Kun je de output van 'ifconfig' eens geven? Ik heb hetzelfde bord en dat werkt prima. Heb je DHCP op je netwerk?
[ Voor 14% gewijzigd door ilovebrewski op 19-03-2013 20:26 ]
Dat venstertje van ZFS geeft niet altijd goed je IP weer. Je server zit nu op 192.168.1.12.ilovebrewski schreef op dinsdag 19 maart 2013 @ 20:22:
[...]
Kun je de output van 'ifconfig' eens geven? Ik heb hetzelfde bord en dat werkt prima. Heb je DHCP op je netwerk?
[/quote]
Hieronder de output. Ik heb gewoon DHCP. Live-cd via virtual box op mijn laptop pakt hij wel gewoon.
http://imageshack.us/photo/my-images/856/20130319200409.jpg/
Even niets...
Sjeezz wat een noob ben ik. nja we leren iedere dag weer bijFireDrunk schreef op dinsdag 19 maart 2013 @ 20:24:
[...]
Dat venstertje van ZFS geeft niet altijd goed je IP weer. Je server zit nu op 192.168.1.12.
OK ga ik uitschakelen!Verwijderd schreef op dinsdag 19 maart 2013 @ 20:36:
Dat je 0.0.0.0 zag komt inderdaad omdat de detectie fout gaat. Maar opzich heeft ZFSguru gelijk; je hebt ook een IP adres 0.0.0.0 omdat je de parallelle poort niet hebt uitgeschakeld. Dit is iets van het jaar 1990 wat nu natuurlijk alleen meer problemen kan veroorzaken. Lekker uitschakelen dus, dan heb je geen plip0 netwerk interface meer (IP over parallelle poort; wie verzint het).
Even niets...
Staat ergens verborgen in de bios. Ik had een tijdje terug precies het zelfde. De oplossing van CiPHER lost het direct opilovebrewski schreef op dinsdag 19 maart 2013 @ 20:42:
[...]
OK ga ik uitschakelen!
En rommelen met ZFSGURU!
Tweedehands HDDs erin pleuren. Dat ga ik dus vanaf nu nooit meer doen.
Gewoon een heel grote verzameling snoertjes
Even niets...
Bij mij geeft ie anders ook niet het goede IP aan:Verwijderd schreef op dinsdag 19 maart 2013 @ 20:36:
Dat je 0.0.0.0 zag komt inderdaad omdat de detectie fout gaat. Maar opzich heeft ZFSguru gelijk; je hebt ook een IP adres 0.0.0.0 omdat je de parallelle poort niet hebt uitgeschakeld. Dit is iets van het jaar 1990 wat nu natuurlijk alleen meer problemen kan veroorzaken. Lekker uitschakelen dus, dan heb je geen plip0 netwerk interface meer (IP over parallelle poort; wie verzint het).
1
| Web-interface is running at http://0.0.0.0 (loop) |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
| $ ifconfig vmx3f0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 4000 options=403bb<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,JUMBO_MTU,VLAN_HWCSUM,TSO4,TSO6,VLAN_HWTSO> ether 00:0c:29:39:02:c7 inet6 fe80::20c:29ff:fe39:2c7%vmx3f0 prefixlen 64 scopeid 0x1 inet 192.168.2.5 netmask 0xffffff00 broadcast 192.168.2.255 nd6 options=21<PERFORMNUD,AUTO_LINKLOCAL> media: Ethernet 10Gbase-T status: active pflog0: flags=41<UP,RUNNING> metric 0 mtu 33152 nd6 options=21<PERFORMNUD,AUTO_LINKLOCAL> pfsync0: flags=41<UP,RUNNING> metric 0 mtu 1500 nd6 options=21<PERFORMNUD,AUTO_LINKLOCAL> syncpeer: 0.0.0.0 maxupd: 128 lo0: flags=8049<UP,LOOPBACK,RUNNING,MULTICAST> metric 0 mtu 4000 options=600003<RXCSUM,TXCSUM,RXCSUM_IPV6,TXCSUM_IPV6> inet6 ::1 prefixlen 128 inet6 fe80::1%lo0 prefixlen 64 scopeid 0x4 inet 127.0.0.1 netmask 0xff000000 nd6 options=21<PERFORMNUD,AUTO_LINKLOCAL> |
Gewoon een heel grote verzameling snoertjes
Even niets...
Gewoon een heel grote verzameling snoertjes
Compizfox schreef op dinsdag 19 maart 2013 @ 16:57:
Verdomme, weer een schijf gesneuveld....
Maakt ook gekke geluiden. Het probleem is ook dat heel FreeBSD er unresponsive van wordt...
Nou nouCompizfox schreef op dinsdag 19 maart 2013 @ 22:31:
[...]
Tweedehands HDDs erin pleuren. Dat ga ik dus vanaf nu nooit meer doen.
Samsung HD753LJ's, 3x. Er zijn ondertussen al 2 van defect gegaan, waarvan ik er 1 heb vervangen door een andere (2e handse) van hetzelfde type.HyperBart schreef op woensdag 20 maart 2013 @ 00:08:
[...]
[...]
Nou nou, ik heb hier zelf een setje Hitachi Deskstars tweedehands overgekocht. Tot nu toe *klopt af* nog geen problemen gehad... Alles kan idd zowat kapot gaan. Wat voor type had je?
Dat is iets anders. Als een RAID-controller een HDD (of meer) eruit tieft tijdens een rebuild, ben je fucked, maar is dat op zich geen defecte schijf. Die schijf zal namelijk vast geen fysieke schade hebben, los van die URE.Vandaag had ik een klant aan de lijn die zijn DPM-backups naar een Thecus NAS deed van 7 x 2TB. Eentje was er uit geflikkerd wegens SMART errors, en tijdens de rebuild waren er nog 2 die moeilijk deden (ik vermoed een URE) en dat was dan al met RAID6 en WD Black RE schijven... Om maar even aan te tonen dat nieuwkoop ook geen garantie is op eeuwig blijvend werkend.
[ Voor 6% gewijzigd door Compizfox op 20-03-2013 00:14 ]
Gewoon een heel grote verzameling snoertjes
Niet helemaal, omdat je dan de loopback adapter kunt krijgen, of bridged verbindingen, of alias adressen of bijvoorbeeld die parallelle poort. Om die reden wordt ook naar de naam van de adapter gekeken, en daar zit dus nog een bugje in; die alleen voorkomt met de netwerkinterface die 'third party' is en derhalve een afwijkende naam heeft.FireDrunk schreef op dinsdag 19 maart 2013 @ 22:51:
offtopic:
je kan natuurlijk ook gewoon RegExxen op inet [0-9^3.0-9^3.0-9^3]
*uit de losse pols...*
Uiteraard ben je relatief gezien meer ruimte kwijt, maar je aanschafkosten zijn lager (2x WD20EZRX kost €168,- inclusief verzenden, 3x WD10EZRX kost €178,- inclusief verzenden) en het verbruik zal ook lager zijn.Compizfox schreef op dinsdag 19 maart 2013 @ 18:44:
[...]
Hogere write performance en netto meer opslagruimte (dus goedkoper).Met mirroring ben je namelijk 50% van je schijven kwijt aan redundancy, bij RAID-Z1 met 3 schijven maar 33,3%.
Ik zie wel een upgrade- pad. Maak een mirror van de (degraded) RAID-Z array en je nieuwe disk en vervang later die RAID-Z array voor een nieuwe disk. Klaar.Daarnaast draai ik nu dus ook al RAID-Z1 (nu dus degraded) en was het plan om ivm geld de 3 schijven geleidelijk te vervangen door nieuwe exemplaren.
De eerste bestel ik vandaag, zodat m'n pool morgen (als het goed is) tenminste niet meer degraded is.
Over een paar maanden koop ik de overige 2 exemplaren wel en dan kan ik m'n pool expanden.
Als ik over zou gaan naar mirroring zou dat niet kunnen
[ Voor 10% gewijzigd door Jaap-Jan op 20-03-2013 00:58 ]
| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett
[ Voor 67% gewijzigd door FireDrunk op 20-03-2013 08:40 ]
Even niets...
Ja, maar met 2x WD20EZRX in mirror heb ik netto maar 1 TB opslagruimte (50% kwijt), en met 3x in RAID-Z1 heb ik 2 TB (33,3% kwijt).Jaap-Jan schreef op woensdag 20 maart 2013 @ 00:25:
[...]
Uiteraard ben je relatief gezien meer ruimte kwijt, maar je aanschafkosten zijn lager (2x WD20EZRX kost €168,- inclusief verzenden, 3x WD10EZRX kost €178,- inclusief verzenden) en het verbruik zal ook lager zijn.
Bij mirroring zou je write-snelheid even hoog moeten zijn als ie zou zijn met 1 schijf. Met RAID-Z1 is het 2x zo snel (3 schijven tegelijk - 1 parity = 2)Qua write performance lijk je wel gelijk te hebben, wel tegen mijn verwachting in, overigens.. Bij de benchmarks die ik heb kunnen vinden vind ik het wel raar dat mirror slechter scoort dan single disk. Zoals aangegeven in die benchmark: aan de RandomWrite benchmarks in die test heb je niets, die is gelimiteerd door de CPU.
Gewoon een heel grote verzameling snoertjes
Volgens mij is dat niet zo. Met Raidz1 heb je schrijfsnelheid van 1 disk.Compizfox schreef op woensdag 20 maart 2013 @ 10:27:
oring zou je write-snelheid even hoog moeten zijn als ie zou zijn met 1 schijf. Met RAID-Z1 is het 2x zo snel (3 schijven tegelijk - 1 parity = 2)
[ Voor 10% gewijzigd door Compizfox op 20-03-2013 11:02 ]
Gewoon een heel grote verzameling snoertjes
matty___ schreef op woensdag 20 maart 2013 @ 10:51:
[...]
Volgens mij is dat niet zo. Met Raidz1 heb je schrijfsnelheid van 1 disk.
"RAID-Z: Similarly to RAID-5, you get n-1 disks worth of space, and spend 1 parity disk for fault tolerance. One disk breaks, you still get to your data. Performance is more complicated: Writes are spread across all disks, so essentially, per I/O, you'll always get the performance of a single disk. Same for reads. If you're lucky and the stars align and you read a lot of data at once, you may get more than that. I'll let the zpool(1M) man page explain the rest"
http://constantin.glez.de...-why-mirroring-still-best
Jullie verwisselen IOPS met throughput. IOPS zijn gelijk met iedere spindle, maar de bandbreedte verhoogt met iedere spindle die er bij komt...Compizfox schreef op woensdag 20 maart 2013 @ 11:01:
Die redenering snap ik niet, en volgens mij is het ook niet zo. Writes zijn inderdaad verspreid over meerdere disks, maar juist daarom is het sneller dan 1 disk.
Ook Wikipedia geeft dat aan:
RAID5 write speed = (n−1)X
Met n het aantal schijven en X de snelheid van een enkele disk.
Bij RAID1 is het 1X, en met RAID0 is het nX.
Wikipedia: RAID
[ Voor 28% gewijzigd door HyperBart op 20-03-2013 11:20 ]
raidz1 != raid5 in dat opzichtCompizfox schreef op woensdag 20 maart 2013 @ 11:01:
Die redenering snap ik niet, en volgens mij is het ook niet zo. Writes zijn inderdaad verspreid over meerdere disks, maar juist daarom is het sneller dan 1 disk.
Ook Wikipedia geeft dat aan:
RAID5 write speed = (n−1)X
Met n het aantal schijven en X de snelheid van een enkele disk.
Bij RAID1 is het 1X, en met RAID0 is het nX.
Wikipedia: RAID
hmm zo had ik er nog niet naar gekekenHyperBart schreef op woensdag 20 maart 2013 @ 11:19:
[...]
[...]
Jullie verwisselen IOPS met throughput. IOPS zijn gelijk met iedere spindle, maar de bandbreedte verhoogt met iedere spindle die er bij komt...
De WD20EZRX is 2 TB, dus met 2x in mirror houdt je netto 2 TB over. De €/GB van 2TB- schijven zijn veel beter dan die van 1 TB schijven. Die 50% verlies houdt je nog steeds, maar dat verschil zit tussen de oren.Compizfox schreef op woensdag 20 maart 2013 @ 10:27:
[...]
Ja, maar met 2x WD20EZRX in mirror heb ik netto maar 1 TB opslagruimte (50% kwijt), en met 3x in RAID-Z1 heb ik 2 TB (33,3% kwijt).
Aha. Sequential write speeds worden dus wel beter, maar random write speeds niet.HyperBart schreef op woensdag 20 maart 2013 @ 11:19:
[...]
[...]
Jullie verwisselen IOPS met throughput. IOPS zijn gelijk met iedere spindle, maar de bandbreedte verhoogt met iedere spindle die er bij komt...
| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett
| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett
1
2
3
| ada0 GPT: Storage4 750.2 GB 698.6 GiB 512 B <SAMSUNG HD753LJ 1AA01107> ATA-7 SATA 2.x device ada1 GPT: Storage5 1 TB 931.5 GiB 512 B <SAMSUNG HD753LJ 1AA01118> ATA-7 SATA 2.x device ada2 GPT: Storage1 750.2 GB 698.6 GiB 512 B <SAMSUNG HD753LJ 1AA01118> ATA-7 SATA 2.x device |
Gewoon een heel grote verzameling snoertjes
Inderdaad. RAID-Z heeft door zijn RAID3-achtige structuur geen voordeel uit random I/O. Daar staat tegenover dat de random write snelheid even groot is als een enkele disk zonder RAID (net iets langzamer). Dat klinkt misschien niet goed, maar RAID5 is daarintegen juist heel traag met random write (je moet eerst lezen om te kunnen schrijven). Bij RAID-Z is dat niet zo, maar zijn random reads juist weer veel trager dan RAID5.Jaap-Jan schreef op woensdag 20 maart 2013 @ 13:03:
Aha. Sequential write speeds worden dus wel beter, maar random write speeds niet.
ik denk dat die eerder de arc leeg begint te maken en aan het verkleinen is. Weet je trouwens zeker dat die aan het schrijven is?onox schreef op woensdag 20 maart 2013 @ 19:00:
Is het zo dat ZFS bepaalde data op de disks leest/schrijft als het krapjes wordt met geheugen? Ik heb soms wel eens dat het geheugen behoorlijk vol loopt (door programma's of tmpfs) en dan gaat het systeem hangen en gaat het hard disk lampje druk knipperen. Dit terwijl ik geen swap support heb in m'n kernel (swappen is uitstel van executie en zo jaren 90).
Even niets...
Even niets...
Ik loop ook telkens tegen checksum errors aan. (met dezelfde combi KVM+ZFSGuru en het via vt-d doorgeven van M1015's).FireDrunk schreef op donderdag 21 maart 2013 @ 11:41:
Zojuist weer checksum errors, vm uitgezet, CPU nog verder teruggeschroeft en nu zijn ze weer weg... Geen idee of het CPU type verlagen helpt, of dat het simpelweg rebooten van de VM alles al oplost...
Er loopt nu weer een scrub...
[ Voor 20% gewijzigd door B2 op 21-03-2013 12:19 ]
Even niets...
Inderdaad. Ik overweeg om het hele virtualisatie verhaal maar te schrappen en ZFSonLinux te gaan gebruiken. Ik heb Linux nodig voor Plex Media Server, vandaar geen native BSD.FireDrunk schreef op donderdag 21 maart 2013 @ 12:20:
Mja, ik begin KVM ook te verdenken... Eigenlijk moet een KVM Developer hier eens naar kijken...
Het liefst een met verstand van ZFS
Even niets...
Niet voor de levensduur, maar het helpt wel tegen performance degradation als je OS geen TRIM ondersteunt.ilovebrewski schreef op donderdag 21 maart 2013 @ 14:31:
En helpt het dan de levensduur te bevorderen als ik de partities kleiner maak als de SSD?
Zo dan... Dat zijn flink wat disks
Gewoon een heel grote verzameling snoertjes
[ Voor 38% gewijzigd door Contagion op 21-03-2013 17:59 ]
Lees je eens in in hoe SSDs werken, dat gaat sneller dan dat ik het hier compleet uit ga zitten leggenContagion schreef op donderdag 21 maart 2013 @ 17:57:
@compizfox: maakt dat iets uit? Hoe groot de partities zijn? Een SSD zal toch zelf wel iets van wear-leveling in zich hebben en uiteindelijk de sectoren op een totaal andere fysieke plek zetten? Ik zou juist denken dat een grotere partities minder noodzaak tot wear-leveling heeft omdat er in die partitie genoeg ruimte is voor het FS om files op een andere sector te zetten ipv een sector te hergebruiken.
Gewoon een heel grote verzameling snoertjes
[ Voor 29% gewijzigd door Contagion op 21-03-2013 18:40 ]
[root@zfsguru /home/ssh]# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT SPIEGELTJE/Bart@1 0 - 31K - hulk/Bart@1 0 - 31K - hulk/Bart@2 0 - 31K -
[root@zfsguru /home/ssh]# zfs send hulk/Bart@1 | zfs receive SPIEGELTJE/Bart@1
[root@zfsguru /home/ssh]# zfs send hulk/Bart@3 | zfs recv SPIEGELTJE/Bart@3 cannot receive new filesystem stream: destination 'SPIEGELTJE/Bart' exists must specify -F to overwrite it
Jep.Contagion schreef op donderdag 21 maart 2013 @ 18:37:
Ok, een CF kaart of SD kaart doet dat dan dus anders. Het leek me voor de hand dat een SSD dat ook van zichzelf doet. Overigens is het TRIMmen eigenlijk een machanisme wat daar bovenop ligt dus misschien hebben we beide gelijk: het filesysteem bepaalt dat een sector leeg is maar de drive weet dat niet.
Hoe bedoel je dat? Een SSD kán simpelweg niet zelf de slimmerik uithangen, want dat zou betekent dat de SSD een random sector moet kiezen om te overwriten, waarmee de kans groot is dat hij data overwrite die in gebruik is.Het TRIM command vertelt juist DAT tegen de SSD zodat zijn wear leveling mechanisme ook weet dat die sector leeg is ipv zelf de slimmerik uit te hangen.
Zoals ik al zei kan ik je hiervoor veel beter doorverwijzen naar het SSD-topic: Het grote SSD topic ~ Deel 9Edit: Wikipedia vindt dat een SSD ook aan wear leveling doet. Ik vermoed dat het dus misschien toch niet uit maakt of je een hele drive alloceert of een partitie van 1 GB. De overige zeg 79 GB bij een 80 GB drive komen toch wel vol alleen weet jij daar niks van, dat doet de SSD al voor je met zijn eigen wear leveling technieken. Trim kan wel helpen dat efficienter te doen.
Niet mee eens. Zolang je TRIM gebruikt, en je zorgt dat je partitie niet helemaal vol zit, is dat overbodig.Verwijderd schreef op donderdag 21 maart 2013 @ 18:51:
Concreet betekent dit dat je SSDs altijd wilt overprovisionen.
Gewoon een heel grote verzameling snoertjes
[ Voor 5% gewijzigd door Verwijderd op 21-03-2013 19:29 ]
In dat geval is overprovisioning wel handig ja.Verwijderd schreef op donderdag 21 maart 2013 @ 19:29:
L2ARC en SLOG ondersteunen geen TRIM hoor. Zelfs ZFS zelf ondersteunt enkel TRIM onder BSD platform voor zover ik weet.
Dat begrijp ik niet echt... Wat is het verschil met zorgen dat je partitie niet vol raakt + TRIM?Maar al zou je TRIM ondersteuning hebben, dan nog wil je extra overprovisioning instellen.
Gewoon een heel grote verzameling snoertjes
Ik ga ermee aan de slag! Dacht heb toch 120GB dus deel het op.Verwijderd schreef op donderdag 21 maart 2013 @ 18:51:
Wear levelling != write redirection. Een CF kaart heeft geen echte controller waardoor het heel traag is met random write. Dat maakt het verschil met een SSD. Wear levelling is enkel om de writes te spreiden. Write redirection - wat alleen SSDs hebben - is om de SSD snel te maken. De SSD schrijft dan niet naar de plek die het normaliter zou kiezen gebaseerd op de logische LBA die de host aangeeft. In normaal Nederlands: een CF kaart schrijft naar sector 23858 als de host dat vraagt; een SSD zegt wel dat hij dat heeft gedaan, maar die write kan ook heel ergens anders zijn opgeslagen.
Door de write redirection is de random write een factor 1000 tot 100000 (dus 10 miljoen procent) sneller: van 0,001MB/s naar boven de 100MB/s voor een SSD. Deze feature vereist dan wel TRIM of althans de SSD heeft continu extra ruimte nodig; meer ruimte dan de host kan zien.
Concreet betekent dit dat je SSDs altijd wilt overprovisionen. 70 gigabyte aan L2ARC is ook enorm veel; ik zou het met 40GiB eens proberen dat is al een shitload die je toch nooit vol krijgt. Partitioneren doe je in ZFSguru op de Disks pagina met de partition map editor die ik heb ontworpen. Dan kun je zelf netjes partities maken zoals je wilt, en de lege ruimtes kun je TRIMen (als je SSD als 'ada' wordt herkend).
Een van de wijzen hier nog een ideetje over? CiPHER?HyperBart schreef op donderdag 21 maart 2013 @ 19:12:
Ik wil eigenlijk mijn "main" pool zo snapshot vrij mogelijk houden op ieder punt in de tijd (met uitzondering wanneer hij natuurlijk aan het senden is naar mijn backup pool).
Mijn idee was dus:
[root@zfsguru /home/ssh]# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT SPIEGELTJE/Bart@1 0 - 31K - hulk/Bart@1 0 - 31K - hulk/Bart@2 0 - 31K -
Zoals je kan zien heb ik 2 snapshots van Bart, @1 heb ik naar spiegeltje gestuurd met:
[root@zfsguru /home/ssh]# zfs send hulk/Bart@1 | zfs receive SPIEGELTJE/Bart@1
Prima, dan krijg je dat ook te zien zoals hierboven. Maar ik heb daarna een @2 genomen en ik wil die nu terug syncen naar spiegeltje/Bart met behoud van @1 op spiegeltje, dus ik dacht:
[root@zfsguru /home/ssh]# zfs send hulk/Bart@3 | zfs recv SPIEGELTJE/Bart@3 cannot receive new filesystem stream: destination 'SPIEGELTJE/Bart' exists must specify -F to overwrite it
Maar ik wil niet overwriten, ik wel net op hulk geen snapshots open (of eentje dan max) en op SPIEGELTJE wil ik ze a volonté opstapelen als backup.
Wat doe ik fout?
Dit is uiteraard op een test systeempje
Even niets...
Laat dat nou net gisteren in de current zijn toegevoegd (voor de l2arc) cq verbeterdVerwijderd schreef op donderdag 21 maart 2013 @ 19:29:
L2ARC en SLOG ondersteunen geen TRIM hoor. Zelfs ZFS zelf ondersteunt enkel TRIM onder BSD platform voor zover ik weet.
[ Voor 7% gewijzigd door matty___ op 22-03-2013 09:47 ]
Hier ook, ik ga alleen naar Ubuntu + ZFS ppa. Normaal gesproken gebruik ik altijd een RedHat afgeleide distro, maar het simpel kunnen gebruiken van een ppa ipv de source vind ik voor dit geval wel handig.FireDrunk schreef op vrijdag 22 maart 2013 @ 09:42:
Ok, de kogel is door de kerk (of door de storage, hoe je het ook wil zien).
KVM is niet stabiel genoeg, en ik ga het verwijderen. Ik kan niet vinden waarom, maar ik heb om onverklaarbare wijze checksum errors.
[ Voor 30% gewijzigd door FireDrunk op 22-03-2013 10:12 ]
Even niets...
Als je zo overschakelt tussen Ubuntu en ZFSguru detecteert het andere OS dan automatisch je pools? Of moet je nog speciale handelingen verrichten?Contagion schreef op vrijdag 22 maart 2013 @ 10:41:
Ik heb hier dus ook ZFs On Linux draaien en ik ben er uitermate tevreden over. Nog geen gekke dingen gehad en voor zover ze er waren (drives die net niet genoeg prik hebben en daardoor af en toe uit- en aanschakelen) wordt dit (zoals verwacht) zonder morren opgelost door ZFS. ZIL + L2ARC heb ik geen ervaring mee, Als je Pool V28 gebruikt kan je het toch gewoon proberen en evt. alsnog terug naar FreeBSD met Ubuntu in VM?
export import zou moeten werken volgens mij. Eventueel zelfs zonder export en een import -f doen.ilovebrewski schreef op vrijdag 22 maart 2013 @ 11:06:
[...]
Als je zo overschakelt tussen Ubuntu en ZFSguru detecteert het andere OS dan automatisch je pools? Of moet je nog speciale handelingen verrichten?
Even niets...
Je hebt gewoon veel meer spare space nodig dan normaal. Neem dit plaatje eens:Compizfox schreef op donderdag 21 maart 2013 @ 20:14:
Dat begrijp ik niet echt... Wat is het verschil met zorgen dat je partitie niet vol raakt + TRIM?
Ik raad aan dat je de eerste partitie de systeempartitie maakt. Dit vanwege de BSD bootcode. Je mag je pool overigens geen 'boot' noemen - die naam is gereserveerd. Je kunt 'systeem' ofzo gebruiken.ilovebrewski schreef op donderdag 21 maart 2013 @ 20:22:
Ik ga ermee aan de slag! Dacht heb toch 120GB dus deel het op.![]()
Ik ga het als volgt doen
- 40GB L2ARC
- 40GB boot
- 40GB TRIMen
Ja kan prima. geom_stripe (RAID0) of geom_concat (JBOD/spanning) kun je gebruiken. Ik raad geom_stripe aan. Dat maakt het iets sneller omdat je oudere schijven langzamer zijn dan nieuwe 3TB schijven. Nadeel is dat je 2*1.5TB krijgt en de 0.5TB verdwijnt. Maar dat is dus helemaal niet zo erg want je wilt hem juist als 3TB disk gebruiken. Bovendien kun je die 0.5TB nog wel gebruiken als je partities gebruikt.Wat vind jij trouwens van het idee van Contagion?
@ilovebrewski Ik zou je 2TB en 1.5TB schijven aan elkaar knopen tot 3.5TB schijven en die dan opnemen in de array (FreeBSD: geom, Linux: mdadm). Dan heb je dus 6x3TB RAID-Z1 (of veiliger: Z2) effectief (want die laatste 0,5 TB is niet de grootste gemene deler van disks,). Netto houdt je dus 15 TB (RAIDZ1 5+1) of 12 TB (RAIDZ2) over.
Ik moet zeggen dat ik het toch moeilijk vind om te beslissen of ik ga beginnen in ZFSguru of ZFSonLINUX.Xudonax schreef op vrijdag 22 maart 2013 @ 11:11:
export/import werkt in ieder gewoon vanaf ZFSGuru naar ZFS on Linux. En ook ik heb nergens last van met ZFS on Linux, doe ~350MB/s sequential op m'n RAIDZ2 pool. Mijn mirror pool is trager, maar dat komt door de schijven zelf natuurlijk
Thnx voor je adviesXudonax schreef op vrijdag 22 maart 2013 @ 12:07:
Bij weinig onderhoud zou ik toch de voorkeur geven aan ZFSGuru. Dit is een systeem wat volledig rond ZFS gebouwd is met een mooie webinterface en alles. Als je ZFS on Linux wilt gaan doen moet je toch al snel naar de commandline grijpen omdat er nog geen/weinig GUI tooltjes voor zijn.
Plus dat je bij ZFSGuru alles mooi op één plaats kunt beheren
Even niets...
Ja, dat snap ik.Verwijderd schreef op vrijdag 22 maart 2013 @ 11:41:
[...]
Je hebt gewoon veel meer spare space nodig dan normaal. Neem dit plaatje eens:
[afbeelding]
Hier zie je verschillende kleuren lijnen die aangeven hoe je de SSD gebruikt. Een SSD die als caching (SRT of L2ARC) wordt gebruikt, zal veel meer random writes en dynamische data veroorzaken dan het typisch gebruik van een SSD in desktops waarbij tot 80% van de data niet meer wordt aangepast na te zijn geschreven.
Het eigenlijke probleem is fragmentatie van de vrije ruimte. Als je dus alleen maar 4K writes gaat doen naar je SSD dan heb je meer spare space nodig om dezelfde write amplification te behalen. Dat kun je in bovenstaande grafiek wel aardig zien. Bedenk hierbij dat de grafiek begint bij 0.1 spare factor dus 10% spare space; consumenten SSDs hebben standaard slechts 6,8% spare space.
Kort antwoord is dus omdat L2ARC zwaarder is voor je SSD, mits het ook actief gebruikt wordt. Bovendien kun je altijd achteraf de partities nog groter maken (met ZFSguru is dat vrij makkelijk via de partition editor).
[...]
Gewoon een heel grote verzameling snoertjes
Gewoon een heel grote verzameling snoertjes
maar ze geven wel allemaal even veel vrije ruimte weer dus dat klopt dan weer wel.Oid schreef op vrijdag 22 maart 2013 @ 14:45:
misschien is het al een keer gevraagd, en misschien is het geen ZFS issue maar.
ik heb zfsguru met 6x 2TB raid6 draaien met verschillende "filesystems" mijn hoofd filesystem is tank en daaronder een stuk of 10 filesystems bijv.
tank/VMware
tank/backup
tank/iso
deze share ik via samba (VMware alleen nfs) maar alle filesystems geven een verschillende grootte aan. zie hier:
[afbeelding]
kan dat op een of andere manier aangepast worden? Heb al beetje zitten zoeken maar dacht eerst dat het een Samba issue is maar niks gevonden.
Even niets...
Ja dat klopt wel inderdaad, iets om over na te denken als je zfs implementeert, verschillende filesystems kunnen verschillende groottes weergeven.matty___ schreef op vrijdag 22 maart 2013 @ 16:03:
[...]
maar ze geven wel allemaal even veel vrije ruimte weer dus dat klopt dan weer wel.
wat heb ik daar nou aanFireDrunk schreef op vrijdag 22 maart 2013 @ 16:15:
Daar zit het hem in volgens mij. Als een filesystem ruimte 'tekort' komt vraagt hij dat aan de pool. Zolang er nog geen tekort is, zie je volgens mij dus alleen maar hoeveel ruimte van de pool geallocceerd is aan een filesystem.
Maar 100% weten doe ik het niet.
kweenie waarom niemand nog een antwoord heb gegeven maar...HyperBart schreef op donderdag 21 maart 2013 @ 20:38:
[...]
Een van de wijzen hier nog een ideetje over? CiPHER?
Even niets...
Niet helemaal hetzelfde. Met TRIM kun je zeker bij L2ARC veel 'snippertjes' aan vrije ruimte krijgen. Maar daar heeft je controller niets aan; die wil vrije erase blocks van 128K tot 512K. Je zult heel veel TRIMed space nodig hebben om van nature vrije erase blocks te krijgen. Als je je SSD heel intensief gebruikt zoals L2ARC 24/7 dan zal je write amplification flink oplopen als je enkel op TRIM vertrouwt om de SSD spare space te geven. Je SSD heeft dan driemiljoen snippers van 4K blocks bijvoorbeeld; maar daar kan het nog niets mee. Mocht er dan ruimte vrij moet worden gemaakt, dan moet de SSD met garbage collection aan de slag om een deels beschreven erase block te lezen, de gegevens elders onder te breken en daarna te erasen. Daarna kan het de write request uitvoeren. Als dit regelmatig gebeurt heb je een hoge write amplification.Compizfox schreef op vrijdag 22 maart 2013 @ 14:39:
Maar vrije, gepartitioneerde ruimte (waarvan de SSD door het gebruik van TRIM ook wéét dat het vrij is) heeft toch hetzelfde effect als ongepartitioneerde ruimte?
Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.
Sorry ik ben niet duidelijk genoeg geweest.Verwijderd schreef op dinsdag 19 maart 2013 @ 19:31:
[...]
Sendmail is een van de dingen (net als BIND) die standaard geïnstalleerd zijn op FreeBSD en je ook expliciet moet disablen anders gaat die elke nacht mailqueue herkauwen. Ik vind het een ramp, dus schakel sendmail ook gelijk uit. Sendmail is verder berucht om security vulnerabilities. Vieze zooi vind ik het. Maar als je simpelweg mail wilt kunnen versturen, is dit wel wat je wilt.
Ik begrijp niet helemaal wat je zegt. snapshot 1 bestaat omdat je die in eerste instantie hebt overgepompt met je eerste zfs send en receive, als je daarna de recente gegevens erbij wil stoppen doe je dat van het verschil van 1 en 2. Tenminste zo lees ik de documentatie en heb ik het geloof ik anderhalf jaar geleden bij een migratie ook al toegepast.FireDrunk schreef op vrijdag 22 maart 2013 @ 17:34:
Dat kan dus niet. Dan stuur je de verschillen tussen @1 en @2 naar /Bart.
Maar omdat dat snapshot nog niet bestaat, kan je niet alleen de verschillen sturen, omdat hij niet weet welke data het verschil is tussen de pool en @1...
(Ik heb het er ook al met HyperBart over gehad)
[ Voor 24% gewijzigd door Mafketel op 23-03-2013 10:48 ]
[ Voor 15% gewijzigd door ilovebrewski op 23-03-2013 13:19 ]
Even niets...
Had al gekeken op de MySQL website maar kon zo snel niet vinden...FireDrunk schreef op zaterdag 23 maart 2013 @ 18:24:
Dat is je default wachtwoord van MySQL, als je die nog niet ingesteld hebt, moet je even de handleiding van MySQL erbij pakken hoe je het root ww reset.
15 bad sectors zijn nou niet bepaald een reden om de disk te vervangen hoor, sterker nog, dit komt heel vaak voor bij grote schijven (met grote datadichtheid).Wouter.S schreef op zaterdag 23 maart 2013 @ 10:07:
De problemen begonnen 2 weken geleden. Eén disk vertoonde in de plots 15 active bad sectors.[afbeelding]
Een scrub leverde geen fouten op dus alles nog goed en wel. Ik ging rustig op zoek naar een replacement disk.
Gewoon een heel grote verzameling snoertjes
Ondertussen zijn beide disks vervangen en de array is weer netjes ONLINE.Compizfox schreef op zaterdag 23 maart 2013 @ 20:33:
[...]
15 bad sectors zijn nou niet bepaald een reden om de disk te vervangen hoor, sterker nog, dit komt heel vaak voor bij grote schijven (met grote datadichtheid).
Waarschijnlijk verdwijnen ze vanzelf weer.
Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.
Kun je niet gewoon ftp/vsftpd proberen? Heb je geen lompe externe database voor nodigJonny55 schreef op zaterdag 23 maart 2013 @ 19:14:
[...]
Had al gekeken op de MySQL website maar kon zo snel niet vinden...
Kan iemand even duidelijk uitleggen wat nu de procedure is om in PHP admin in te kunnen loggen?
Ik wil graag PureFTPd werkend hebben maar het vereist MySQL database,want ik mis echt FTP op zfsguru dat is echt en misser!
[ Voor 17% gewijzigd door ilovebrewski op 24-03-2013 13:05 ]
En bij het zelf installeren werkt php ook niet lekker.The mysqli extension is missing. Please check your PHP configuration. <a href="Documentation.html#faqmysql" target="documentation"><img src="themes/dot.gif" title="Documentation" alt="Documentation" class="icon ic_b_help" /></a>
| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett
| Last.fm | "Mr Bent liked counting. You could trust numbers, except perhaps for pi, but he was working on that in his spare time and it was bound to give in sooner or later." -Terry Pratchett
Apple iPhone 17 LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq