Even niets...
Dus om dit average te noemen (ZoL).
Kunnen we niet even een standaard snelheid test bedenken zodat er wat te vergelijken valt?
1
2
3
4
5
6
7
8
9
10
| patrick@server:/tank $ dd if=/dev/zero of=test.bin bs=32M count=8192 8192+0 records gelezen 8192+0 records geschreven 274877906944 bytes (275 GB) gekopieerd, 898,068 s, 306 MB/s patrick@server:/tank $ dd if=/dev/zero of=test2.bin bs=32M count=8192 8192+0 records gelezen 8192+0 records geschreven 274877906944 bytes (275 GB) gekopieerd, 904,457 s, 304 MB/s |
Dat is een testsize van (volgens mijn berekeningen) 256GB, wat 16x mijn RAM is. De exacte setup van de pool is:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
| pool: tank
state: ONLINE
scan: scrub repaired 0 in 5h46m with 0 errors on Fri Jul 26 18:01:34 2013
config:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
ata-HGST_HTS541010A9E680_JB100013J2RP1A ONLINE 0 0 0
ata-HGST_HTS541010A9E680_JB100013J3ST5B ONLINE 0 0 0
ata-HGST_HTS541010A9E680_JB100013J3TXGB ONLINE 0 0 0
ata-HGST_HTS541010A9E680_JB100013J422JB ONLINE 0 0 0
ata-HGST_HTS541010A9E680_JB100013J4HGNB ONLINE 0 0 0
ata-HGST_HTS541010A9E680_JB100013J4J15B ONLINE 0 0 0
logs
ata-INTEL_SSDSA2CW120G3_CVPR126608BS120LGN-part1 ONLINE 0 0 0
cache
ata-INTEL_SSDSA2CW120G3_CVPR126608BS120LGN-part2 ONLINE 0 0 0
errors: No known data errors |
EDIT: Nu moet ik wel zeggen dat de 350MB/s was met een compleet lege pool. De pool is nu 50% vol. Ik ben benieuwd wat 'ie gaat doen als mijn geplande upgrade er volledig in zit
[ Voor 4% gewijzigd door Xudonax op 28-07-2013 19:37 ]
Even niets...
Voeg toe:
betaalde support mogelijkheden
HA/Clustering/Master-Master/Master-Slave
Ondersteuning voor pool versie ? (lees: Solaris heeft encryptie, rest niet).
[ Voor 10% gewijzigd door analog_ op 28-07-2013 19:54 ]
Kopje High Availability is er al.
[ Voor 24% gewijzigd door FireDrunk op 28-07-2013 20:28 ]
Even niets...
Als ik klaar ben met testen gaat waarschijnlijk mijn synology de deur uit en gaat alles op ZFSguru. Dat brengt me wel op een vraag. In mijn Synology kan ik schijven van verschillende grotes sttoppen en toch effectief alle ruimte gebruiken doordat je als je niet alle ruimte in een raid volume opneemt je de overige ruimte kan gebruik als single disk of in combinatie met een andere disk als raid.
Is dat met ZFS ook mogelijk?
Je maakt dan simpelweg partities, dan kan je met een 3/4 tal partities van elk een aparte disk een raidz1 vormen. Dan maak je van de overige partities gewoon een enkele pool, zodat je die ruimte ook kan gebruiken.
Iets verder kijken en dan posten....
[ Voor 16% gewijzigd door Mystic Spirit op 28-07-2013 21:13 ]
Geeft de partities duidelijke labels zodat je bij het maken van pools niet de weg kwijt raakt.
Even niets...
Dan moet je wel vanaf meerdere stations je data benaderen, of verschillende vlans gebruiken.Xudonax schreef op zondag 28 juli 2013 @ 19:45:
Gigabit voltrekken is inderdaad geen probleem. Ik zit onderhand zelfs te kijken naar link aggregation van 2 of 3 GbE poorten om te zorgen dat ik op een enigszins fatsoenlijke snelheid overal bij kanIk bedoel, mijn RAID1 setup (Linux SW RAID) kan makkelijk 150MByte/s sequentieel doen. En gezien het gebruik van deze opslag is het geen overbodige luxe om daar een 200Mbit/s pijp heen te hebben IMO.
Anders is 10GE een betere oplossing. Voor point-to-point een enigszins betaalbare oplossing.
Op ebay heb je dual port inte x520-da2 kaarten voor rond de 300 euro. Direct attach sfp+ kabel is vanaf 50 euro.
Ik haal daar prima snelheden mee.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Echter twijfel ik nu om van ZFS onder ESXi naar ZFS als VirtualBox host te gaan. Wat mij vooral tegenvalt is het stroomverbruik onder ESXi, dat is standaard al 60 watt met een systeem dat idle niet boven de 20 watt uit zou moeten komen. Ik neem aan dat FreeBSD door zijn betere driver ondersteuning een lager verbruik moet kunnen halen.
Wat mij enkel tegen staat zijn de slechte ervaringen hier met VirtualBox, ik wil wel graag een stabiel systeem en dat schijnt lastig te zijn lees ik hier.
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Bovendien is VirtualBox in vergelijking tot ESXi stront...
[ Voor 12% gewijzigd door FireDrunk op 29-07-2013 09:29 ]
Even niets...
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Ik wil het ooit nog wel eens gaan proberen, aangezien Hyper-V wel (goede) ondersteuning heeft voor het doorgeven van fysieke schijven via die SCSI controller.
Ander nadeel is weer dat je geen 10Gb virtuele interface hebt onder FreeBSD, hooguit 1Gb.
[ Voor 17% gewijzigd door FireDrunk op 29-07-2013 09:46 ]
Even niets...
[ Voor 76% gewijzigd door HyperBart op 29-07-2013 13:25 ]
Dan moet ik helaas maar accepteren dat ik op jaarbasis 80-100 euro extra kwijt ben aan stroomkosten vrees ikFireDrunk schreef op maandag 29 juli 2013 @ 09:43:
ZFS onder Hyper-V draaien is niet te doen. Er is geen support voor VT-d, en de controller is of IDE of een vage SCSI controller waarvan ik geen idee heb of hij werkt met ZFS.
Ik wil het ooit nog wel eens gaan proberen, aangezien Hyper-V wel (goede) ondersteuning heeft voor het doorgeven van fysieke schijven via die SCSI controller.
Ander nadeel is weer dat je geen 10Gb virtuele interface hebt onder FreeBSD, hooguit 1Gb.
[ Voor 12% gewijzigd door Tsurany op 29-07-2013 09:53 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Deze lijst helpt mij goed FireDrunk! Het geeft een goed overzicht. Wat er ook nog in zou kunnen en niet onbelangrijk is, is spindown support met en zonder HBA. Daar loop ik nu namelijk tegenaan in ZFSguru. De schijven hebben geen automatische spindown. Dat komt bij mij, omdat er een IBM naar LSI IT mode geflashte HBA tussen zit. Ik ben wel benieuwd of dat bij andere distributies anders is.FireDrunk schreef op zondag 28 juli 2013 @ 19:55:
Mja, FreeNAS/NAS4Free heeft Plugins/packages, ZFSguru heeft services, en Linux (Ubuntu) heeft belachelijk veel PPA's, wat heeft NexentaStor dan?
Kopje High Availability is er al.
[afbeelding]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Voor je schijven die op je IBM aangesloten zijn kun je de service spindown gebruiken. Met de post van FireDrunk heb ik het destijds werkend gekregen.Mystic Spirit schreef op maandag 29 juli 2013 @ 09:57:
[...]
Deze lijst helpt mij goed FireDrunk! Het geeft een goed overzicht. Wat er ook nog in zou kunnen en niet onbelangrijk is, is spindown support met en zonder HBA. Daar loop ik nu namelijk tegenaan in ZFSguru. De schijven hebben geen automatische spindown. Dat komt bij mij, omdat er een IBM naar LSI IT mode geflashte HBA tussen zit. Ik ben wel benieuwd of dat bij andere distributies anders is.
FireDrunk in "Het grote ZFS topic"
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
Ik wil de startpost eigenlijk redelijk OS agnostisch houden. Specifieke dingen voor BSD of Solaris horen er eigenlijk niet in vind ik. Wel kun je binnenkort een speciaal ZFS appliances topic verwachten. Bijvoorbeeld een topic voor ZFSguru/NAS4Free/FreeNAS en eentje voor Solaris+napp-it/Nexenta. Enzovoorts.## ZFSguru autostart
zfsguru_enable="YES"
# APM or Advanced Power Management controls power saving features of your hard
# drives. To disable the dreaded 'headparking' feature, it is common to enable
# APM to a setting of 254, to disable headparking altogether.
zfsguru_apm_disks="ada1 ada2 ada3 ada4 ada5 ada6 ada7"
zfsguru_apm_level="254"
# To enable your disks to spindown whenever inactive for a number of seconds,
# configure both the timer (in seconds) and the disks you want to be spun down.
zfsguru_spindown_enable="YES"
zfsguru_spindown_timer="900"
zfsguru_spindown_disks="ada3 ada4 ada5 ada6 ada7"
# If you have a pool with L2ARC cache devices present, you might want to warm
# up the L2ARC right after boot with metadata. We can do that by scanning all
# directory layout which will cause metadata to be written to the L2ARC cache.
zfsguru_l2arc_warmup_enable="NO"
Allemaal leuk, maar dat werkt dus niet met een M1015?Verwijderd schreef op maandag 29 juli 2013 @ 12:11:
In de nieuwe systeemversie van ZFSguru wordt spindown op een andere manier geregeld. Je kunt dat redelijk eenvoudig aanpassen met ee /etc/rc.conf
[...]
Ik wil de startpost eigenlijk redelijk OS agnostisch houden. Specifieke dingen voor BSD of Solaris horen er eigenlijk niet in vind ik. Wel kun je binnenkort een speciaal ZFS appliances topic verwachten. Bijvoorbeeld een topic voor ZFSguru/NAS4Free/FreeNAS en eentje voor Solaris+napp-it/Nexenta. Enzovoorts.
Even niets...
Even niets...
Voor home storage lijkt het me niet zo erg om 1 grote vdev te hebben, IOPS zijn toch niet zo heel belangrijk.
Even niets...
[ Voor 21% gewijzigd door Neptunus op 29-07-2013 15:14 ]
Mooi overzicht, maar ik heb nog wel wat vragen, met name het lijstje voor opensolaris lijkt me niet helemaal correct vwb de virtualization host support, zowel KVM als VirtualBox werken zo goed als out-of-the box.FireDrunk schreef op zondag 28 juli 2013 @ 19:55:
Mja, FreeNAS/NAS4Free heeft Plugins/packages, ZFSguru heeft services, en Linux (Ubuntu) heeft belachelijk veel PPA's, wat heeft NexentaStor dan?
Kopje High Availability is er al.
[afbeelding]
Ook ZFS-monitoring (email) is beschikbaar via napp-it. Ook iScsi-management is wat mij betreft good, if not excellent, maar je moet even weten hoe comstar met groepen omgaat. (Is hetzelfde als nexenta BTW)
Ook voor packages zijn er echt wel repositories, bijv. transmission is met een simpele pkgadd te installeren. Misschien niet excellent, maar wel aanwezig.
En het verschil in NFS speed tussen Nexenta en OpenSolaris, waar komt dat vandaan, dat is volgens mij dezelfde implementatie van NFSv4 ...
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
[ Voor 12% gewijzigd door FireDrunk op 29-07-2013 15:31 ]
Even niets...
Ik ga wel even testenVerwijderd schreef op maandag 29 juli 2013 @ 13:05:
Nog sooner dan 'real soon' want 9.1-006 kun je al downloaden en gebruiken. Alleen de nieuwe services kun je nog niet via de GUI downloaden en installeren. Wel handmatig, daar heeft Jason wat instructies voor gegeven om 9.1-006 met SABnzbd+ service te installeren. De SABnzbd+ service in 9.1-006 is sterk verbeterd en fixt - als het goed is - alle bekende issues van voorgaande releases.
Edit:
Nieuwe versie staat erop. Ging gewoon over de oude heen en ging prima. Eerste bevindingen:
- Je moet met ESXi de volgende commandos nog wel voor boot uitvoeren
1
2
3
| set hw.pci.enable_msi="0" set hw.pci.enable_msix="0" boot |
- Het instellen van de spindown functie is geen standaard. Je moet het dus zelf aan de conf file toevoegen (dus niet hashes weghalen en gaan, of web interface werk)
- Ik heb het APM deel hashes gegeven, want dat werkt toch niet me een IBM in IT mode
- In het voorbeeld wordt uitgegaan van disks die het voorvoegsel "ada" hebben, maar bij mij heten de disks "da" (of ben ik dan een freeBSD noob, die het niet snapt?)
[ Voor 32% gewijzigd door Mystic Spirit op 29-07-2013 19:36 ]
Ik heb de bestanden gewoon verwijderd met rm -rf test.bin test2.bin en ze bestaan niet meer op het filesystem. Maar schijnbaar ziet ZFS de ruimte die ingenomen werd nog wel als "gebruikte ruimte". Halp?
EDIT: En sdi (wat vroegâh sdj was) blijft errors gooien. Vandaag zijn het READ errors in ZFS. Binnenkort toch maar eens eventjes contact opnemen met de fabrikant, want ik vertrouw dit eerlijk gezegd niet helemaal...
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
| $ sudo smartctl -A /dev/sdi smartctl 6.1 2013-03-16 r3800 [x86_64-linux-3.9.9-302.fc19.x86_64] (local build) Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org === START OF READ SMART DATA SECTION === SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000b 100 100 062 Pre-fail Always - 0 2 Throughput_Performance 0x0005 100 100 040 Pre-fail Offline - 0 3 Spin_Up_Time 0x0007 163 163 033 Pre-fail Always - 1 4 Start_Stop_Count 0x0012 100 100 000 Old_age Always - 435 5 Reallocated_Sector_Ct 0x0033 100 100 005 Pre-fail Always - 0 7 Seek_Error_Rate 0x000b 100 100 067 Pre-fail Always - 0 8 Seek_Time_Performance 0x0005 100 100 040 Pre-fail Offline - 0 9 Power_On_Hours 0x0012 090 090 000 Old_age Always - 4629 10 Spin_Retry_Count 0x0013 100 100 060 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 120 191 G-Sense_Error_Rate 0x000a 100 100 000 Old_age Always - 0 192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 24 193 Load_Cycle_Count 0x0012 076 076 000 Old_age Always - 246689 194 Temperature_Celsius 0x0002 142 142 000 Old_age Always - 42 (Min/Max 15/48) 196 Reallocated_Event_Count 0x0032 088 088 000 Old_age Always - 425 197 Current_Pending_Sector 0x0022 100 100 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0008 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x000a 200 200 000 Old_age Always - 0 223 Load_Retry_Count 0x000a 100 100 000 Old_age Always - 0 |
EDIT2: SMART waardes van 23 juli 2013:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
| ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000b 100 100 062 Pre-fail Always - 0 2 Throughput_Performance 0x0005 100 100 040 Pre-fail Offline - 0 3 Spin_Up_Time 0x0007 163 163 033 Pre-fail Always - 1 4 Start_Stop_Count 0x0012 100 100 000 Old_age Always - 429 5 Reallocated_Sector_Ct 0x0033 100 100 005 Pre-fail Always - 0 7 Seek_Error_Rate 0x000b 100 100 067 Pre-fail Always - 0 8 Seek_Time_Performance 0x0005 100 100 040 Pre-fail Offline - 0 9 Power_On_Hours 0x0012 090 090 000 Old_age Always - 4485 10 Spin_Retry_Count 0x0013 100 100 060 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 116 191 G-Sense_Error_Rate 0x000a 100 100 000 Old_age Always - 0 192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 23 193 Load_Cycle_Count 0x0012 078 078 000 Old_age Always - 228511 194 Temperature_Celsius 0x0002 150 150 000 Old_age Always - 40 (Min/Max 15/48) 196 Reallocated_Event_Count 0x0032 089 089 000 Old_age Always - 416 197 Current_Pending_Sector 0x0022 100 100 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0008 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x000a 200 200 000 Old_age Always - 0 223 Load_Retry_Count 0x000a 100 100 000 Old_age Always - 0 |
EDIT3: Ja, ik blijf bezig, want schijnbaar is het zo laat dat ik niet meer kan tellen... Als ik de onderstaande output van zfs list neem, dan kom ik namelijk uit op ~960GB wat daadwerkelijk referenced is, in plaats van de 1,72TB die aangegeven word. En dit verschil is IMO te groot om te wijten aan RAIDZ2, plus dat ik dacht dat dat enkel getoond werd met zpool list.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
| $ sudo zfs list NAME USED AVAIL REFER MOUNTPOINT tank 2,65T 934G 1,72T /tank tank/Documents 54,8G 934G 54,8G /tank/Documents tank/Downloads 16,2G 934G 16,2G /tank/Downloads tank/Videos 15,7G 934G 15,7G /tank/Videos tank/Manga 1,23G 934G 1,23G /tank/Manga tank/Music 170G 934G 170G /tank/Music tank/Torrents 337G 934G 337G /tank/Torrents tank/Video 10,7M 934G 10,7M /tank/Video tank/Whenever.is 52,8G 934G 52,8G /tank/Whenever.is tank/owncloud 5,39G 763G 5,39G /tank/owncloud tank/swap 40,5G 934G 40,5G - tank/tm 231G 793G 231G /tank/tm tank/vm_images 34,9G 934G 34,9G /tank/vm_images tank/websites 48,5M 50,0G 48,5M /tank/websites |
[ Voor 108% gewijzigd door Xudonax op 30-07-2013 08:52 ]
Van ubuntu server naar Windows 2008 server in ESXi op dezelfde switch gaat slechts 13,8MB/s.
En ik moet totaal 14TB heen en weer slepen
Met ZFSguru zal ik eens met NFS gaan proberen.
Goed initiatief!FireDrunk schreef op zondag 28 juli 2013 @ 19:55:
Mja, FreeNAS/NAS4Free heeft Plugins/packages, ZFSguru heeft services, en Linux (Ubuntu) heeft belachelijk veel PPA's, wat heeft NexentaStor dan?
Kopje High Availability is er al.
[afbeelding]
Ik heb een aantal opmerkingen:
- Zet er "Ubuntu + ZFS" neer ipv "Linux-ZFS". Ik zag al dat je het in een opmerking onderaan hebt geplaatst, maar zo is het toch duidelijker.
- Wat versta je onder "Easy IP Management"? Ik vind persoonlijk ifconfig en /etc/network/interfaces best makkelijk. Concretiseer dat dus iets
Met de juiste panels is het ook wel webbased te doen (Ajenti of Webmin kunnen het vast wel). Precies hetzelfde geldt ook voor "Easy share management".
- Je beweert dat Linux geen built-in firewall heeft? Netfilter (iptables) zit sinds Linux 2.4 in de kernel.
- Zowel FreeBSD als Linux hebben support voor Samba 4 wat Active Directory Integration biedt.
- Maak van "iSCSI Management" "Webbased iSCSI Management" (ik neem aan dat je dat bedoelt)
- SMB speed en NFS speed zouden onder FreeBSD en Linux hetzelfde moeten zijn, omdat ze dezelfde implementatie gebruiken (namelijk Samba voor SMB in user-space en NFS in kernel-space)
- Het is misschien handig om (onder "ESXi support") aan te geven dat FreeBSD 9.1 + ESXi Physical RDM niet lekker gaat.
- Het is het imho wel waard om aan te geven dat ZFSGuru e.d. webinterfaces hebben waarmee je ZFS kunt beheren. Linux heeft dat totaal niet.
Ik zie 9.1-006 niet in de webinterface staan onder Install. Moet ik iets refreshen of zo?Verwijderd schreef op maandag 29 juli 2013 @ 13:05:
Nog sooner dan 'real soon' want 9.1-006 kun je al downloaden en gebruiken. Alleen de nieuwe services kun je nog niet via de GUI downloaden en installeren. Wel handmatig, daar heeft Jason wat instructies voor gegeven om 9.1-006 met SABnzbd+ service te installeren. De SABnzbd+ service in 9.1-006 is sterk verbeterd en fixt - als het goed is - alle bekende issues van voorgaande releases.
Iets anders: Is het mogelijk om via de native FreeBSD-methode te upgraden naar 9.2? Of verneuk ik dan ZFSGuru? (er is vast een reden dat ZFSGuru met eigen images komt)
Maar de NFS-implementatie van Windows is nog brakker dan Samba. Dus dat schiet ook niet op. (Bij mij is Samba een stuk sneller dan NFS, maar ik haal dan ook wel wat meer dan 13,8 MB/s...Dennisik schreef op maandag 29 juli 2013 @ 22:06:
Samba is zo'n zaad protocol.
Van ubuntu server naar Windows 2008 server in ESXi op dezelfde switch gaat slechts 13,8MB/s.
En ik moet totaal 14TB heen en weer slepen
Met ZFSguru zal ik eens met NFS gaan proberen.
[ Voor 29% gewijzigd door Compizfox op 29-07-2013 22:31 ]
Gewoon een heel grote verzameling snoertjes
SFTP al getest, is performance ook bagger.HMS schreef op maandag 29 juli 2013 @ 22:35:
Is het niet makkelijker om dan gewoon even tijdelijk een FTP server op te zetten? Moet op zowel Ubuntu Server (proftpd) als Windows Server 2008 (IIS) niet zo heel moeilijk zijn.
Schrijven naar samba share doet die dan wel weer consequent met 50MB/s
Ik bedoelde dan ook gewone FTP, niet SSH FTP (SFTP)Dennisik schreef op maandag 29 juli 2013 @ 22:37:
[...]
SFTP al getest, is performance ook bagger.
Schrijven naar samba share doet die dan wel weer consequent met 50MB/s
Ik weet, nu schrijft die met 50MB/s en leest tegelijkertijd met 40MB/s. GB kan die makkelijk voltrekken, hij wil het alleen niet echt volhouden blijkbaar. Met 50MB/s duurt het overigens nog steeds 2x30u om over te stappen naar ZFS. Je moet er wat voor over hebben.HMS schreef op maandag 29 juli 2013 @ 22:39:
[...]
Ik bedoelde dan ook gewone FTP, niet SSH FTP (SFTP). SFTP kan inderdaad ook nog wel eens takke traag zijn.
Ach ik ga wel even aankijken. M500 is bestelt, nu nog 4 of 8GB bestellen en dan is die ZFS ready.
[ Voor 10% gewijzigd door Dennisik op 29-07-2013 22:48 ]
Toch nog even proftpd geinstalleerd, dit gaat zo rond de 70/80MB/s.HMS schreef op maandag 29 juli 2013 @ 22:35:
Is het niet makkelijker om dan gewoon even tijdelijk een FTP server op te zetten? Moet op zowel Ubuntu Server (proftpd) als Windows Server 2008 (IIS) niet zo heel moeilijk zijn.
Net wel bijna TB weggegooid, maar dit gaat zo een nachtje door.
Helemaal top, danku!
[ Voor 7% gewijzigd door Dennisik op 29-07-2013 23:09 ]
Heb je wel eens vsftpd geprobeerd?Dennisik schreef op maandag 29 juli 2013 @ 23:08:
[...]
Toch nog even proftpd geinstalleerd, dit gaat zo rond de 70/80MB/s.
Net wel bijna TB weggegooid, maar dit gaat zo een nachtje door.
Helemaal top, danku!
Ja, dat stond er eerst op performance daarvan viel tegen. Maar niet uitgebreid getest, ben allang blij dat het nu met 80MB/s gaat. Al loopt filezilla ook niet erg soepel, afronden van transacties doet die niet erg soepel. Ach het werkt.
[ Voor 39% gewijzigd door Dennisik op 29-07-2013 23:33 ]
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| NAME USED AVAIL REFER MOUNTPOINT tank 1,82T 1,74T 1,22T /tank tank/Documents 54,8G 1,74T 54,8G /tank/Documents tank/Downloads 16,2G 1,74T 16,2G /tank/Downloads tank/Videos 15,7G 1,74T 15,7G /tank/Videos tank/Manga 1,23G 1,74T 1,23G /tank/Manga tank/Music 170G 1,74T 170G /tank/Music tank/Torrents 8,33M 1,74T 8,33M /tank/Torrents tank/Video 10,7M 1,74T 10,7M /tank/Video tank/Whenever.is 52,8G 1,74T 52,8G /tank/Whenever.is tank/owncloud 5,39G 763G 5,39G /tank/owncloud tank/swap 40,5G 1,74T 40,5G - tank/tm 231G 793G 231G /tank/tm tank/vm_images 34,9G 1,74T 34,9G /tank/vm_images tank/websites 43,6M 50,0G 43,6M /tank/websites |
EDIT: Ik zit nog even te kijken, en er is nog steeds meer USED dan er REFERED is. Is dit toe te wijzen aan RAIDZ2 of compressie?
[ Voor 5% gewijzigd door Xudonax op 30-07-2013 08:53 ]
Will do.Compizfox schreef op maandag 29 juli 2013 @ 22:22:
[...]
Goed initiatief!
Ik heb een aantal opmerkingen:
[list]
• Zet er "Ubuntu + ZFS" neer ipv "Linux-ZFS". Ik zag al dat je het in een opmerking onderaan hebt geplaatst, maar zo is het toch duidelijker.
Webbased IP Management• Wat versta je onder "Easy IP Management"? Ik vind persoonlijk ifconfig en /etc/network/interfaces best makkelijk. Concretiseer dat dus ietsMet de juiste panels is het ook wel webbased te doen (Ajenti of Webmin kunnen het vast wel). Precies hetzelfde geldt ook voor "Easy share management".
Gaat er om of je de firewall via de webinterface kan beheren.• Je beweert dat Linux geen built-in firewall heeft? Netfilter (iptables) zit sinds Linux 2.4 in de kernel.
AD Integratie heeft weinig met Samba4 te maken. Met Samba 4 kan je een Domain Controller opzetten. Lid zijn van een domein kan al veel langer.• Zowel FreeBSD als Linux hebben support voor Samba 4 wat Active Directory Integration biedt.
Will do.• Maak van "iSCSI Management" "Webbased iSCSI Management" (ik neem aan dat je dat bedoelt)
De praktijk zegt toch echt iets anders... En zeggen dat het omdat het dezelfde software is, het hetzelfde zou moeten presteren, is zeggen dat Windows of Linux niet uitmaakt omdat het allebei op Intel draait.• SMB speed en NFS speed zouden onder FreeBSD en Linux hetzelfde moeten zijn, omdat ze dezelfde implementatie gebruiken (namelijk Samba voor SMB in user-space en NFS in kernel-space)
Ik heb zelfs verschillen gemerkt tussen verschillende Linux versies (Gentoo, Fedora, Ubuntu, CentOS)
Dat is wel heel specifiek, het gaat niet echt om of het platform te virtualiseren is. RDM is een beetje een hack, en past niet zo goed in dit overzicht.• Het is misschien handig om (onder "ESXi support") aan te geven dat FreeBSD 9.1 + ESXi Physical RDM niet lekker gaat.
Maar dat hebben FreeNAS, NAS4Free, Nexenta en OpenSolaris ook, dus alleen Linux heeft dat maar niet...• Het is het imho wel waard om aan te geven dat ZFSGuru e.d. webinterfaces hebben waarmee je ZFS kunt beheren. Linux heeft dat totaal niet.
[/list]
Even niets...
GA-Z97X-UD5H, Core i5 4670, 8Gb DDR3, MSI GTX 1050 Ti 4Gb, Samsung 840 EVO 250 Gb SSD, BCM94360CD Wifi+Bluetooth 4.0LE, MacOS 13 High Sierra
Het is in beide gevallen dan duidelijk omdat er expliciet bij te vermeldenFireDrunk schreef op dinsdag 30 juli 2013 @ 08:55:
[...]
Webbased IP Management
[...]
Gaat er om of je de firewall via de webinterface kan beheren.
Ik ben dan wel benieuwd waar de verschillen vandaan komen. Out-of-the-box tweaking? Snellere network stack? Is het dan überhaupt wel zeker dat het aan NFS/Samba ligt en niet aan iets anders?[...]
De praktijk zegt toch echt iets anders... En zeggen dat het omdat het dezelfde software is, het hetzelfde zou moeten presteren, is zeggen dat Windows of Linux niet uitmaakt omdat het allebei op Intel draait.
Ik heb zelfs verschillen gemerkt tussen verschillende Linux versies (Gentoo, Fedora, Ubuntu, CentOS)
Daar heb je gelijk in, RDM voor SATA is een hack. Maar aangezien het wel veel gebruikt wordt icm ZFS vind ik het wel het vermelden waard.[...]
Dat is wel heel specifiek, het gaat niet echt om of het platform te virtualiseren is. RDM is een beetje een hack, en past niet zo goed in dit overzicht.
Daarom juist...[...]
Maar dat hebben FreeNAS, NAS4Free, Nexenta en OpenSolaris ook, dus alleen Linux heeft dat maar niet...
Je kunt toch gewoon /usr/local/etc/smb.conf backuppen en later weer terug zetten?ronzelver schreef op dinsdag 30 juli 2013 @ 13:06:
Ik wil mijn zfsguru systeem (9.1-004) upgraden naar de laatste versie 9.1-006 middels de upgrade optie en ik wil graag mijn Samba shares behouden. Had iemand daar niet een klein script voor geschreven om die instellingen over te zetten? Ik kan het zo vlug niet meer vinden (hier en op zfsguru.com)?! Alvast bedankt!
[ Voor 16% gewijzigd door Compizfox op 30-07-2013 13:55 ]
Gewoon een heel grote verzameling snoertjes
OS: ZFSguru; hardware: zie inventaris
Nu zit ik met het probleem dat de leessnelheid met Samba wat tegenvalt.
Kan de snelheid nog verbeterd worden via de instellingen van Samba of is dit toch de limiet?

Deze pool heeft 5x WD30EZRX in raid-z1.
Pool-benchmark
ZFSguru 0.2.0-beta8 (9.1-005) pool benchmark Pool : data (13.6T, 0% full) Test size : 128 GiB normal read : 335 MB/s normal write : 290 MB/s I/O bandwidth : 23 GB/s
/usr/local/etc/smb.conf
[global] workgroup = WORKGROUP server string = ZFSguru security = share load printers = no log file = /var/log/samba/log.%m log level = 2 max log size = 50 guest account = share create mask = 0666 directory mask = 0777 aio read size = 16384 aio write size = 16384 aio write behind = false socket options = TCP_NODELAY IPTOS_LOWDELAY SO_SNDBUF=131072 SO_RCVBUF=131072 use sendfile = yes
iperf
192.168.0.20 is het ip-adres van de server
bin/iperf.exe -c 192.168.0.20 -P 1 -i 1 -p 5001 -f m -t 10 -T 1 [ ID] Interval Transfer Bandwidth [260] 0.0-10.0 sec 1036 MBytes 868 Mbits/sec
[root@zfsguru /home/ssh]# iperf -c 192.168.0.185 -p 5001 -i 1 -t 10 -f m [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 730 MBytes 612 Mbits/sec
Ook is de default voor aio read size als het goed is 1, zodat Async I/O altijd gebruikt wordt. Kun je dat ook op 1 instellen en dan kijken wat voor scores je krijgt?
Graag wel apart benchmarken, dus eerst die optimalisaties weghalen en daarna pas AIO instellingen aanpassen en dat weer benchmarken.
Verder zou je ook de nieuwe image kunnen proberen (9.1-006) die heeft een modernere Samba versie. Je hardware lijkt mij prima in staat tot goede snelheden. Wel vind ik de netwerksnelheid die je met iperf behaalt onder de maat. Je hoor toch echt 900 megabit+ te behalen. Dat kan zelfs een simpel realtek chipje. Probeer eens naar een andere machine in jouw LAN te benchmarken? Misschien ligt het wel aan de drivers van je client ipv aan de server, je kunt dat uittesten door een andere LAN machine te gebruiken.
De netwerksnelheid tussen de 2 desktops is ook maar 700-800 Mbps.
# voor socket options en sendfile

aio read/write size = 1 (vorige aanpassing verwijderd)
Ik snap dat de schijven performance wise gelijkwaardig moeten zijn, dus zelfde grootte, rpm etc.
Ik was overigens niet van plan dit direct te gaan gebruiken, maar meer in het geval dat er toch een schijf kapot mocht gaan, er geen spares op voorraad zijn en je alleen maar een HDD kan krijgen van een ander merk met dezelfde specificaties.
5564
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Dat hoeft niet hoor.pierce schreef op woensdag 31 juli 2013 @ 11:24:
Weet iemand of je met ZFS ook HDD's van verschillende merken door elkaar kan gebruiken, bv seagate, wd, hitachi? Of heeft iemand hier ervaring mee?
Ik snap dat de schijven performance wise gelijkwaardig moeten zijn, dus zelfde grootte, rpm etc.![]()
Ik was overigens niet van plan dit direct te gaan gebruiken, maar meer in het geval dat er toch een schijf kapot mocht gaan, er geen spares op voorraad zijn en je alleen maar een HDD kan krijgen van een ander merk met dezelfde specificaties.
Ik gebruik stuk of 3 verschillende 2TB schijven door elkaar en ook een 3TB voor een raidz1 array van 6x2TB
Ik heb na uren prutsen eindelijk ESXi aan de gang op mn nieuwe desktop hardware. Het betreft een Asus z87-deluxe plank, met zowel Intel als Realtek nic, alleen kreeg ik in eerste instantie geen van beide NICs aan de gang.
Ik heb de laatste 4 weken dit topic gevolgd, de laatste paar dagen de overige pagina's doorgeworteld, maar heb de holy grail nog niet gezien.
Ik heb de beschikking over de onboard 6 poorts LynxPoint controller, plus 2x2 onboard ASM1062 aansluitingen. Daarnaast zit er nog een 2 poorts Sil2132 controller op. ESXi draait uiteraard vanaf USB.
Ik wil op die eerste 6 poorten een SSD aansluiten, plus 5x2TB. Die SSD moet verder niet gebruikt gaan worden in ESXi (enkel dualboot voor Win7 pc), die 5x2TB moet doorgegeven gaan worden aan ZFS voor Raidz1 config. Ik heb verder nog 2x 1 TB Barracuda disken, en een 1.5TB samsung, welke op de andere controllers kunnen komen.
Ik heb nog een M1015 controller in bestelling staan. Hierop moet nog een oude set hergebruikt gaan worden met 6x500GB in Raidz2. Dit is echter voor latere zorg. Ik wil eerst de bestaande config draaiende hebben.
Nu las ik dat RDM problemen kan geven. Ik wil dus de LynPoint controller direct doorzetten naar de VM. Dit lijkt te gaan in de ESXi configuratie. Ik had echter gelezen dat de mogelijkheid bestaat dat de andere onboard controller (de Asmedia) ook meeschakeld. Lijkt me op zich geen probleem, want daar mag de ZFS-VM ook de controle over krijgen. Vraag is: kan dit? ESXi heeft dan namelijk geen local persistant datastore.
Ik twijfel op dit moment tussen ZFSGuru en NAS4Free. Ik ben niet vies van wat commandline werk. Ik heb de matrix bekeken. Voordelen die voor mij belangrijk zijn is ZFS monitoring (maar geen must, systeem draait niet 24x7), en vooral Root-On-ZFS / boot from Raidz. Dit doet namelijk vermoeden dat er mogelijk geen local datastore in ESXi 'hoeft' te zijn, mits ik de ZFS-NAS op de doorgegeven controller kan installeren.
Hier komt dus ook de vraag: hoe nu verder. Ik wil testen of de controllers individueel doorgegeven kunnen worden, of dat ze mee 'omkwakken'. Daarna wil ik een ZFS-NAS install gaan doen. Hoe configureer ik de disken en de passthrough? Wat is jullie advies hiervoor?
| Unox = The Worst Operating System | How can you respect a computer controlled by a mouse? | Wie het laatst lacht, is het langzaamst van begrip. |
Je kan de ZFS VM op die Sil Controller zetten en dan toch de hele Lynxpoint doorgeven, alleen kom je dan in de knoei met je Windows 7 dual boot.
Je kan misschien beter een M1015 kopen en die doorgeven via VT-d, dan heb je niet zoveel gezeur...
Even niets...
Ik ga nu de 2x1TB disken als local datastore configgen op Sil3132. Ik had gehoopt deze als een Mirror binen de ZFS-NAS te kunnen configgen.
ps. Die dualboot optie houd ik toch? In de bios staat usb voor de local disken in de boot-order. Ik start ESXi vanaf USB. Als ik de USB-stick eruit trek, start Windows gewoon vanaf de SSD. Of mis ik hier iets?
[ Voor 31% gewijzigd door Savages op 31-07-2013 14:19 ]
| Unox = The Worst Operating System | How can you respect a computer controlled by a mouse? | Wie het laatst lacht, is het langzaamst van begrip. |
Nadeel van VT-d (en dus ESXi) is dat je nooit kan booten van een controller die via VT-d is doorgegeven.
(Dit komt omdat de option rom niet gebruikt word, maar dat is een ander verhaal)
Je moet dus altijd een vDisk hebben op een lokale datastore waar de VM van kan booten.
Even niets...
Staat wel op mijn todo lijstje.
Even niets...

Het vreemde is ook dat de Realtek nic er tweemaal tussen lijkt te staan...
| Unox = The Worst Operating System | How can you respect a computer controlled by a mouse? | Wie het laatst lacht, is het langzaamst van begrip. |
Aanschaf ZFS NAS discussie
De Lynx staat niet in de lijst vermeldt, wel heb je een gratis sil3132 gekregen.Savages schreef op woensdag 31 juli 2013 @ 16:01:
Ik heb nu problemen zo te zien om de onboard LynxPoint door te geven, of zie ik iets over het hoofd? Ik kan wel beide Asmedia controllers gescheiden doorgeven, dus dat lijkt te werken.
[afbeelding]
Het vreemde is ook dat de Realtek nic er tweemaal tussen lijkt te staan...
Nee die 3132 is een insteekkaartje, zoals eerder gemeld...jadjong schreef op woensdag 31 juli 2013 @ 16:10:
[...]
De Lynx staat niet in de lijst vermeldt, wel heb je een gratis sil3132 gekregen.
Maar mooie is dus dat de 2 extra Asmedia controllers gescheiden doorgegeven kunnen worden, zonder dat een van de 2 meegaat of de 6 onboard poorten van de LynxPoint meegaan. Ik zie dus alleen de Lynxpoint zelf niet
En de Realtek staat er zo te zien 2x tussen...
| Unox = The Worst Operating System | How can you respect a computer controlled by a mouse? | Wie het laatst lacht, is het langzaamst van begrip. |
Dit werkt wel goed met hyper-v. Of het beter werkt dan met esxi, tsja.... Durf ik geen antwoord op te geven. Voor mij werkt het goed. Wel de vdev aanmaken met de 'by-id' naamgeving ipv sda, sdb, enz.HMS schreef op woensdag 31 juli 2013 @ 14:56:
Werkt het doorgeven van disks via Hyper-V beter dan met ESXi? Of zijn er weinig Hyper-V gebruikers in dit topic?
Moet er wel bij vermelden dat bij mij de disk eigenlijk nooit in standby gaan. Heb dit dus ook niet getest.
Gebruik ubuntu server lts met Zol.
Verwijderd
1) Schijven worden uiteraard 'raw' benaderd door VirtualBox en niet geïnitialiseerd in Windows zelf.
2) De virtualmachine wordt geconfigureerd met respond to guest IDE/SATA flush requests. Dit is een punt dat ik nooit in de "horror" verhalen terug zie komen; als VirtualBox writes direct uitvoert - en dus ZFS niet voor de gek houdt - is het gevaar voor datacorruptie geweken.
Als ik iets over het hoofd zie hoor ik het graag. De reden waarom ik deze opstelling wil gebruiken is zodat ik één (1) machine kan gebruiken die zowel als mijn desktop fungeert (=Windows) en daarnaast diverse 'server'-taken kan vervullen (grotendeels in VMs draaiend, waaronder ZFS). Ik heb geen zin in een aparte NAS machine, maar wil wel betrouwbare datastorage.
Als je true-AHCI gebruikt, en de AHCI controller in VirtualBox gebruikt zie ik geen problemen.
Het zal overigens wel pest pokke traag zijn...
Even niets...
Verwijderd
Ah, de tussenliggende driver laag had ik over het hoofd gezien. Ik zie er van af en ga het risico niet wagen aangezien áls ik al die moeite doe om ZFS te gebruiken, dan moet het ook gegarandeerd betrouwbaar werken. Misschien toch nog eens kijken naar ReFS.FireDrunk schreef op donderdag 01 augustus 2013 @ 15:52:
Gebruik je de 'echte' AHCI controller of zit er nog een driver tussen? (Marvell / Promise).
Even niets...
- systeem pool voor booten en wat niet
- L2ARC cache voor je grote HDD pool
- SLOG voor je grote HDD pool
Het is de bedoeling om ZFSGuru te gaan draaien op:
| # | Product | Prijs | Subtotaal |
| 1 | Intel Celeron G1610 Boxed | € 34,95 | € 34,95 |
| 1 | ASRock B75 Pro3-M | € 55,90 | € 55,90 |
| 6 | Hitachi Deskstar 5K4000, 4TB | € 151,84 | € 911,04 |
| 1 | Fractal Design Define Mini | € 72,71 | € 72,71 |
| 1 | Corsair CMSO8GX3M1A1333C9 | € 42,58 | € 42,58 |
| 1 | Corsair CMV16GX3M2A1333C9 | € 79,98 | € 79,98 |
| 1 | Seasonic G-Serie 360Watt | € 58,- | € 58,- |
| Bekijk collectie Importeer producten | Totaal | € 1.255,16 | |
Ik heb nog een pricewatch: Intel 320 80GB liggen deze is wel gebruikt.
En anders dacht ik aan de Crucial M4 64GB
Nu is mijn vraag kan dit?
Even niets...
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
de Warning verwijst naar Disk-Advanced page, maar laat enkel zien APM en AAM unknown, en er valt verder geen AMP of iets anders in te stellen.
Of is dit uberhaubt geen probleem?, in het verleden werd wdidle3 hiervoor nog al eens voor gebruikt dacht ik me te herinneren, maar daar de twee oudste drives er geen last van hebben verdenk ik wat anders, iemand die mij uit de droom kan helpen..thanks
@ CiPHER: nee helaas, ik volg de verwijzing naar Disks->Advanced en er valt werkelijk niets in te stellen cq. te wijzigen, APM en AAM beiden unknown, en enkel Spindow en wake-up werkt , ook niet als ik op Disk ada0 oid. druk bv, daar is alleen info zichtbaar, ben nu bezig met update naar 9.1.006.
You are currently using rootonzfs distribution with system version 9.1-006 (md5 checksum
Ook na de update hier geen verschil.
[ Voor 27% gewijzigd door Habana op 02-08-2013 16:10 ]
Oké bedankt FireDrunk dat scheelt me weer wat geld.FireDrunk schreef op vrijdag 02 augustus 2013 @ 08:44:
Ja hoor, prima. De Intel 320 is een prima keuze hiervoor.
Wat kan ik het beste gebruiken voor partitie grote(n)?
Ik heb ook nog een Fractal Design Array 2 staan maar er zijn geen (zuinige)moederborden met 6x sata.
Any job you can do in your pajamas is not the hardest job in the world.
En over hoeveel onzuiniger hebben we het dan?Phasis schreef op vrijdag 02 augustus 2013 @ 15:25:
Die had ik nog wel gezien gister maar Asus staat er inmiddels om bekend dat ze niet zuinig zijn. En zie dat bord ook niet voorbij komen in 'Het grote zuinige server topic'.
CPU lijkt me toch de grootste bepalende factor hier.
Ik heb destijds mijn beslissing van deze test laten afhangen.matty___ schreef op vrijdag 02 augustus 2013 @ 15:27:
[...]
En over hoeveel onzuiniger hebben we het dan?
CPU lijkt me toch de grootste bepalende factor hier.
Any job you can do in your pajamas is not the hardest job in the world.
Zuinigste mITX in die test: pricewatch: Asus P8Z77-I Deluxe --> 26,4W
mITX die ik vermeldde: pricewatch: Asus P8-H77-I --> 37,2W
154€ - 88€ = ~65€
37,2W - 26,4W = ~11W
Vergelijk het dan met je energiemaatschappij of je dat binnen de verwachte termijn eruithaalt.
[ Voor 4% gewijzigd door Phuncz op 02-08-2013 15:41 ]
haha jaja lekker belangrijk die €17,52 op jaarbasis…
[ Voor 15% gewijzigd door Habana op 02-08-2013 16:46 ]
?
@hierboven:
10W x 24/7/365 x 20cent per KWh kost 17,52 per jaar.
[ Voor 68% gewijzigd door webfreakz.nl op 02-08-2013 16:36 . Reden: Geen rechten aan verbonden, het is vrijdagmiddag tenslotte! ]
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
ik denk dat er een makkelijkere manier is om 11 watt te besparen.Phuncz schreef op vrijdag 02 augustus 2013 @ 16:44:
Dus na 3,5 jaar beginnen de euro's binnen te rollen !
Partitiegrootte is een beetje smaak afhankelijk. Voor boot is 5GB al zat inc een paar applicaties (ZFSguru neemt zelf maar 900MB ofzo in gebruik inc swap). ZIL hoeft niet groter te zijn dan een paar GB (<4GB is al zat), dus dan blijft er nog wat ruimte over voor L2ARC. Ik zou iets van 20-30GB nemen, en de rest ongepartitioneerd houden, waardoor je overprovisioning hebt en je SSD lekker snel blijft en langer mee gaat (hoewel de 320 weinig last heeft van vol zijn).Phasis schreef op vrijdag 02 augustus 2013 @ 14:41:
[...]
Oké bedankt FireDrunk dat scheelt me weer wat geld.
Wat kan ik het beste gebruiken voor partitie grote(n)?
Ik heb ook nog een Fractal Design Array 2 staan maar er zijn geen (zuinige)moederborden met 6x sata.Dan had deze wel mooi compact geworden.
Even niets...
Oké bedankt, ik krijg morgen de hardware binnen, ben benieuwd.FireDrunk schreef op vrijdag 02 augustus 2013 @ 17:10:
[...]
Partitiegrootte is een beetje smaak afhankelijk. Voor boot is 5GB al zat inc een paar applicaties (ZFSguru neemt zelf maar 900MB ofzo in gebruik inc swap). ZIL hoeft niet groter te zijn dan een paar GB (<4GB is al zat), dus dan blijft er nog wat ruimte over voor L2ARC. Ik zou iets van 20-30GB nemen, en de rest ongepartitioneerd houden, waardoor je overprovisioning hebt en je SSD lekker snel blijft en langer mee gaat (hoewel de 320 weinig last heeft van vol zijn).
Ik heb even zitten googlen, en las dat wanneer je 'm puur alleen voor storage gebruik, dan moet je denken aan streamen van 1080p content naar XBMC clients en iets van Sabnzbd/Spotweb dat het niet echt uitmaakt of je L2ARC en ZIL gebruikt. Dat dit meer nut heeft met databases en VM's.
zfs set secondarycache=metadata tank
Waarbij tank de naam van de pool is. Alle overige filesystems nemen dit dankzij inheritance over.
Het zal inderdaad uitmaken als je iets als WinDirStat draait, maar dat doe ik niet echt dagelijks ofzo
Even niets...
cannot create '/zfsguru': dataset already exists
Dus ik denkt, dat gaat fout. Ik stop de installatie, ik 3x opnieuw proberen. USB zero write.
Denk na 1,5u, laat ik eens wachten.
Moest ik gewoon langer wachten, en werkt alles prima
Het duurt even, maar ZFS gaan we zo installeren.
Dat is geen error. Het betekent alleen dat je tenminste één keer eerder ZFSguru op die pool hebt geïnstalleerd. Als het een error was, zou de installatie op dat punt stoppen.In ESXi kreeg ik telkens de error:
cannot create '/zfsguru': dataset already exists
Het kwam in ieder geval over als een error, vandaar dat ik stopte.Verwijderd schreef op zaterdag 03 augustus 2013 @ 00:49:
[...]
Dat is geen error. Het betekent alleen dat je tenminste één keer eerder ZFSguru op die pool hebt geïnstalleerd. Als het een error was, zou de installatie op dat punt stoppen.
Als ik een slog device wil toevoegen, dan geeft mijn browser een foutmelding.
pools.php?slog&pool=storage&submit
Deze url geeft een serverfout, zoal op Chrome als IE.
Opgelost met zpool add storage log gpt/device
[ Voor 62% gewijzigd door Dennisik op 03-08-2013 01:32 ]
Eens kijken of ik morgen nog de performance omhoog kan gooien met wat finetunen.
Via GUI 64GB File:
Test size : 64 GiB
normal read : 598 MB/s
normal write : 367 MB/s
Met DD
Read 561MB/s
Write 347MB/s:
1
2
3
4
5
6
7
8
9
10
11
| Write: [root@zfsguru /storage]# sudo dd if=/dev/zero of=/storage/test3.bin bs=1048576000 count=64 64+0 records in 64+0 records out 67108864000 bytes transferred in 184.142641 secs (364439565 bytes/sec) Read: [root@zfsguru /storage]# sudo dd if=/storage/test3.bin of=/dev/null bs=1048576000 count=64 64+0 records in 64+0 records out 67108864000 bytes transferred in 114.033561 secs (588500994 bytes/sec) |
12GB ram + 6x2TB raidz1
Wel beetje jammer dat er in de GUI staat
storage 28 RAID5 (single parity) 10.9T 177G 10.7T
Via SSH is het:
storage 8.6T 141G 8.4T 2% /storage
Nog steeds 1.4TB minder dan verwacht (Gezien 6x2TB raidz1)
Als ik 5x1.8 pak, kom ik uit op 9TB dan is het verschil 'slechts' 400GB.
[ Voor 24% gewijzigd door Dennisik op 03-08-2013 03:23 ]
De installatieprocedure geeft wel duidelijk aan of deze geslaagd is of gefaald is. De output van het installscript is daarbij slechts een extra. Maar die melding is ook in beta9 weg omdat je niet de enige bent die het als een error zag. Toch staat er bovenaan duidelijk of het successful was of dat er iets fout ging.
Verder vind ik je snelheden prima in orde? Het is natuurlijk zo dat je met 6 disks in RAID-Z geen optimale configuratie draait; 6 disks in RAID-Z2 zou wel optimaal zijn. Verder heb je 4K optimalisatie toegepast bij het aanmaken van je pool? Of je pool 4K optimaal is kun je zien op de Pool pagina als je je pool aanklikt, staat in het overzicht halverwege de pagina.
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.