Ik heb ZFS-on-Linux hier getest op exact dezelfde hardware als waarop ik alle andere platformen getest heb. En het performde gewoon een stuk slechter (10-30%).
Even niets...
Even niets...
1
2
3
4
5
6
7
8
9
10
| patrick@server:/tank $ dd if=/dev/zero of=test.bin bs=32M count=8192 8192+0 records gelezen 8192+0 records geschreven 274877906944 bytes (275 GB) gekopieerd, 898,068 s, 306 MB/s patrick@server:/tank $ dd if=/dev/zero of=test2.bin bs=32M count=8192 8192+0 records gelezen 8192+0 records geschreven 274877906944 bytes (275 GB) gekopieerd, 904,457 s, 304 MB/s |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
| pool: tank state: ONLINE scan: scrub repaired 0 in 5h46m with 0 errors on Fri Jul 26 18:01:34 2013 config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J2RP1A ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J3ST5B ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J3TXGB ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J422JB ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J4HGNB ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J4J15B ONLINE 0 0 0 logs ata-INTEL_SSDSA2CW120G3_CVPR126608BS120LGN-part1 ONLINE 0 0 0 cache ata-INTEL_SSDSA2CW120G3_CVPR126608BS120LGN-part2 ONLINE 0 0 0 errors: No known data errors |
[ Voor 4% gewijzigd door Xudonax op 28-07-2013 19:37 ]
Even niets...
[ Voor 10% gewijzigd door analog_ op 28-07-2013 19:54 ]
[ Voor 24% gewijzigd door FireDrunk op 28-07-2013 20:28 ]
Even niets...
[ Voor 16% gewijzigd door Mystic Spirit op 28-07-2013 21:13 ]
Even niets...
Dan moet je wel vanaf meerdere stations je data benaderen, of verschillende vlans gebruiken.Xudonax schreef op zondag 28 juli 2013 @ 19:45:
Gigabit voltrekken is inderdaad geen probleem. Ik zit onderhand zelfs te kijken naar link aggregation van 2 of 3 GbE poorten om te zorgen dat ik op een enigszins fatsoenlijke snelheid overal bij kanIk bedoel, mijn RAID1 setup (Linux SW RAID) kan makkelijk 150MByte/s sequentieel doen. En gezien het gebruik van deze opslag is het geen overbodige luxe om daar een 200Mbit/s pijp heen te hebben IMO.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
[ Voor 12% gewijzigd door FireDrunk op 29-07-2013 09:29 ]
Even niets...
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
[ Voor 17% gewijzigd door FireDrunk op 29-07-2013 09:46 ]
Even niets...
[ Voor 76% gewijzigd door HyperBart op 29-07-2013 13:25 ]
Dan moet ik helaas maar accepteren dat ik op jaarbasis 80-100 euro extra kwijt ben aan stroomkosten vrees ikFireDrunk schreef op maandag 29 juli 2013 @ 09:43:
ZFS onder Hyper-V draaien is niet te doen. Er is geen support voor VT-d, en de controller is of IDE of een vage SCSI controller waarvan ik geen idee heb of hij werkt met ZFS.
Ik wil het ooit nog wel eens gaan proberen, aangezien Hyper-V wel (goede) ondersteuning heeft voor het doorgeven van fysieke schijven via die SCSI controller.
Ander nadeel is weer dat je geen 10Gb virtuele interface hebt onder FreeBSD, hooguit 1Gb.
[ Voor 12% gewijzigd door Tsurany op 29-07-2013 09:53 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Deze lijst helpt mij goed FireDrunk! Het geeft een goed overzicht. Wat er ook nog in zou kunnen en niet onbelangrijk is, is spindown support met en zonder HBA. Daar loop ik nu namelijk tegenaan in ZFSguru. De schijven hebben geen automatische spindown. Dat komt bij mij, omdat er een IBM naar LSI IT mode geflashte HBA tussen zit. Ik ben wel benieuwd of dat bij andere distributies anders is.FireDrunk schreef op zondag 28 juli 2013 @ 19:55:
Mja, FreeNAS/NAS4Free heeft Plugins/packages, ZFSguru heeft services, en Linux (Ubuntu) heeft belachelijk veel PPA's, wat heeft NexentaStor dan?
Kopje High Availability is er al.
[afbeelding]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Voor je schijven die op je IBM aangesloten zijn kun je de service spindown gebruiken. Met de post van FireDrunk heb ik het destijds werkend gekregen.Mystic Spirit schreef op maandag 29 juli 2013 @ 09:57:
[...]
Deze lijst helpt mij goed FireDrunk! Het geeft een goed overzicht. Wat er ook nog in zou kunnen en niet onbelangrijk is, is spindown support met en zonder HBA. Daar loop ik nu namelijk tegenaan in ZFSguru. De schijven hebben geen automatische spindown. Dat komt bij mij, omdat er een IBM naar LSI IT mode geflashte HBA tussen zit. Ik ben wel benieuwd of dat bij andere distributies anders is.
Even niets...
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
Ik wil de startpost eigenlijk redelijk OS agnostisch houden. Specifieke dingen voor BSD of Solaris horen er eigenlijk niet in vind ik. Wel kun je binnenkort een speciaal ZFS appliances topic verwachten. Bijvoorbeeld een topic voor ZFSguru/NAS4Free/FreeNAS en eentje voor Solaris+napp-it/Nexenta. Enzovoorts.## ZFSguru autostart
zfsguru_enable="YES"
# APM or Advanced Power Management controls power saving features of your hard
# drives. To disable the dreaded 'headparking' feature, it is common to enable
# APM to a setting of 254, to disable headparking altogether.
zfsguru_apm_disks="ada1 ada2 ada3 ada4 ada5 ada6 ada7"
zfsguru_apm_level="254"
# To enable your disks to spindown whenever inactive for a number of seconds,
# configure both the timer (in seconds) and the disks you want to be spun down.
zfsguru_spindown_enable="YES"
zfsguru_spindown_timer="900"
zfsguru_spindown_disks="ada3 ada4 ada5 ada6 ada7"
# If you have a pool with L2ARC cache devices present, you might want to warm
# up the L2ARC right after boot with metadata. We can do that by scanning all
# directory layout which will cause metadata to be written to the L2ARC cache.
zfsguru_l2arc_warmup_enable="NO"
Allemaal leuk, maar dat werkt dus niet met een M1015?Verwijderd schreef op maandag 29 juli 2013 @ 12:11:
In de nieuwe systeemversie van ZFSguru wordt spindown op een andere manier geregeld. Je kunt dat redelijk eenvoudig aanpassen met ee /etc/rc.conf
[...]
Ik wil de startpost eigenlijk redelijk OS agnostisch houden. Specifieke dingen voor BSD of Solaris horen er eigenlijk niet in vind ik. Wel kun je binnenkort een speciaal ZFS appliances topic verwachten. Bijvoorbeeld een topic voor ZFSguru/NAS4Free/FreeNAS en eentje voor Solaris+napp-it/Nexenta. Enzovoorts.
Even niets...
Even niets...
Even niets...
[ Voor 21% gewijzigd door Neptunus op 29-07-2013 15:14 ]
Mooi overzicht, maar ik heb nog wel wat vragen, met name het lijstje voor opensolaris lijkt me niet helemaal correct vwb de virtualization host support, zowel KVM als VirtualBox werken zo goed als out-of-the box.FireDrunk schreef op zondag 28 juli 2013 @ 19:55:
Mja, FreeNAS/NAS4Free heeft Plugins/packages, ZFSguru heeft services, en Linux (Ubuntu) heeft belachelijk veel PPA's, wat heeft NexentaStor dan?
Kopje High Availability is er al.
[afbeelding]
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
[ Voor 12% gewijzigd door FireDrunk op 29-07-2013 15:31 ]
Even niets...
Ik ga wel even testenVerwijderd schreef op maandag 29 juli 2013 @ 13:05:
Nog sooner dan 'real soon' want 9.1-006 kun je al downloaden en gebruiken. Alleen de nieuwe services kun je nog niet via de GUI downloaden en installeren. Wel handmatig, daar heeft Jason wat instructies voor gegeven om 9.1-006 met SABnzbd+ service te installeren. De SABnzbd+ service in 9.1-006 is sterk verbeterd en fixt - als het goed is - alle bekende issues van voorgaande releases.
1
2
3
| set hw.pci.enable_msi="0" set hw.pci.enable_msix="0" boot |
[ Voor 32% gewijzigd door Mystic Spirit op 29-07-2013 19:36 ]
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
| $ sudo smartctl -A /dev/sdi smartctl 6.1 2013-03-16 r3800 [x86_64-linux-3.9.9-302.fc19.x86_64] (local build) Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org === START OF READ SMART DATA SECTION === SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000b 100 100 062 Pre-fail Always - 0 2 Throughput_Performance 0x0005 100 100 040 Pre-fail Offline - 0 3 Spin_Up_Time 0x0007 163 163 033 Pre-fail Always - 1 4 Start_Stop_Count 0x0012 100 100 000 Old_age Always - 435 5 Reallocated_Sector_Ct 0x0033 100 100 005 Pre-fail Always - 0 7 Seek_Error_Rate 0x000b 100 100 067 Pre-fail Always - 0 8 Seek_Time_Performance 0x0005 100 100 040 Pre-fail Offline - 0 9 Power_On_Hours 0x0012 090 090 000 Old_age Always - 4629 10 Spin_Retry_Count 0x0013 100 100 060 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 120 191 G-Sense_Error_Rate 0x000a 100 100 000 Old_age Always - 0 192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 24 193 Load_Cycle_Count 0x0012 076 076 000 Old_age Always - 246689 194 Temperature_Celsius 0x0002 142 142 000 Old_age Always - 42 (Min/Max 15/48) 196 Reallocated_Event_Count 0x0032 088 088 000 Old_age Always - 425 197 Current_Pending_Sector 0x0022 100 100 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0008 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x000a 200 200 000 Old_age Always - 0 223 Load_Retry_Count 0x000a 100 100 000 Old_age Always - 0 |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
| ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000b 100 100 062 Pre-fail Always - 0 2 Throughput_Performance 0x0005 100 100 040 Pre-fail Offline - 0 3 Spin_Up_Time 0x0007 163 163 033 Pre-fail Always - 1 4 Start_Stop_Count 0x0012 100 100 000 Old_age Always - 429 5 Reallocated_Sector_Ct 0x0033 100 100 005 Pre-fail Always - 0 7 Seek_Error_Rate 0x000b 100 100 067 Pre-fail Always - 0 8 Seek_Time_Performance 0x0005 100 100 040 Pre-fail Offline - 0 9 Power_On_Hours 0x0012 090 090 000 Old_age Always - 4485 10 Spin_Retry_Count 0x0013 100 100 060 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 116 191 G-Sense_Error_Rate 0x000a 100 100 000 Old_age Always - 0 192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 23 193 Load_Cycle_Count 0x0012 078 078 000 Old_age Always - 228511 194 Temperature_Celsius 0x0002 150 150 000 Old_age Always - 40 (Min/Max 15/48) 196 Reallocated_Event_Count 0x0032 089 089 000 Old_age Always - 416 197 Current_Pending_Sector 0x0022 100 100 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0008 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x000a 200 200 000 Old_age Always - 0 223 Load_Retry_Count 0x000a 100 100 000 Old_age Always - 0 |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
| $ sudo zfs list NAME USED AVAIL REFER MOUNTPOINT tank 2,65T 934G 1,72T /tank tank/Documents 54,8G 934G 54,8G /tank/Documents tank/Downloads 16,2G 934G 16,2G /tank/Downloads tank/Videos 15,7G 934G 15,7G /tank/Videos tank/Manga 1,23G 934G 1,23G /tank/Manga tank/Music 170G 934G 170G /tank/Music tank/Torrents 337G 934G 337G /tank/Torrents tank/Video 10,7M 934G 10,7M /tank/Video tank/Whenever.is 52,8G 934G 52,8G /tank/Whenever.is tank/owncloud 5,39G 763G 5,39G /tank/owncloud tank/swap 40,5G 934G 40,5G - tank/tm 231G 793G 231G /tank/tm tank/vm_images 34,9G 934G 34,9G /tank/vm_images tank/websites 48,5M 50,0G 48,5M /tank/websites |
[ Voor 108% gewijzigd door Xudonax op 30-07-2013 08:52 ]
Goed initiatief!FireDrunk schreef op zondag 28 juli 2013 @ 19:55:
Mja, FreeNAS/NAS4Free heeft Plugins/packages, ZFSguru heeft services, en Linux (Ubuntu) heeft belachelijk veel PPA's, wat heeft NexentaStor dan?
Kopje High Availability is er al.
[afbeelding]
Ik zie 9.1-006 niet in de webinterface staan onder Install. Moet ik iets refreshen of zo?Verwijderd schreef op maandag 29 juli 2013 @ 13:05:
Nog sooner dan 'real soon' want 9.1-006 kun je al downloaden en gebruiken. Alleen de nieuwe services kun je nog niet via de GUI downloaden en installeren. Wel handmatig, daar heeft Jason wat instructies voor gegeven om 9.1-006 met SABnzbd+ service te installeren. De SABnzbd+ service in 9.1-006 is sterk verbeterd en fixt - als het goed is - alle bekende issues van voorgaande releases.
Maar de NFS-implementatie van Windows is nog brakker dan Samba. Dus dat schiet ook niet op. (Bij mij is Samba een stuk sneller dan NFS, maar ik haal dan ook wel wat meer dan 13,8 MB/s...Dennisik schreef op maandag 29 juli 2013 @ 22:06:
Samba is zo'n zaad protocol.
Van ubuntu server naar Windows 2008 server in ESXi op dezelfde switch gaat slechts 13,8MB/s.
En ik moet totaal 14TB heen en weer slepen
Met ZFSguru zal ik eens met NFS gaan proberen.
[ Voor 29% gewijzigd door Compizfox op 29-07-2013 22:31 ]
Gewoon een heel grote verzameling snoertjes
SFTP al getest, is performance ook bagger.HMS schreef op maandag 29 juli 2013 @ 22:35:
Is het niet makkelijker om dan gewoon even tijdelijk een FTP server op te zetten? Moet op zowel Ubuntu Server (proftpd) als Windows Server 2008 (IIS) niet zo heel moeilijk zijn.
Ik bedoelde dan ook gewone FTP, niet SSH FTP (SFTP)Dennisik schreef op maandag 29 juli 2013 @ 22:37:
[...]
SFTP al getest, is performance ook bagger.
Schrijven naar samba share doet die dan wel weer consequent met 50MB/s
Ik weet, nu schrijft die met 50MB/s en leest tegelijkertijd met 40MB/s. GB kan die makkelijk voltrekken, hij wil het alleen niet echt volhouden blijkbaar. Met 50MB/s duurt het overigens nog steeds 2x30u om over te stappen naar ZFS. Je moet er wat voor over hebben.HMS schreef op maandag 29 juli 2013 @ 22:39:
[...]
Ik bedoelde dan ook gewone FTP, niet SSH FTP (SFTP). SFTP kan inderdaad ook nog wel eens takke traag zijn.
[ Voor 10% gewijzigd door Dennisik op 29-07-2013 22:48 ]
Toch nog even proftpd geinstalleerd, dit gaat zo rond de 70/80MB/s.HMS schreef op maandag 29 juli 2013 @ 22:35:
Is het niet makkelijker om dan gewoon even tijdelijk een FTP server op te zetten? Moet op zowel Ubuntu Server (proftpd) als Windows Server 2008 (IIS) niet zo heel moeilijk zijn.
[ Voor 7% gewijzigd door Dennisik op 29-07-2013 23:09 ]
Heb je wel eens vsftpd geprobeerd?Dennisik schreef op maandag 29 juli 2013 @ 23:08:
[...]
Toch nog even proftpd geinstalleerd, dit gaat zo rond de 70/80MB/s.
Net wel bijna TB weggegooid, maar dit gaat zo een nachtje door.
Helemaal top, danku!
Ja, dat stond er eerst op performance daarvan viel tegen. Maar niet uitgebreid getest, ben allang blij dat het nu met 80MB/s gaat. Al loopt filezilla ook niet erg soepel, afronden van transacties doet die niet erg soepel. Ach het werkt.
[ Voor 39% gewijzigd door Dennisik op 29-07-2013 23:33 ]
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| NAME USED AVAIL REFER MOUNTPOINT tank 1,82T 1,74T 1,22T /tank tank/Documents 54,8G 1,74T 54,8G /tank/Documents tank/Downloads 16,2G 1,74T 16,2G /tank/Downloads tank/Videos 15,7G 1,74T 15,7G /tank/Videos tank/Manga 1,23G 1,74T 1,23G /tank/Manga tank/Music 170G 1,74T 170G /tank/Music tank/Torrents 8,33M 1,74T 8,33M /tank/Torrents tank/Video 10,7M 1,74T 10,7M /tank/Video tank/Whenever.is 52,8G 1,74T 52,8G /tank/Whenever.is tank/owncloud 5,39G 763G 5,39G /tank/owncloud tank/swap 40,5G 1,74T 40,5G - tank/tm 231G 793G 231G /tank/tm tank/vm_images 34,9G 1,74T 34,9G /tank/vm_images tank/websites 43,6M 50,0G 43,6M /tank/websites |
[ Voor 5% gewijzigd door Xudonax op 30-07-2013 08:53 ]
Will do.Compizfox schreef op maandag 29 juli 2013 @ 22:22:
[...]
Goed initiatief!
Ik heb een aantal opmerkingen:
[list]
• Zet er "Ubuntu + ZFS" neer ipv "Linux-ZFS". Ik zag al dat je het in een opmerking onderaan hebt geplaatst, maar zo is het toch duidelijker.
Webbased IP Management• Wat versta je onder "Easy IP Management"? Ik vind persoonlijk ifconfig en /etc/network/interfaces best makkelijk. Concretiseer dat dus ietsMet de juiste panels is het ook wel webbased te doen (Ajenti of Webmin kunnen het vast wel). Precies hetzelfde geldt ook voor "Easy share management".
Gaat er om of je de firewall via de webinterface kan beheren.• Je beweert dat Linux geen built-in firewall heeft? Netfilter (iptables) zit sinds Linux 2.4 in de kernel.
AD Integratie heeft weinig met Samba4 te maken. Met Samba 4 kan je een Domain Controller opzetten. Lid zijn van een domein kan al veel langer.• Zowel FreeBSD als Linux hebben support voor Samba 4 wat Active Directory Integration biedt.
Will do.• Maak van "iSCSI Management" "Webbased iSCSI Management" (ik neem aan dat je dat bedoelt)
De praktijk zegt toch echt iets anders... En zeggen dat het omdat het dezelfde software is, het hetzelfde zou moeten presteren, is zeggen dat Windows of Linux niet uitmaakt omdat het allebei op Intel draait.• SMB speed en NFS speed zouden onder FreeBSD en Linux hetzelfde moeten zijn, omdat ze dezelfde implementatie gebruiken (namelijk Samba voor SMB in user-space en NFS in kernel-space)
Dat is wel heel specifiek, het gaat niet echt om of het platform te virtualiseren is. RDM is een beetje een hack, en past niet zo goed in dit overzicht.• Het is misschien handig om (onder "ESXi support") aan te geven dat FreeBSD 9.1 + ESXi Physical RDM niet lekker gaat.
Maar dat hebben FreeNAS, NAS4Free, Nexenta en OpenSolaris ook, dus alleen Linux heeft dat maar niet...• Het is het imho wel waard om aan te geven dat ZFSGuru e.d. webinterfaces hebben waarmee je ZFS kunt beheren. Linux heeft dat totaal niet.
[/list]
Even niets...
GA-Z97X-UD5H, Core i5 4670, 8Gb DDR3, MSI GTX 1050 Ti 4Gb, Samsung 840 EVO 250 Gb SSD, BCM94360CD Wifi+Bluetooth 4.0LE, MacOS 13 High Sierra
Het is in beide gevallen dan duidelijk omdat er expliciet bij te vermeldenFireDrunk schreef op dinsdag 30 juli 2013 @ 08:55:
[...]
Webbased IP Management
[...]
Gaat er om of je de firewall via de webinterface kan beheren.
Ik ben dan wel benieuwd waar de verschillen vandaan komen. Out-of-the-box tweaking? Snellere network stack? Is het dan überhaupt wel zeker dat het aan NFS/Samba ligt en niet aan iets anders?[...]
De praktijk zegt toch echt iets anders... En zeggen dat het omdat het dezelfde software is, het hetzelfde zou moeten presteren, is zeggen dat Windows of Linux niet uitmaakt omdat het allebei op Intel draait.
Ik heb zelfs verschillen gemerkt tussen verschillende Linux versies (Gentoo, Fedora, Ubuntu, CentOS)
Daar heb je gelijk in, RDM voor SATA is een hack. Maar aangezien het wel veel gebruikt wordt icm ZFS vind ik het wel het vermelden waard.[...]
Dat is wel heel specifiek, het gaat niet echt om of het platform te virtualiseren is. RDM is een beetje een hack, en past niet zo goed in dit overzicht.
Daarom juist...[...]
Maar dat hebben FreeNAS, NAS4Free, Nexenta en OpenSolaris ook, dus alleen Linux heeft dat maar niet...
Je kunt toch gewoon /usr/local/etc/smb.conf backuppen en later weer terug zetten?ronzelver schreef op dinsdag 30 juli 2013 @ 13:06:
Ik wil mijn zfsguru systeem (9.1-004) upgraden naar de laatste versie 9.1-006 middels de upgrade optie en ik wil graag mijn Samba shares behouden. Had iemand daar niet een klein script voor geschreven om die instellingen over te zetten? Ik kan het zo vlug niet meer vinden (hier en op zfsguru.com)?! Alvast bedankt!
[ Voor 16% gewijzigd door Compizfox op 30-07-2013 13:55 ]
Gewoon een heel grote verzameling snoertjes
ZFSguru 0.2.0-beta8 (9.1-005) pool benchmark Pool : data (13.6T, 0% full) Test size : 128 GiB normal read : 335 MB/s normal write : 290 MB/s I/O bandwidth : 23 GB/s
[global] workgroup = WORKGROUP server string = ZFSguru security = share load printers = no log file = /var/log/samba/log.%m log level = 2 max log size = 50 guest account = share create mask = 0666 directory mask = 0777 aio read size = 16384 aio write size = 16384 aio write behind = false socket options = TCP_NODELAY IPTOS_LOWDELAY SO_SNDBUF=131072 SO_RCVBUF=131072 use sendfile = yes
bin/iperf.exe -c 192.168.0.20 -P 1 -i 1 -p 5001 -f m -t 10 -T 1 [ ID] Interval Transfer Bandwidth [260] 0.0-10.0 sec 1036 MBytes 868 Mbits/sec
[root@zfsguru /home/ssh]# iperf -c 192.168.0.185 -p 5001 -i 1 -t 10 -f m [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 730 MBytes 612 Mbits/sec
5564
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Dat hoeft niet hoor.pierce schreef op woensdag 31 juli 2013 @ 11:24:
Weet iemand of je met ZFS ook HDD's van verschillende merken door elkaar kan gebruiken, bv seagate, wd, hitachi? Of heeft iemand hier ervaring mee?
Ik snap dat de schijven performance wise gelijkwaardig moeten zijn, dus zelfde grootte, rpm etc.![]()
Ik was overigens niet van plan dit direct te gaan gebruiken, maar meer in het geval dat er toch een schijf kapot mocht gaan, er geen spares op voorraad zijn en je alleen maar een HDD kan krijgen van een ander merk met dezelfde specificaties.
| Unox = The Worst Operating System | How can you respect a computer controlled by a mouse? | Wie het laatst lacht, is het langzaamst van begrip. |
Even niets...
[ Voor 31% gewijzigd door Savages op 31-07-2013 14:19 ]
| Unox = The Worst Operating System | How can you respect a computer controlled by a mouse? | Wie het laatst lacht, is het langzaamst van begrip. |
Even niets...
Even niets...
| Unox = The Worst Operating System | How can you respect a computer controlled by a mouse? | Wie het laatst lacht, is het langzaamst van begrip. |
De Lynx staat niet in de lijst vermeldt, wel heb je een gratis sil3132 gekregen.Savages schreef op woensdag 31 juli 2013 @ 16:01:
Ik heb nu problemen zo te zien om de onboard LynxPoint door te geven, of zie ik iets over het hoofd? Ik kan wel beide Asmedia controllers gescheiden doorgeven, dus dat lijkt te werken.
[afbeelding]
Het vreemde is ook dat de Realtek nic er tweemaal tussen lijkt te staan...
Nee die 3132 is een insteekkaartje, zoals eerder gemeld...jadjong schreef op woensdag 31 juli 2013 @ 16:10:
[...]
De Lynx staat niet in de lijst vermeldt, wel heb je een gratis sil3132 gekregen.
| Unox = The Worst Operating System | How can you respect a computer controlled by a mouse? | Wie het laatst lacht, is het langzaamst van begrip. |
Dit werkt wel goed met hyper-v. Of het beter werkt dan met esxi, tsja.... Durf ik geen antwoord op te geven. Voor mij werkt het goed. Wel de vdev aanmaken met de 'by-id' naamgeving ipv sda, sdb, enz.HMS schreef op woensdag 31 juli 2013 @ 14:56:
Werkt het doorgeven van disks via Hyper-V beter dan met ESXi? Of zijn er weinig Hyper-V gebruikers in dit topic?
Verwijderd
Even niets...
Verwijderd
Ah, de tussenliggende driver laag had ik over het hoofd gezien. Ik zie er van af en ga het risico niet wagen aangezien áls ik al die moeite doe om ZFS te gebruiken, dan moet het ook gegarandeerd betrouwbaar werken. Misschien toch nog eens kijken naar ReFS.FireDrunk schreef op donderdag 01 augustus 2013 @ 15:52:
Gebruik je de 'echte' AHCI controller of zit er nog een driver tussen? (Marvell / Promise).
Even niets...
# | Product | Prijs | Subtotaal |
1 | Intel Celeron G1610 Boxed | € 34,95 | € 34,95 |
1 | ASRock B75 Pro3-M | € 55,90 | € 55,90 |
6 | Hitachi Deskstar 5K4000, 4TB | € 151,84 | € 911,04 |
1 | Fractal Design Define Mini | € 72,71 | € 72,71 |
1 | Corsair CMSO8GX3M1A1333C9 | € 42,58 | € 42,58 |
1 | Corsair CMV16GX3M2A1333C9 | € 79,98 | € 79,98 |
1 | Seasonic G-Serie 360Watt | € 58,- | € 58,- |
Bekijk collectie Importeer producten | Totaal | € 1.255,16 |
Even niets...
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
[ Voor 27% gewijzigd door Habana op 02-08-2013 16:10 ]
Oké bedankt FireDrunk dat scheelt me weer wat geld.FireDrunk schreef op vrijdag 02 augustus 2013 @ 08:44:
Ja hoor, prima. De Intel 320 is een prima keuze hiervoor.
Any job you can do in your pajamas is not the hardest job in the world.
En over hoeveel onzuiniger hebben we het dan?Phasis schreef op vrijdag 02 augustus 2013 @ 15:25:
Die had ik nog wel gezien gister maar Asus staat er inmiddels om bekend dat ze niet zuinig zijn. En zie dat bord ook niet voorbij komen in 'Het grote zuinige server topic'.
Ik heb destijds mijn beslissing van deze test laten afhangen.matty___ schreef op vrijdag 02 augustus 2013 @ 15:27:
[...]
En over hoeveel onzuiniger hebben we het dan?
CPU lijkt me toch de grootste bepalende factor hier.
Any job you can do in your pajamas is not the hardest job in the world.
[ Voor 4% gewijzigd door Phuncz op 02-08-2013 15:41 ]
[ Voor 15% gewijzigd door Habana op 02-08-2013 16:46 ]
[ Voor 68% gewijzigd door webfreakz.nl op 02-08-2013 16:36 . Reden: Geen rechten aan verbonden, het is vrijdagmiddag tenslotte! ]
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
ik denk dat er een makkelijkere manier is om 11 watt te besparen.Phuncz schreef op vrijdag 02 augustus 2013 @ 16:44:
Dus na 3,5 jaar beginnen de euro's binnen te rollen !
Partitiegrootte is een beetje smaak afhankelijk. Voor boot is 5GB al zat inc een paar applicaties (ZFSguru neemt zelf maar 900MB ofzo in gebruik inc swap). ZIL hoeft niet groter te zijn dan een paar GB (<4GB is al zat), dus dan blijft er nog wat ruimte over voor L2ARC. Ik zou iets van 20-30GB nemen, en de rest ongepartitioneerd houden, waardoor je overprovisioning hebt en je SSD lekker snel blijft en langer mee gaat (hoewel de 320 weinig last heeft van vol zijn).Phasis schreef op vrijdag 02 augustus 2013 @ 14:41:
[...]
Oké bedankt FireDrunk dat scheelt me weer wat geld.
Wat kan ik het beste gebruiken voor partitie grote(n)?
Ik heb ook nog een Fractal Design Array 2 staan maar er zijn geen (zuinige)moederborden met 6x sata.Dan had deze wel mooi compact geworden.
Even niets...
Oké bedankt, ik krijg morgen de hardware binnen, ben benieuwd.FireDrunk schreef op vrijdag 02 augustus 2013 @ 17:10:
[...]
Partitiegrootte is een beetje smaak afhankelijk. Voor boot is 5GB al zat inc een paar applicaties (ZFSguru neemt zelf maar 900MB ofzo in gebruik inc swap). ZIL hoeft niet groter te zijn dan een paar GB (<4GB is al zat), dus dan blijft er nog wat ruimte over voor L2ARC. Ik zou iets van 20-30GB nemen, en de rest ongepartitioneerd houden, waardoor je overprovisioning hebt en je SSD lekker snel blijft en langer mee gaat (hoewel de 320 weinig last heeft van vol zijn).
Even niets...
Dat is geen error. Het betekent alleen dat je tenminste één keer eerder ZFSguru op die pool hebt geïnstalleerd. Als het een error was, zou de installatie op dat punt stoppen.In ESXi kreeg ik telkens de error:
cannot create '/zfsguru': dataset already exists
Het kwam in ieder geval over als een error, vandaar dat ik stopte.Verwijderd schreef op zaterdag 03 augustus 2013 @ 00:49:
[...]
Dat is geen error. Het betekent alleen dat je tenminste één keer eerder ZFSguru op die pool hebt geïnstalleerd. Als het een error was, zou de installatie op dat punt stoppen.
[ Voor 62% gewijzigd door Dennisik op 03-08-2013 01:32 ]
1
2
3
4
5
6
7
8
9
10
11
| Write: [root@zfsguru /storage]# sudo dd if=/dev/zero of=/storage/test3.bin bs=1048576000 count=64 64+0 records in 64+0 records out 67108864000 bytes transferred in 184.142641 secs (364439565 bytes/sec) Read: [root@zfsguru /storage]# sudo dd if=/storage/test3.bin of=/dev/null bs=1048576000 count=64 64+0 records in 64+0 records out 67108864000 bytes transferred in 114.033561 secs (588500994 bytes/sec) |
[ Voor 24% gewijzigd door Dennisik op 03-08-2013 03:23 ]
Apple iPhone 17 LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq