Onderstaande zijn de waardes die uiteindelijk de beste performancewinst opleverden, ik heb er flink mee zitten experimenteren.
1
2
3
4
5
6
7
8
| blockdev --setra 64 /dev/sd[bcde] blockdev --setra 8192 /dev/md0 echo 8192 > /sys/block/md0/md/stripe_cache_size echo 512 > /sys/block/sdb/queue/max_sectors_kb echo 512 > /sys/block/sdc/queue/max_sectors_kb echo 512 > /sys/block/sdd/queue/max_sectors_kb echo 512 > /sys/block/sde/queue/max_sectors_kb hdparm -Q 4 /dev/sd[bcde] |
Resultaat: (ja, even quick and dirty getest, ik zal er nog even een echte benchmark op loslaten)
root@server:~# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/dev/zero of=/data/test.bin bs=64k count=16k
1073741824 bytes (1.1 GB) copied, 5.42966 s, 198 MB/s
root@server:~# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd of=/dev/null if=/data/test.bin bs=64k
1073741824 bytes (1.1 GB) copied, 3.85634 s, 278 MB/s
De sync ; echo 3 > /proc/sys/vm/drop_caches zorgt er voor dat eventueel gebufferde data niet voor te positieve resultaten zorgt
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Nu even wat kabels fixen, CAT5e en CAT6 op de juiste maat knippen en aanleggen.
Dan dalijk even server OS installeren.
Dat is serieus netjes! kan je misschien dd nog eens draaien maar dan met 2x de hoeveelheid mem die in je systeem zit? ookal drop je de cache, hiermee weet je zeker dat er niets in het geheugen kan zitten aangezien je meer ruimte gebruikt dan dat je beschikbaar hebtDemoniac schreef op vrijdag 10 februari 2012 @ 15:46:
Mijn software RAID5 (mdadm) op 4x WD GreenPower 20EARS was nogal traag. Om te huilen zo traag eigenlijk, rond 50 MB/s lezen en 25 MB/s schrijvenAfgelopen week heb ik echter wat zitten stoeien met optimalisatie en verbazingwekkende performancewinst gehaald.
Onderstaande zijn de waardes die uiteindelijk de beste performancewinst opleverden, ik heb er flink mee zitten experimenteren.
code:
1 2 3 4 5 6 7 8 blockdev --setra 64 /dev/sd[bcde] blockdev --setra 8192 /dev/md0 echo 8192 > /sys/block/md0/md/stripe_cache_size echo 512 > /sys/block/sdb/queue/max_sectors_kb echo 512 > /sys/block/sdc/queue/max_sectors_kb echo 512 > /sys/block/sdd/queue/max_sectors_kb echo 512 > /sys/block/sde/queue/max_sectors_kb hdparm -Q 4 /dev/sd[bcde]
Resultaat: (ja, even quick and dirty getest, ik zal er nog even een echte benchmark op loslaten)
root@server:~# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/dev/zero of=/data/test.bin bs=64k count=16k
1073741824 bytes (1.1 GB) copied, 5.42966 s, 198 MB/s
root@server:~# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd of=/dev/null if=/data/test.bin bs=64k
1073741824 bytes (1.1 GB) copied, 3.85634 s, 278 MB/s
De sync ; echo 3 > /proc/sys/vm/drop_caches zorgt er voor dat eventueel gebufferde data niet voor te positieve resultaten zorgt
Daarom ga ik voor zelfbouw, met FreeNAS, OpenFiler of een Debian configuratie (met webmin o.i.d.). Ik denk een (software) RAID 5 of RAID-Z configuratie te draaien. Ik wil de NAS gaan gebruiken als downloadserver (spotweb, sabnzbd), en de media streamen naar m'n AC Ryan Playon HD2 of tablet. Daarnaast ga ik wat backups erop achterlaten.
Na veel zoekwerk (eerst intel atom D525), kom ik op de volgende configuratie uit:
pricewatch: Chenbro ES34069
pricewatch: Asus E35M1-I DELUXE
pricewatch: Kingston ValueRAM KVR1333D3N9/2G
pricewatch: OCZ Vertex Plus Sata II 2,5" SSD 30GB
pricewatch: Samsung EcoGreen F4EG HD204UI, 2TB
Nou maak ik me nog lichtelijk zorgen om de performance (IO, CPU voor downloaden, eventuele uitbreiding/testen met VM's, en eventueel de mogelijkheid om hem OOK als HTPC te gebruiken).
Ik vraag me daarom af of dit de optimale configuratie is. Een eis is wel dat het low power moet zijn (niet in de zin van minder dan 30W, maar wel zo laag mogelijk want hij draait 24/7). Ik ben ook aan het kijken naar bijvoorbeeld i3 2100 en ik hoorde ook verhalen over athlon x4. Ik kan gewoon niet uitmaken of de huidige configuratie niet storend traag is op sommige momenten, en of het een download snelheid van 50 Mbit/s kan halen (mn laptop kan het).
Oja, niet onbelangrijk: mn budget is (excl. de samsung HDD's) 400 euro. Ik twijfel ook nog over de kast, maar ik vind hem wel erg mooi (
Even niets...
En 8GB geheugen lijkt me voor mijn toepassingen ook voldoende. Ik dacht eerder dat de processor een bottleneck zou kunnen worden (?).
[ Voor 6% gewijzigd door haaivda op 13-02-2012 08:32 ]
Even niets...
Even niets...
De overhead per VM is niet zo heel groot, dus het ligt er natuurlijk helemaal aan wat die VM's moeten doenhaaivda schreef op maandag 13 februari 2012 @ 09:11:
Maar VM's draaien kan dus wel met de relatief lage processing power van de chip? Bedankt trouwens voor de vlotte antwoorden.
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
Enige nadelen zou kunnen zijn: Je hebt 1 minder SATA-poort (4 tegenover 5); je hebt alleen SATA-300 en geen SATA-600.
[ Voor 5% gewijzigd door GioStyle op 13-02-2012 09:56 ]
Kan ik hiermee toevallig ook video transcoderen? Dat zal met die brazos niet gaan?
btw, sata-300 is prima (alleen HDD's voor data) en 4 poorten is ook genoeg, al zal ik misschien nog wel een andere moederbord erbij zoeken.. En ik denk dat m'n kastkeuze niet meer goed is, aangezien de voeding volgens mij niet krachtig genoeg is..
[ Voor 22% gewijzigd door haaivda op 13-02-2012 11:48 ]
Ik draai zelf een i5 2400 + h67 chipset + 16GB geheugen + 80GB SSD met een 430 watt bronze voeding en idle haal ik 28.8 watt. Dit is gemeten met de beroemde Voltcraft Logger 4000.
Met de juiste voeding moet een G620 zeker onder de 20 watt idle zitten.
Wil je realtime video transcoden? Dan denk ik toch dat je dan al snel naar een i3 moet gaan kijken.
Interessant onderwerp dus ik ga ook even mijn ervaring delen.Verwijderd schreef op maandag 06 februari 2012 @ 23:11:
Even persoonlijk: zelf vond ik het niet praktisch werken, spindown op een grote array. Elke keer als ik begon met werken en even snel iets van de NAS nodig had, mocht ik weer 15 seconden wachten. Nieuwe schijven zijn veel sneller (7-8 seconden) dus zou het 10 seconden ofzo duren in de praktijk. Maargoed ik had er last van dus nu draai ik een andere setup: mijn hoofd servers staan voor zoveel mogelijk gewoon uit, en ik gebruik een low-power Brazos systeempje met 2 laptopschijven en 2 SSDs als 24/7 NAS. De grote servers doe ik alleen aan als ik wat nodig heb. Wel langere wachttijd maar het ging mij om de data die ik continu gebruik; daar wilde ik geen wachttijd op hebben.
Ben wel benieuwd naar ervaringen in de praktijk qua spindown van jullie kant.
Op onze eerste NAS (Syno DS210J met 2x 1TB in Raid0) had ik ook spindown geactiveerd maar dat schoot niet op. Bij elke folder access wachten tot hij de inhoud toont lijkt niet erg, maar is gruwelijk irritant als je snel iets wil zoeken.
Op onze huidige NAS (zelfbouw 4x 2TB in Raid5+HS) had ik initieel ook spindown ingeschakeld maar om een of andere reden is een van mijn samsung 2TB schijven in een spindown blijven hangen en is die overleden. Ik merkte ook af en toe een wachttijd op bij het benaderen van folders. Ik heb dan maar de spindown afgezet. Het scheelt hem wel in stroomverbruik maar ik zit anderzijds nog met een oude 320GB SATA disk voor OS en homedirs en de boel draait op een AMD A64 x2 4000+. Die twee samen verbruiken toch een stuk meer dan mijn 4 dataschijven, ongeacht of ik nu spindown aanzet of niet.
Laat ons concluderen dat spindown enkel situationeel een goed plan is. Is er regelmatig R/RW naar de data disken: niet doen. Is er enkel sporadisch access en hoeft het niet "bloody fast" te zijn, dan is spindown wel handig. De vraag is of het tegenwoordig nog zoveel uitmaakt met de green disks die nu legio zijn. De winst is marginaal.
Onze oude Synology is intussen de backup appliance geworden (raid1 nu ipv raid0). en daar zijn de schijven nu wel ingesteld op spindown. Er gaat immers toch enkel 4x per week een backup schedule naartoe. Deze draait ook 's nachts en backuppen is nu eenmaal een job die geen impact voelt van het wachten op opspinnende schijven.
Verwijderd
Hm das vreemd, ik heb ook een raid-5 config met 4x WD EARS 2TB, maar haal zelfs met jouw config waardes maar 89.5 MB/s write en 230 MB/s read.Demoniac schreef op vrijdag 10 februari 2012 @ 15:46:
Mijn software RAID5 (mdadm) op 4x WD GreenPower 20EARS was nogal traag. Om te huilen zo traag eigenlijk, rond 50 MB/s lezen en 25 MB/s schrijvenAfgelopen week heb ik echter wat zitten stoeien met optimalisatie en verbazingwekkende performancewinst gehaald.
Onderstaande zijn de waardes die uiteindelijk de beste performancewinst opleverden, ik heb er flink mee zitten experimenteren.
code:
1 2 3 4 5 6 7 8 blockdev --setra 64 /dev/sd[bcde] blockdev --setra 8192 /dev/md0 echo 8192 > /sys/block/md0/md/stripe_cache_size echo 512 > /sys/block/sdb/queue/max_sectors_kb echo 512 > /sys/block/sdc/queue/max_sectors_kb echo 512 > /sys/block/sdd/queue/max_sectors_kb echo 512 > /sys/block/sde/queue/max_sectors_kb hdparm -Q 4 /dev/sd[bcde]
Resultaat: (ja, even quick and dirty getest, ik zal er nog even een echte benchmark op loslaten)
root@server:~# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/dev/zero of=/data/test.bin bs=64k count=16k
1073741824 bytes (1.1 GB) copied, 5.42966 s, 198 MB/s
root@server:~# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd of=/dev/null if=/data/test.bin bs=64k
1073741824 bytes (1.1 GB) copied, 3.85634 s, 278 MB/s
De sync ; echo 3 > /proc/sys/vm/drop_caches zorgt er voor dat eventueel gebufferde data niet voor te positieve resultaten zorgt
Wat is de rest van je hardware config?
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Ext4, met een 2.6.32 kernel. mdadm is versie 3.2.2-9.Demoniac schreef op maandag 13 februari 2012 @ 15:26:
Weinig bijzonders, een AMD Athlon X2 5050e op een bordje met AMD 780G-chipset en 2 GB geheugen. Alle schijven zijn aangesloten op de onboard SATA-poorten. Welk filesystem gebruik je?
[ Voor 8% gewijzigd door Demo op 13-02-2012 16:10 ]
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Even niets...
Verwijderd
[ Voor 15% gewijzigd door Verwijderd op 13-02-2012 16:34 ]
Qua performance niet negatief in ieder geval, naar mijn ervaring, maar misschien doel je op iets anders?FireDrunk schreef op maandag 13 februari 2012 @ 16:16:
LVM maakt nogal wat verschil...
Of ik nou zorgde voor perfecte alignment met de hand of de alignment LVM (recente versies doen het) automatisch uit liet zoeken, zat allemaal snor met de performance.
Toen ik mijn server destijds installeerde heb ik dat speciaal zitten benchen voor mijn situatie. Dat was een 3x1.5TB mdadm raid5.
[ Voor 5% gewijzigd door Ultraman op 13-02-2012 20:27 ]
Als je stil blijft staan, komt de hoek wel naar jou toe.
In positieve zin? Dat lijkt me sterk. Alleen bij verkeerde configuratie (alignment) zou het je performance wel flink om zeep kunnen helpen..FireDrunk schreef op maandag 13 februari 2012 @ 16:16:
LVM maakt nogal wat verschil...
Dat zit op zich aardig in lijn met wat ik met 4 schijven haal.Verwijderd schreef op maandag 13 februari 2012 @ 16:34:
Ook op LVM2 haalde ik prima snelheden, 160mb/s schrijven en 230-240/s aan lezen (ext3)met 3 stuks wd20ears.
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
[ Voor 20% gewijzigd door DJ-Promo op 14-02-2012 13:39 ]
[ Voor 100% gewijzigd door Wimbo op 20-11-2012 15:41 ]
- internal bitmap
- blockdev --setra 8192 /dev/md0
- echo 8192 > /sys/block/md0/md/stripe_cache_size
Zijn 3 Samsung F4 2TB disken.
root@ana:/media/nas# mdadm -D --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sat Jul 2 03:20:40 2011
Raid Level : raid5
Array Size : 3907021568 (3726.03 GiB 4000.79 GB)
Used Dev Size : 1953510784 (1863.01 GiB 2000.40 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Tue Feb 14 12:01:38 2012
State : active
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : ana:0 (local to host ana)
UUID : 41776326:b420a575:0f6972e9:44a646ea
Events : 38
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
3 8 49 2 active sync /dev/sdd1
root@ana:/media/nas# dd if=/dev/zero of=/media/nas/testfile bs=1M count=8k
8192+0 records in
8192+0 records out
8589934592 bytes (8.6 GB) copied, 49.4418 s, 174 MB/s
root@ana:/media/nas# dd if=/media/nas/testfile of=/dev/null bs=1M
8192+0 records in
8192+0 records out
8589934592 bytes (8.6 GB) copied, 68.3873 s, 126 MB/s
Een external bitmap wilde niet, welk commando gebruiken jullie?
[ Voor 99% gewijzigd door Wimbo op 20-11-2012 15:41 ]
Edit: ik heb 4x 2TB in RAID5
[ Voor 13% gewijzigd door iMars op 14-02-2012 23:01 ]
Ook hier met 4x 2TB in RAID5 :iMars schreef op dinsdag 14 februari 2012 @ 23:01:
Hoe groot is zo'n external bitmap nou? Ik heb een 32GB SSD en kan wel wat meer performance gebruiken.
Edit: ik heb 4x 2TB in RAID5
1
2
| [B2@r2d2 var]$ du -h raid5_bitmap.bin 120K raid5_bitmap.bin |
Even niets...
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Even niets...
Na een reboot staan de standaard settings op :
1
2
3
4
5
| [root@r2d2 ~]# cat /sys/block/md0/md/stripe_cache_size 4096 [root@r2d2 ~]# cat /sys/block/sdb/queue/max_sectors_kb 512 |
1
2
3
4
5
6
| Test met standaard waardes : [root@r2d2 ~]# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/dev/zero of=/srv/data/dump/test.bin bs=64k count=16k 16384+0 records in 16384+0 records out 1073741824 bytes (1.1 GB) copied, 8.06699 s, 133 MB/s |
Na het aanpassen van van stripe_cache_size naar 8192 :
1
2
3
4
| [root@r2d2 ~]# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/dev/zero of=/srv/data/dump/test.bin bs=64k count=16k 16384+0 records in 16384+0 records out 1073741824 bytes (1.1 GB) copied, 9.07023 s, 118 MB/s |
Dit heeft dus een negatieve invloed bij mij!
Ben nog steeds aan het twijfelen of ik 3x2TB Raid 5 + HotSpare ga houden of toch maar ga growen naar 4x2TB Raid 5. Meer spindles versus minder degradation time .... hmmm.
Mijn setup bestaat uit een (virtuele) Ubuntu 11.04 met 8 2TB schijven in Raid-5.
Ik heb terug het script van Q in gebruik met een stripe_cache_size van 8192.
Wat mij nu ontzettend tegen valt zijn onderstaande resultaten:
root@vfileserver:~# dd if=/dev/zero of=/mnt/data/zero.file bs=1M count=50000 50000+0 records in 50000+0 records out 52428800000 bytes (52 GB) copied, 265,459 s, 198 MB/s root@vfileserver:~# dd if=/mnt/data/zero.file of=/dev/null bs=1M count=50000 50000+0 records in 50000+0 records out 52428800000 bytes (52 GB) copied, 144,283 s, 363 MB/s
Terwijl ik eerder volgende resultaten behaalde:
Binnenkort maak ik ook maar eens een post mijn mijn setup info + foto'sBlackShadow schreef op zondag 09 oktober 2011 @ 18:55:
Ik draai nu stabiel Ubuntu 11.04.
Edit:
Nog eens wat benchmarks met de nieuwe setup:
root@vfileserver:~# dd if=/dev/zero of=/mnt/data/zero.file bs=1M count=50000 50000+0 records in 50000+0 records out 52428800000 bytes (52 GB) copied, 111,505 s, 470 MB/s root@vfileserver:~# dd if=/mnt/data/zero.file of=/dev/null bs=1M count=50000 50000+0 records in 50000+0 records out 52428800000 bytes (52 GB) copied, 75,2599 s, 697 MB/s
[ Voor 3% gewijzigd door BlackShadow op 15-02-2012 15:11 ]
Momenteel heb ik een CH3MNAS van Conceptronics. Hierin zitten 2 2TB schijfjes in JBOD. De proc van het NASje is een 500mhz ding welk het niet echt trekt om ook als downloadbak dienst te doen.
Mijn NAS is momenteel voeding voor mijn HTPC (XBMC/openelec) en heeft dus ene shitload aan films en tv series, maar bevat ook mijn foto's, home video's en documenten.
Ik zou graag mijn foto's etc. backuppen en op een aparte locatie bewaren, dus een mirror waarvan ik 1x per week de schijven (hotswap) eruit trek, en de "oude" schijven erin prop zodat deze kan syncen, welke ik de week erop weer omruil, etc. etc.
Ik wil dus eigenlijk 2 volumes creëeren, 1 voor mijn foto's documenten etc. welke goed veilig moet zijn, en 1 voor mijn films en tv shows, muziek etc. welke makkelijk uitbreidbaar moet zijn.
De vragen die ik heb in het kort:
[list]
• Welk raid level zou ik moeten gebruiken voor mijn belangrijke data? (volume met effectief 500GB/1TB is _ruim_ voldoende)
• Welk raid level zou ik moeten gebruiken voor mijn streaming needs? (is er een raid level of controller die het accepteerd om on the fly een schijf/schijven erbij te prikken voor een groter volume?)
• Ik zou graag Sabnzbd + sickbeard + coutchpotato draaien, iemand een suggestie qua OS waar dit ook op draait (FreeNAS zou moeten gaan lees ik her en der, nog anderen waar iemand ervaring mee heeft?)
• Ik heb voor de behuizing mijn oog laten vallen op de Zalman MS1000-HS2. (Lage prijs en met 6x hotswap bay), iemand een suggestie voor een mobo (met oog op de raid configuratie hierboven, of dien ik voor deze config een aparte hw raid controller aan te schaffen?)
[edit]
Ik zit overigens zoals duidelijk moge zijn niet om hoge lees/schrijfsnelheden te wachten
A real man fears not mortality for it's death, he fears mortality for it's lack of life!
RatPack #814
root@NAS:~# cat /sys/block/md0/md/stripe_cache_size 12288
root@NAS:~# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/dev/zero of=/mnt/data/test.bin bs=64k count=16M 12205010+0 records in 12205010+0 records out 799867535360 bytes (800 GB) copied, 2203.61 s, 363 MB/s
root@NAS:~# echo 8192 > /sys/block/md0/md/stripe_cache_size
root@NAS:~# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/dev/zero of=/mnt/data/test.bin bs=64k count=16M 1050527+0 records in 1050527+0 records out 68847337472 bytes (69 GB) copied, 188.728 s, 365 MB/s
root@NAS:~# echo 4096 > /sys/block/md0/md/stripe_cache_size
root@NAS:~# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/dev/zero of=/mnt/data/test.bin bs=64k count=16M 356355+1 records in 356355+0 records out 23354081280 bytes (23 GB) copied, 63.352 s, 369 MB/s
Voor schrijven maakt het iig niet uit...
root@NAS:~# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/mnt/data/test.bin of=/dev/null bs=1M
22272+1 records in
22272+1 records out
23354081280 bytes (23 GB) copied, 43.4752 s, 537 MB/s
root@NAS:~# echo 8192 > /sys/block/md0/md/stripe_cache_size
root@NAS:~# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/mnt/data/test.bin of=/dev/null bs=1M
22272+1 records in
22272+1 records out
23354081280 bytes (23 GB) copied, 41.0944 s, 568 MB/s
root@NAS:~# echo 12288 > /sys/block/md0/md/stripe_cache_size
root@NAS:~# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/mnt/data/test.bin of=/dev/null bs=1M
22272+1 records in
22272+1 records out
23354081280 bytes (23 GB) copied, 40.3573 s, 579 MB/s
En voor lezen, minimaal...
[ Voor 29% gewijzigd door FireDrunk op 15-02-2012 16:19 ]
Even niets...
1
2
| [root@DKNAS2 ~]# cat /sys/block/md0/md/stripe_cache_size 256 |
1
2
3
4
5
6
7
8
9
| [root@DKNAS2 ~]# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/dev/zero of=/media/data/zero.file bs=1M count=5K 5120+0 records gelezen 5120+0 records geschreven 5368709120 bytes (5,4 GB) gekopieerd, 29,3794 s, 183 MB/s [root@DKNAS2 ~]# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/media/data/zero.file of=/dev/null bs=1M count=5K 5120+0 records gelezen 5120+0 records geschreven 5368709120 bytes (5,4 GB) gekopieerd, 32,9595 s, 163 MB/s |
1
2
3
| [root@DKNAS2 ~]# echo 8192 > /sys/block/md0/md/stripe_cache_size [root@DKNAS2 ~]# cat /sys/block/md0/md/stripe_cache_size 8192 |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
| [root@DKNAS2 ~]# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/dev/zero of=/media/data/test.bin bs=1M count=5K 5120+0 records gelezen 5120+0 records geschreven 5368709120 bytes (5,4 GB) gekopieerd, 25,9519 s, 207 MB/s [root@DKNAS2 ~]# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/media/data/test.bin of=/dev/null bs=1M count=5K 5120+0 records gelezen 5120+0 records geschreven 5368709120 bytes (5,4 GB) gekopieerd, 37,7825 s, 142 MB/s [root@DKNAS2 ~]# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/dev/zero of=/media/data/test.bin bs=64k count=500k 512000+0 records gelezen 512000+0 records geschreven 33554432000 bytes (34 GB) gekopieerd, 154,386 s, 217 MB/s [root@DKNAS2 ~]# sync ; echo 3 > /proc/sys/vm/drop_caches ; dd if=/media/data/test.bin of=/dev/null bs=64k count=500k 512000+0 records gelezen 512000+0 records geschreven 33554432000 bytes (34 GB) gekopieerd, 211,315 s, 159 MB/s |
Geen denderende snelheidswinst, maar het tilt de writes wel boven de 200MB uit.
Er moet toch ergens iets niet snor zitten want de reads komen veel lager uit dan de writes terwijl het toch echt omgekeerd moet zijn.
Even niets...
Niet dat het uit maakt IRL, want bij CIFS haal ik niet het maximum uit mijn gigabit lijn. Ik vermoed dat de NIC van de NAS daar iets mee te maken heeft.
Even niets...
wil deze voornamelijk gebruiken als downloadstation/opslagstation en evt wat internetten (youtube etc)
wil qua budget niet te ver gaan en denk dat ik via zelfbouw meer zal krijgen dan door gewoon nas te kopen
Moederbord + processor - pricewatch: Intel Desktop Board D525MW
Case: V&A aangeboden: Partij MINI-ITX kastjes + PSU
Geheugen: 2x 2gb dd3 so-dimm Kingston uit me oude mac
Harddisk: 1tb seagate barracude sata 300 uit iomega harddisk die ik nog heb
is dit realistisch of ben ik toch beter af om te investeren in een gewone nas?
Ik heb op dit moment 4 x 2TB schijven in een (bewust) degraded raid 6 array (6gb effectieve storage). En ben van plan om 2 of 3 schijven extra aan te schaffen wanneer de prijzen van de schijven weer op een normaal prijsniveau zijn. En deze degraided raid6 weer "aanhelen"
Ik ben spuit 1011, aangenaam!
Ik denk dat je het antwoord zelf ook wel weet. Zodra nu een van je schijven faalt, dan ben je je data kwijt omdat je er juist voor gekozen hebt op je parity schijven weg te laten. Effectief heb je nu dus een stuk tragere RAID 0 als het om veiligheid gaat.Spoooky schreef op donderdag 16 februari 2012 @ 15:51:
Kan iemand aangeven hoeverre een degraded array nadelig is?
Ik heb op dit moment 4 x 2TB schijven in een (bewust) degraded raid 6 array (6gb effectieve storage). En ben van plan om 2 of 3 schijven extra aan te schaffen wanneer de prijzen van de schijven weer op een normaal prijsniveau zijn. En deze degraided raid6 weer "aanhelen"
Zelf zou ik nooit voor zo'n optie kiezen, buiten overmacht om. Dat zijn situaties zoals hergebruik van schijven waar al data op staat. De tijd dat de pool degraded is, is dan minimaal. Ik had gekozen voor een RAID 6 met 4 schijven of een RAID 5 met nu 3 schijven en dan later een tweede RAID 5 als je je schijven hebt kunnen kopen. Dan zijn ook niet altijd al je schijven actief wat weer stroom bespaart. Eventueel zou je je belangrijkste data onderling kunnen backuppen zodat je extra veilig zit.
Sinds de 2 dagen regel reageer ik hier niet meer
In hoeverre dit impact heeft op read en writes, dat is wel een leuke om uit te spitten.
De topeis voor dit systeem is TimeMachine, ik heb wat laptops rondslingeren die zonder na te denken hun bakcup kwijt moeten op de NAS, de netgear kan dit out of the box, de ProLiant wil ik daarvoor voorzien van FreeNAS. Heeft een van jullie ervaringen met een soortgelijk systeem en Time machine? Ik las een walkthrough op internet maar dat zag er nogal shabby uit, om eerlijk te zijn.
mijn voorkeur gaat uit naar de HP oplossing, is leuker, kan ik meer aan sleutelen en ik hoop ook betere performance uithalen.
[ Voor 7% gewijzigd door Pixeltje op 16-02-2012 16:11 ]
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Verwijderd
Wil je geen ZFS maar wel FreeNAS, dan kun je UFS met ouderwets software RAID draaien. Dat werkt overwegend ook prima, met minder RAM benodigd. Je levert natuurlijk wel flink in op betrouwbaarheid; legacy filesystems bieden geen enkele bescherming tegen corruptie.
Ik ben spuit 1011, aangenaam!
Verwijderd
Single degraded betekent dat je maar één parity-waarde hoeft uit te rekenen. De inner en outer parity werken onafhankelijk van elkaar; je hebt dus drie bronnen van informatie: data, parity1, parity2. Single degraded hou je er nog twee over. Double degraded maar één; de data zelf zonder extra bescherming.
Even niets...
Huh? Heb een sigle degraded RAID6 array, dat hij die extra pariteit berekent had ik wel verwacht, maar opslaan op de andere disks, dan zou ik nooit op ongeveer 6 TB netto storage komen??FireDrunk schreef op donderdag 16 februari 2012 @ 17:14:
MD berekend wel gewoon de 2e parity en slaat deze op op de overige disks. Je array is dus trager dan RAID5.
@CiPHER
kan je dan ook makkelijk van RAID5 naar RAID6 ?
[ Voor 6% gewijzigd door Spoooky op 16-02-2012 17:59 ]
Ik ben spuit 1011, aangenaam!
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Waarom zou ik geen raidcontroller willen op ZFS? Er zijn vrij veel hits als je zoekt naar FreeNAS en ondersteunde raidcontrollers, dus ik ben niet de enige met het idee denk ik?Verwijderd schreef op donderdag 16 februari 2012 @ 16:37:
Als je FreeNAS met ZFS gaat draaien moet je geen RAID controller in stoppen. En verder; betrouwbaarheid? Zit nogal een verschil tussen een ZFS config en een WHS systeempje. Als je toch FreeNAS wilt gaan draaien zou ik gelijk de hele ZFS route bewandelen en een geschikt systeem voor maken. Voordeel van deze keuze ipv ready-made is natuurlijk meer mogelijkheden, uitbreidingen en andere software draaien. Over details van ZFS kun je in het ZFS topic terecht.
Wil je geen ZFS maar wel FreeNAS, dan kun je UFS met ouderwets software RAID draaien. Dat werkt overwegend ook prima, met minder RAM benodigd. Je levert natuurlijk wel flink in op betrouwbaarheid; legacy filesystems bieden geen enkele bescherming tegen corruptie.
Nevermind, eerst lezen dan vragen Pixeltje. Ben nu aan het grote ZFS topic begonnen, daar wordt bovenstaande vraag beantwoord.
Blijft de vraag waarom ik zoiets niet in die HP zou willen? De HP voorziet me in een kleine, zuinige serverbehuizing die waar ik (nu dus direct op het moederbord ipv raidcontroller) mijn schijven inprik en lekker kan rommelen met FreeNAS of iets anders..
[ Voor 16% gewijzigd door Pixeltje op 16-02-2012 18:35 ]
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Verwijderd
Om hoeveel schijven gaat het trouwens? Dat had je nog niet vermeld.
Maar ik denk dat je met zelfbouw ook extreem zuinig bent en toch wel beter spul krijgt. Maar je moet het ook leuk vinden om wat tijd en liefde in zo'n projectje te steken. Als je gewoon snel wat draaiend wilt hebben, koop dan een off-the-shelf product. Maar als je een beetje tweaker bent kun je volgens mij beter de zelfbouw toer doen. Dat kun je vaak nog jaren gebruiken voor afwisselende doeleinden.
Het gaat om 4 schijven, dus als ik een Raidz pool maak hou ik er 3 over. Dat is volgens de ZFS startpost ook meteen ideaalVerwijderd schreef op donderdag 16 februari 2012 @ 19:00:
Hoe zuinig is dat HP systeem dan? Want met een Brazos systeem kom je kaal ook aan de 10W idle, en dan gebruik je gewoon 4 tot 6 SATA/600 poorten op het moederbord. Nadeel van Brazos is wel dat je moeilijk kunt uitbreiden met extra SATA/SAS controller door BIOS-firmware issues.
Om hoeveel schijven gaat het trouwens? Dat had je nog niet vermeld.
Maar ik denk dat je met zelfbouw ook extreem zuinig bent en toch wel beter spul krijgt. Maar je moet het ook leuk vinden om wat tijd en liefde in zo'n projectje te steken. Als je gewoon snel wat draaiend wilt hebben, koop dan een off-the-shelf product. Maar als je een beetje tweaker bent kun je volgens mij beter de zelfbouw toer doen. Dat kun je vaak nog jaren gebruiken voor afwisselende doeleinden.
Voordeel van zelfbouw is meer vrijheid, dat is waar. De HP doet idle 20W geloof ik, denk dat je heel veel lager ook niet haalt met zelfbouw? Je zegt 10W maar dat is wel erg weinig voor 4 schijven een proc+8Gb geheugen en een NIC.
Daarnaast kost de HP 236 euro, voor 60 euro 8GB ECC geheugen erin en onder de 300 euro klaar.. lijkt me netjes?
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Verwijderd
Desktopschijven verbruiken (5W) ongeveer evenveel als 8 moderne notebookschijven (0.58W). Maar ze slaan vaak maar de helft of minder op, dus de watt-per-gigabyte is ongeveer 4 keer beter, voor een 2 keer hogere prijs.
Al die getallen wat moet je ermee?
In jouw geval denk ik dat je rond de 30W komt te zitten inclusief schijven. Die HP met 20W is denk ik ex schijven? Want met 5W*4=20W kom ik daar al aan.
Belangrijk bij een zuinige build is een PicoPSU voeding, zeker voor lager dan 20-30W. Ga je je schijven ook downspinnen om 18W te besparen; dan kun je extreem zuinige NAS 24/7 aan hebben. Stel je spindown in op een uur inactiviteit ofzo, dan heb je er nauwelijks hinder van.
Een Brazos-system op basis van PicoPSU zou iets zijn van:
mobo: 100 euro
ram: 40 euro
picopsu 150W met 150W DC voeding van Informatique = 75 euro ofzo
kast: 35 euro (?)
totaal ex verzendkosten: 250 euro.
[ Voor 9% gewijzigd door Verwijderd op 16-02-2012 20:37 ]
Thanks voor je hulp:) heb even zitten kijken;Verwijderd schreef op donderdag 16 februari 2012 @ 20:35:
Belangrijk bij een zuinige build is een PicoPSU voeding, zeker voor lager dan 20-30W. Ga je je schijven ook downspinnen om 18W te besparen; dan kun je extreem zuinige NAS 24/7 aan hebben. Stel je spindown in op een uur inactiviteit ofzo, dan heb je er nauwelijks hinder van.
Een Brazos-system op basis van PicoPSU zou iets zijn van:
mobo: 100 euro
ram: 40 euro
picopsu 150W met 150W DC voeding van Informatique = 75 euro ofzo
kast: 35 euro (?)
totaal ex verzendkosten: 250 euro.
| # | Product | Prijs | Subtotaal |
| 1 | Gigabyte GA-A55M-S2V | € 54,10 | € 54,10 |
| 1 | Crucial CT2KIT51264BA1339 | € 31,- | € 31,- |
| 1 | Streacom PicPsu 150W + 150W Adapter Power Kit | € 72,95 | € 72,95 |
| 1 | AMD A6-3500 Boxed | € 61,- | € 61,- |
| Bekijk collectie Importeer producten | Totaal | € 219,05 | |
Zit nog geen behuizing bij, want alles wat ik de PW tegenkom voor <50 euro is of een normale kast of aarslelijk
Heb niet de goedkoopste CPU genomen omdat ik denk dat het in performance best scheelt als de CPU wat meer spierballen heeft. De Picopsu komt wat dubieus over, maar de algemene recensies op het internet zijn prima, dus dat geloof ik wel dan
Edit:
| # | Product | Prijs | Subtotaal |
| 1 | Asus E35M1-I | € 92,60 | € 92,60 |
| 1 | Crucial CT2KIT51264BA1339 | € 31,- | € 31,- |
| 1 | Streacom PicPsu 150W + 150W Adapter Power Kit | € 72,95 | € 72,95 |
| Bekijk collectie Importeer producten | Totaal | € 196,55 | |
Tweede setje op basis van een brazos. Weet niet wat het in performance/verbruik gaat schelen, maar is wel weer wat goedkoper.
Enige wat ik nu nog wil is een fatsoenlijke behuizing, zodat het ding naast mijn andere netwerkbende in de kast past hier. Een Desktopbehuizing past niet, dus dat gaat 'm niet worden.
Bied bovenstaande configuratie ook betere performance dan de HP microserver? In principe zijn het namelijk dezelfde systemen, met dat verschil dat de HP een dualcore intel chip heeft, en hier een dual of triple core AMD inzit.
[ Voor 20% gewijzigd door Pixeltje op 16-02-2012 21:33 ]
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Verwijderd
MSI A75MA-G55

pricewatch: MSI A75MA-G55
Die PicoPSU is een ander merk denk ik. Ik dacht dat Informatique ook een 150W PicoPSU + 150W adapter van Mini-box had, de originele PicoPSU fabrikant. Maar ik zie alleen 84W setjes staan bij Mini-box voedingen. De 150W adapters zijn inderdaad van Streacom net als in jouw lijstje.
Overigens, als je superzuinig 1.25V DDR3 geheugen wilt hebben met hoge snelheden, is dit een heel mooi setje:
pricewatch: G.Skill Sniper F3-12800CL9D-8GBSR2
Heb hem zelf ook; heb wat cijfers van energieverbruik versus 1.5v als je geïnteresseerd bent. Voordeel van dat MSI bord hierboven is ook dat je 4 DIMM slots hebt dus je kunt maximaal uitbreiden. Lijkt mij een veel mooiere keuze aangezien je toekomstig dan nog veel meer met dat beestje kunt.
Bij RAID5 en 6 is de parity rotational, dat betekend dat de parity afwisselend op andere schijven gezet word.Spoooky schreef op donderdag 16 februari 2012 @ 17:57:
[...]
Huh? Heb een sigle degraded RAID6 array, dat hij die extra pariteit berekent had ik wel verwacht, maar opslaan op de andere disks, dan zou ik nooit op ongeveer 6 TB netto storage komen??
@CiPHER
kan je dan ook makkelijk van RAID5 naar RAID6 ?
Je array bestaat uit 5 * 2TB = 10TB, daar gaat 2TB af voor parity, en 2TB voor een missende disk. Als je nu die 5e disk toevoegd worden afwisselend steeds het 6e block (ofwel parity, ofwel data, afhankelijk van wie er volgens de rotatie aan de beurt was) op die 5e disk gezet... Dat noemen ze rebuilden..
Je array is nu dus trager omdat hij bij 1/5 deel van de leesacties, de data moet construeren uit parity, en niet daadwerkelijk van disk kan lezen.
[ Voor 8% gewijzigd door FireDrunk op 16-02-2012 21:45 ]
Even niets...
| # | Product | Prijs | Subtotaal |
| 1 | MSI A75MA-G55 | € 79,- | € 79,- |
| 1 | Streacom PicPsu 150W + 150W Adapter Power Kit | € 72,95 | € 72,95 |
| 1 | G.Skill Sniper F3-12800CL9D-8GBSR2 | € 44,90 | € 44,90 |
| 1 | AMD A6-3500 Boxed | € 61,- | € 61,- |
| Bekijk collectie Importeer producten | Totaal | € 257,85 | |
Setje wordt er wel flink duurder van (moederbord en geheugen zijn duurder). Die PSU heb ik er maar even ingelaten, op verschillende sites wel een 150W block gezien, maar is zonder de externe voeding en benodigde kabels. Alternatief zou zijn om naar een 80W externe adapter te gaan, maar dat is wellicht wat kantje boord mbt verbruik tijdens piekbelasting.
En heb nog steeds geen toffe behuizing gevonden
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
[ Voor 99% gewijzigd door Wimbo op 20-11-2012 15:41 ]
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
[ Voor 99% gewijzigd door Wimbo op 20-11-2012 15:41 ]
Thanks, dat zijn overigens beste schrijfsnelheden, ik neem aan dat je die niet haalt over Gbit netwerk? (1000Mbit --> ongeveer 100MB/s max?)Wimbo schreef op vrijdag 17 februari 2012 @ 10:09:
[...]
Ik draai OpenMediaVault (http://www.openmediavault.org/)
Dat is gebaseerd op Debian Linux.
Werkt perfect, en regelmatig updates.
Even geknipt en geplakt uit een eerdere post:
SPECS:Performance:
- HP Microserver N36L, AMD Athlon II Neo, 2x 1.3GHz
- OpenMediaVault 0.2.6.9 (mdadm - v3.1.4 / kernel 2.6.32-5-amd64)
- 4GB DDR3
- 4x Samsung HFD154UI, 1.5TB (MDADM Raid 5 Array, EXT4)
- 1x Kingston SSDnow V+, 64GB (OS + external bitmap)
READ: 256 MB/s
WRITE: 159 MB/s
Hoe bevalt OpenMediaVault in de praktijk? ben je veel bezig met coden of 'prutsen' om dingen werkend te krijgen, of valt het erg mee?
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
[ Voor 103% gewijzigd door Wimbo op 20-11-2012 15:41 ]
Voor zover ik weet is dit de meest relevante output:FireDrunk schreef op donderdag 16 februari 2012 @ 09:42:
Post eens (bijna) al je relevante configs. Misschien kunnen we wat vinden.
1
2
3
4
5
6
7
| [root@DKNAS2 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sdb[0] sde[4](S) sdd[3] sdc[1]
3907026848 blocks super 1.2 level 5, 4k chunk, algorithm 2 [3/3] [UUU]
bitmap: 2/466 pages [8KB], 2048KB chunk, file: /var/md0bitmap.bin
unused devices: <none> |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
| [root@DKNAS2 ~]# mdadm -D --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Mon Jul 18 18:20:26 2011
Raid Level : raid5
Array Size : 3907026848 (3726.03 GiB 4000.80 GB)
Used Dev Size : 1953513424 (1863.02 GiB 2000.40 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : /var/md0bitmap.bin
Update Time : Fri Feb 17 18:13:28 2012
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 4K
Name : DKNAS2:0 (local to host DKNAS2)
UUID : 9b2f9d1b:da9a4665:67bbc40f:fdaf6034
Events : 677
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
3 8 48 2 active sync /dev/sdd
4 8 64 - spare /dev/sde |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
| [root@DKNAS2 ~]# cat /etc/mdadm.conf # mdadm configuration file # # mdadm will function properly without the use of a configuration file, # but this file is useful for keeping track of arrays and member disks. # In general, a mdadm.conf file is created, and updated, after arrays # are created. This is the opposite behavior of /etc/raidtab which is # created prior to array construction. # # # the config file takes two types of lines: # # DEVICE lines specify a list of devices of where to look for # potential member disks # # ARRAY lines specify information about how to identify arrays so # so that they can be activated # # DEVICE partitions # ARRAY /dev/md0 UUID=9b2f9d1b:da9a4665:67bbc40f:fdaf6034 # |
Zou iemand mij hierbij kunnen helpen door de te kijken of ik nog wat files mis?
In de /etc/samba map
Heb nu de NAS een paar dagen werkend, 10.04 werkte niet erop.
Daarna 11.10 erop gezet en dat werkt prima.
Systeem is fluisterstil.
Nog even wachten totdat schijven goedkoper zijn en dan gooi ik er wat opslag in.
Was zeker geen verkeerde keus die 2,5"
Je hoort hem niet eens.
[ Voor 3% gewijzigd door Dennisik op 17-02-2012 18:57 ]
Ik heb een aantal dingen gedaan;
-ZFS volume aangemaakt (Jochem)
-ZFS dataset aangemaakt (Jochem/Opslag)
-afp services ingeschakeld
- afp share gemaakt
Die share is te benaderen en ik heb lees en schrijfrechten als guest. dat werkt
het probleem wat ik nu tegenkom:
ik heb een user gemaat (Sjaak), met wachtwoord en alle andere zaken ingevuld, behalve de Home, die staat nu op /nonexistent. ik wil user Sjaak graag een home share geven, maar begrijp niet helemaal hoe dat in zijn werk gaat.
Ik dacht dat ik gewoon /mnt/Opslag/Sjaak ik kon geven als home voor user Sjaak, en dat werkt ook wel, maar volgens mij is dat niet de bedoeling. Ik las vanmiddag op internet een soort walkthrough waarin het aanmaken van een Home niet in de gui werd gedaan maar via de shell, maar die guide kan ik nu niet meer vinden
Is er iemand hier die me kan vertellen hoe ik op de juiste manier een Home aanmaak voor een user?
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
root@vfileserver:~# dd if=/dev/zero of=/mnt/data/zero.file bs=1M count=50000 50000+0 records in 50000+0 records out 52428800000 bytes (52 GB) copied, 265,459 s, 198 MB/s root@vfileserver:~# dd if=/mnt/data/zero.file of=/dev/null bs=1M count=50000 50000+0 records in 50000+0 records out 52428800000 bytes (52 GB) copied, 144,283 s, 363 MB/s
root@vfileserver:~# dd if=/mnt/data/zero.file of=/dev/null bs=1M count=50000 50000+0 records in 50000+0 records out 52428800000 bytes (52 GB) copied, 65,4983 s, 800 MB/s root@vfileserver:~# dd if=/dev/zero of=/mnt/data/zero.file bs=1M count=50000 50000+0 records in 50000+0 records out 52428800000 bytes (52 GB) copied, 65,3141 s, 803 MB/s
Iemand tips of ervaringen?
Server was tijdens de test niet onder ander gebruik.
[ Voor 40% gewijzigd door BlackShadow op 17-02-2012 22:53 ]
4GBQ schreef op zaterdag 18 februari 2012 @ 10:10:
Hoeveel ram zit in die doos?
Daarnaast heb ik geen idee wat voor onderliggend systeem en filesystem je mee bezig bent.
Als je stil blijft staan, komt de hoek wel naar jou toe.
Huidige situatie
Na lang denken besloten om ook naar een NAS oplossing te gaan. Werk momenteel met mediacenter met 4 x HDD + 5 externe HD's. Dit loopt uit de hand. Veel te veel snoeren, traag (usb2.0), te veel lawaai onder de tv en waarschijnlijk ongelovelijk onzuinig.
Met een NAS zijn bovenstaande problemen natuurlijk verdwenen. Ik heb echter geen onbeperkt budget, dus compromissen zijn nodig. Ik heb een stapel HD's liggen van verschillende omvang.
3 x 250gb
2 x 1,5 tb
3 x 2 tb
Dit zal uitgebreid worden met 2 x 3tb zodra prijzen gaan dalen. Gevolg hiervan is een losse verzameling disks. Voor een RAID oplossing is dit natuurlijk niet ideaal. Omdat redundancy/back-up (bijna) niet belangrijk is is dit hopelijk geen probleem. Ik zeg bijna omdat een deel van de data wel belangrijk is (foto's, documenten, werkgerelateerd spul).
Idee/wensen
Mijn idee zou zijn om een server te bouwen met :
1 ssd met OS, 32 gb is meer dan genoeg lijkt mij. Wellicht 2 in raid 1.
1 raid arry met de kleine schijven (3 x 250gb). Hierop dan mij belangrijke data. Ik denk dat Raid 5 (effectief dan toch 500gb?) hiervoor het meest geschikt is? Snelheid is bij deze array totaal onbelangrijk. Komen alleen wat jpg, doc, pdf, mp3 op. Hoe makkelijk is deze array uit te breiden? Wellicht met oog op toekomst 3 x 500gb op de kop tikken? Van deze discs wordt overigens een fysieke kopie op een andere locatie bewaard die een paar keer per jaar bijgewerkt wordt.
Daarnaast wil ik gewoon een losse verzameling disks voor mijn media. Ben mijn DVD verzameling naar HDD aan het rippen. Zelfde geldt voor mijn cd verzameling. Daarnaast verzameling concerten, sportfilms en wat series. Hier is snelheid matig belangrijk. Moet uiteraard voldoende zijn om fullhd te streamen. In het ergste geval valt 1 disc uit en ben ik de data op die disc kwijt, soit dat is niet anders. JBOD valt af omdat ik dan met 1 falende disc alles kwijt ben. Flexibiliteit is het belangrijkste. Als mijn discs vol staan wil ik een gewoon een nieuwe disc toevoegen en het nieuwe volume gaan gebruiken (server mag wel gewoon uit tijdens toevoegen vn disc). Wellicht in de toekomst wil ik dit omzetten naar een array in raid 5 (?) met 5x3tb.
hardware
Zoals gezegd mag het niet te veel kosten in de aanschaf. De stroomkosten zijn echter geen groot probleem. Systeem zal wel 24/7 aanstaan, dus zuinige proc/mobo/voeding is gewenst, maar naar zuinigere schijven overstappen is geen optie. Tweedehands is overigens geen probleem. Graag zelfs
Behuizing
Meteen het eerste probleem. Behuizing zal groot moeten. Minimaal ruimte voor 2x ssd en 10-12x HDD) en goede airflow. Kast zal uit het zicht staan, dus uiterlijk maakt weinig uit. Wellicht dat zelfbouw een optie is, of kent iemand een goede grote behuizing. Dacht aan een max van € 100,00 (zonder voeding). Misschien coolermaster stacker? USB3.0 front aansluiting is een pre, niet noodzakelijk.
CPU / Mobo / Mem / voeding
Als proc zat ik denk aan een i3 of i5. Ivm verbruik is een i3 waarschijnlijk beter. i5 waarschijnlijk ook wat overkill voor een NAS waarbij snelheid niet echt belangrijk is. AMD alternatief kan natuurlijk ook als er goede redenen voor zijn om daar voor te kiezen.
Mobo heeft niet veel eisen. 6x sata, usb3.0. Mooiste zou zijn een mobo met wifi, voorlopig komt kast op plaats te staan waar bekabeling moeilijk is. Verhuizing zit er dit jaar echter zeker in, dan wordt bekabeling geregeld.http://tweakers.net/price...-p7p55d-e.html#tab:prices Deze heeft overigens geen wifi, dus los wifi kaartje voor 20 euro.
Geheugen: twijfel over 4 of 8 gb. Unrarren en dvd rippen zal ook op NAS gebeuren, gezien de prijs is 8gb misschien wel goed optie. 2x4gb is zuiniger dan 4x2 en lijkt mij dus aangewezen.
Voeding: 500w voeding lijkt mij meer dan voldoende. http://tweakers.net/price...-modxstream-pro-500w.html lijkt mij prima?
Raid/sata
Tenslotte zal ik aan de 6 sata aansluitingen op het moederbord niet voldoende hebben. Hierop zal 2 x ssd, 1x dvdr, 3 x hdd komen.
Ik heb dan daarnaast nog 8-10 sata aansluitingen nodig. Hier zie ik door de bomen het bos niet meer. Kan ik een 4port sas controler kopen en dmv sas->sata daarop 8 data devices aansluiten? Of 2 x 4sata raidcontroller kopen?
Of is er een andere goede wijze om 6 extra sata disc aan te sluiten?
Of moet ik dit helemaal nooit willen en een andere oplossing zoeken?
alternatief. OS op usb, 2 x sata winst. Geen dvdr, 1 x sata winst. Dan 3 keer sata op mobo over, vervolgens satakaartje/raid kaart met 4 x sata en dan maar snel overstappen op 3 tb schijven?
tweedehands
Is voor mij, gezien de kosten, zeker een optie. Tweedehands natuurlijk wel wat minder te kiezen. Kom regelmatig up/downgrade setjes tegen (asus mobo, i3 of i5, 4gb ddr3) voor rond de 200Euro. Lijkt mij eigenlijk de beste optie in combinatie met een goedkope bigass behuizing. Of zie ik nu wat over het hoofd?
OS
Hoewel ik geen ervaring heb met freenas moet dit wel te leren zijn. Desnoods vraag ik een tweaker om een middagje te komen helpen tegen een kratje bier
Belangrijke eisen zijn vooral dat het flexibel en niet te ingewikkeld is. Het hoeft dus niet perfect. Inleveren aan zuinigheid en schrijf/leessnelheid vind ik geen probleem. Zeker niet als daardoor de n00bdrempel lager komt te liggen
Mocht ik, zodra alles werkt, toch nog aanvullende eisen krijgen mbt snelheid/zuinigheid dan investeer ik liever over 1 jaar weer wat tijd en geld om te finetunen.
And now the most interresting part of deze grot
Wil je makkelijk, zuinig en goed, maar wat hogere aanschaf: http://tweakers.net/price...-ds2411+-en-ds3611xs.html
Anders ontkom je niet echt aan zelfbouw inderdaad. Aangezien je niet echt RAID-functionaliteit wil gaan gebruiken voor alle disks, moet dit simpel te doen zijn met:
-H67 mainboard
-Intel Pentium G620
-SATA add-in controller
-Goede 300watt voeding
-4gb geheugen
-Freenas of Openmediavault (gratis), WHS is leuk maar weer €50,- maar je hebt geen budget
-Vergeet de SSD's voor het OS, want je kunt beide gratis boven genoemde OS-en op een USB-stick draaien en dat gaat prima. Kun je weer iets meer uitgeven aan andere zaken.
Kasten die 12 harddisks kunnen bergen zijn lastig te vinden of je komt op rack-mountable uit.
[ Voor 10% gewijzigd door rookie no. 1 op 18-02-2012 16:22 ]
Technisch net als de Pentium een Sandy Bridge dualcore, nagenoeg dezelfde features, alleen wat lager geklokt.
[ Voor 35% gewijzigd door Borromini op 18-02-2012 17:32 ]
Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje
Zelfbouw is an sich geen probleem. Of het daadwerkelijk lekker gaat werken hangt van mijn doorzettingsvermogen afrookie no. 1 schreef op zaterdag 18 februari 2012 @ 16:19:
Goedkoop en dan 10 tot 12 schijven willen gebruiken, dat maakt het lastig...
Anders ontkom je niet echt aan zelfbouw inderdaad. Aangezien je niet echt RAID-functionaliteit wil gaan gebruiken voor alle disks, moet dit simpel te doen zijn met:
-H67 mainboard
-Intel Pentium G620
-SATA add-in controller
-Goede 300watt voeding
-4gb geheugen
[...]
Kasten die 12 harddisks kunnen bergen zijn lastig te vinden of je komt op rack-mountable uit.
Waarom een G620 ipv een i3 of i5. Prijs/kwaliteit is van die G620 natuurlijk veel beter, maar voor net wat meer rekenkracht met rarren en rippen is misschien een i3 wel fijn? Allebij 65w toch? Daarbij ga ik ervan uit dat ik setje tweedehands kan kopen, en dan prijs in minder grote factor (en worden die i3'tjes vaker aangeboden dan die G620).
300W, zal idd waarschijnlijk ook wel voldoende zijn. Maar is er een bezwaar tegen een grotere voeding? Zie tweedehands vaker 430 of 500W aangeboden worden, en voor het verbruik maakt het niet uit toch (uitgaande van overige gelijke hardware).
Tenslotte 4gb, is 8gb gezien het prijsverschil niet handig? Of ga ik dat verschil echt niet merken?
Max belasting zal zijn: 2 keer 1080 content serveren (2 x htpc) en op de achtergrond download en rarren.
Voor wat betreft de behuizing zal ik verder gaan zoeken, vind nog niet veel betaalbaars.
In ieder geval bedankt voor je reactie.
[ Voor 3% gewijzigd door mr_fragle op 18-02-2012 18:13 . Reden: linkje mp erbij ]
And now the most interresting part of deze grot
Cooler Master Elite 310
Is rond de 30 euro, kan 7x3,5" en 4x5,25"
Wat totaal 7 + 5 = 12x3,5" voor nog geen 50 euro.
Kast
pricewatch: Cooler Master Elite 310
Module:
pricewatch: Cooler Master 4-in-3 Device Module
Kwa moederbord zit je voor rond de 80 euro wel goed.
Ik denk dat je onder de 400 euro wel klaar kan zijn, belangrijkste is een pci kaartje voor extra sata poorten.
Die goed en goedkoop te vinden.500watt voeding lijkt mij overkill.
Als ik beetje de berichten hier lees is 350 of 400watt meer dan genoeg voor 10 schijven.
Verwijderd
Hoe groter de voeding hoe inefficienter deze is bij lage belastingen, en dit kan hard gaan. Zelf draai ik een G620 config met 4 disks vanaf een picopsu, geen schijntje pijn en lekker zuinig.mr_fragle schreef op zaterdag 18 februari 2012 @ 18:07:
300W, zal idd waarschijnlijk ook wel voldoende zijn. Maar is er een bezwaar tegen een grotere voeding? Zie tweedehands vaker 430 of 500W aangeboden worden, en voor het verbruik maakt het niet uit toch (uitgaande van overige gelijke hardware).
Ik zit dus met een redelijk vergelijkbare situatie (zie een aantal posts hierboven).
Ik heb qua OS wat afgezocht en kwam (voor mezelf) uit op OpenMediaVault. Veel plugins, actieve community. FreeNAS lees ik teveel "negatieve" dingen over. Ben nog steeds verder aan het kijken, eis is iig dat er sabnzbd (met sickbeard en couchpotato) op moet draaien, dus openfiler en nog wat anderen vielen al direct af.
Schijven/Arrays:
OS (1x 2,5" 320GB):
waarschijnlijk een 2,5" 320GB schijfje wat ik nog heb liggen. Misschien dat ik een USB stick zal gebruiken, daar zit ik nog over te twijfelen, scheelt me een sata poort.
Secure array (RAID 1, 3x 1TB):
Zoals ik in mijn post heb aangegeven ben ik ook op zoek naar één veilig array met zoals het er nu naar uitziet 3 schijven van 1TB , 2 in de array en 1 die op een andere locatie in de kluis ligt. Omdat ik al mijn foto's en homevideo's daarop heb staan wil ik die dus zowel in mirror hebben als (via hotswap) een externe backup. Ik begrijp dat als ik hier RAID 01 of 10 voor wil gebruiken dit aantal groeit van 3 schijven naar 6?
Media array (RAID 5, beginnen met 3x 2TB):
De 2e array wil ik makkelijk uitbreidbaar hebben. Ik lees dat in RAID 5 kan. OpenMediaVault ondersteund dit ook (heel simpel): Click Grow array in Storage|RAID Management, then Resize the filesystem in Storage|Filesystems.
Ik wil puur een downloadbak/opslag bak, dus lees/schrijfsnelheden zijn niet van belang.
Ik zie diverse moederborden met 6 sata poorten, echter als ik nu mijn "start" setup, zoals hierboven aangegeven, in elkaar schroef zijn alle poorten al bezet. Ik kan natuurlijk de onboard raid gebruiken voor mijn RAID 1 array, en een externe controller voor RAID 5 (als ik het goed begrijp is dit sowieso een voorkeur qua performance, ook al heeft dat bij mij geen prio). Vraag die ik dan weer heb, als ik een RAID controller koop met 4 poorten en die zitten vol, kan ik dan een nieuwe controller ernaast gooien en die aan dezelfde array koppelen? Ik kan hier zelf niets over terug vinden.
A real man fears not mortality for it's death, he fears mortality for it's lack of life!
RatPack #814
Als je dan nog eens voor raid wil gaan met de mobo-chip op je secure array wordt het al helemaal ingewikkeld. Bij problemen is dat niet zomaar uit te wisselen zoals een mdadm array.
RAID is niet gemaakt om disks te swappen en uit de array te laten zoals jij wil. In dat geval ben je beter af met OF
- een extra appliance zoals een 1bay Synology waar je met rsync naar backupt. De Synology staat dan uiteraard offsite/elders in het huis.
OF
- Een externe usb/eSata schijf die je op gezette tijden aan je NAS hangt en een scriptje over laat gaan.
Voor de R5 array zit het wel goed. Zowel R5 als R6 zijn gemakkelijk te expanden met 1 disk per keer.
Ivm de RAID kaart:
Ik denk dat je goed moet beslissen of je software dan wel hardware raid wil. Met softwarematige raid (wat OMV dus biedt) heb je enkel nood aan een simpele HBA zoals de IBM M1015. Deze biedt plaats aan 8 disks als je even SAS expanders wegdenkt. Je OS ziet dan gewoon disken en doet zelf de RAID. Je kan dus gewoon raid arrays maken over verschillende controllers.
Bij hardware RAID kaarten kan dit ook maar dan afaik enkel bij dure modellen. Ik geloof dat Areca dat kan? Met hardware RAID ga je dus ook niet gewoon in OMV een R5 array kunnen expanden zoals je in je post aangeeft.
Een todo lijstje:
- Hardware of software RAID? 2 verschillende paden met elk eigen voor en nadelen. Beide beginnen mixen is de dingen nodeloos ingewikkeld maken.
- De secure array praktischer uitwerken.
Ik ben er trouwens vrij zeker van dat de ZFS guru's hier intussen ook wel een postje aan het schrijven zijn ivm de opties aan die zijde van het storage spectrum
[ Voor 30% gewijzigd door Jormungandr op 18-02-2012 22:35 ]
De "secure" array bestaat overigens uit 2 disks waarvan ik dus van plan was om er 1 dus om de week te wisselen met een disk die normaal niet op lokatie ligt (dus totaal 3 disks waarvan 2 in de array).
[ Voor 9% gewijzigd door Roeligan op 18-02-2012 22:58 ]
A real man fears not mortality for it's death, he fears mortality for it's lack of life!
RatPack #814
Verwijderd
Er lopen wel wat builds door elkaar. Voor mr_fragle is ZFS geen optie omdat het te 'specialistisch' is. Roeligan heb ik nog niet over ZFS gehoord, maar vindt FreeNAS geen optie.
Roeligan kan ik wijzen op ZFSguru die SABnzbd+ als service beschikbaar heeft. Voordeel is ook dat je geen aparte systeemschijf nodig hebt; je kunt direct naar je RAID-Z pool installeren.
Wat niet kan is een bestaande RAID-Z (RAID5) uitbreiden met één disk, je moet dan schijven in groepjes toevoegen, in feite een nieuwe array. Die komt dan wel overal beschikbaar binnen de pool. Mirrors in groepjes van 2 disks toevoegen is mogelijk. Bij RAID-Z (RAID5) en RAID-Z2 (RAID6) wordt het moeilijker omdat je schijven dan liever in grotere groepjes wilt plaatsen. Maar 3-disk RAID-Z is ook mogelijk.
Al met al is het een afweging. Een perfect NAS platform bestaat niet, bij elk platform heb je positieve punten en negatieve punten. Bij ZFS is het positieve natuurlijk de uitmuntende bescherming voor je bestanden. De traditionele Linux RAID of WHS oplossingen bieden geen checksum bescherming.
Kies je voor een Windows platform zoals WHS dan kun je problemen krijgen als je RAID controllers gebruikt in combinatie met schijven die geen TLER ondersteunen, zoals WD EARS. Bij gebruik van normale controllers en WHS je data laten dupliceren zou dan de beste setup zijn. Wanneer je niet kiest voor een checksum-protected oplossing zou ik extra aandacht besteden aan goede backups, en misschien ook een checksum programma gebruiken om corruptie in elk geval te kunnen detecteren, bijvoorbeeld om te controleren of je backup nog wel goed is.
Willen idd bijna hetzelfdee. Jij wilt alleen je media nog in raid. Ik heb aan extra sata zonder raid voldoende.Roeligan schreef op zaterdag 18 februari 2012 @ 21:10:
[...]
Ik zit dus met een redelijk vergelijkbare situatie (zie een aantal posts hierboven).
Ik wil puur een downloadbak/opslag bak, dus lees/schrijfsnelheden zijn niet van belang.
Probleem bij mij blijft echter de behuizing. Net even goed geteld . Dacht dat ik 9 disks had op het moment. Blijk er al 11 te hebben. Moeten er dus minstens 12 kwijt kunnen.
Hoeveel sata pci kaartjes passen er op standaar mobo?
Vind het niet erg om de kast zelf te bouwen. Heb nog oude kast als donor (voor backplate). Met hoekprofielen is wel een HDDrackje in elkaar te zetten. Als het maar ruim en goed te bereiken is.
Zal mediavault ook eens kijen. Werkt dat makkelijker dan freenas?
And now the most interresting part of deze grot
Toch wel. De efficiëntie van voedingen wordt gemeten/gecertificeerd op hogere belasting, dus je kan beter je 300W op 80% belasten dan je 400W op 70%.mr_fragle schreef op zaterdag 18 februari 2012 @ 18:07:
[...]
300W, zal idd waarschijnlijk ook wel voldoende zijn. Maar is er een bezwaar tegen een grotere voeding? Zie tweedehands vaker 430 of 500W aangeboden worden, en voor het verbruik maakt het niet uit toch (uitgaande van overige gelijke hardware).
Ik weet niet hoe geheugenintensief parren en rarren is, maar ik raak hier met moeite aan 512 MB, en da's met MPD, NFS v4, SSH, een HTTP-server (Lighttpd) en rtorrent met 800+ torrents. En rtorrent is niet de meest zuinige client als het om RAM gaat (µTorrent kan het met minder doen bv.). Mijn Celeron G530 doet dat allemaal met de vingers in de neus. Torrenten terwijl ie 1080p streamt naar mijn HTPC (Nano AD10) doet ie met de vingers in de neus.Tenslotte 4gb, is 8gb gezien het prijsverschil niet handig? Of ga ik dat verschil echt niet merken?
Naar mijn bescheiden mening is 4 GB dan ook pure overkill - ik heb hier één latje van 2 GB insteken, en da's ook al overkill... Maar je weet maar nooit. Wat je uitspaart op de ene kostenpost kan je meer uitgeven aan een andere
Dat is vooral I/O, en je schijven zullen daar eerder de bottleneck zijn dan iets anders.Max belasting zal zijn: 2 keer 1080 content serveren (2 x htpc) en op de achtergrond download en rarren.
[ Voor 10% gewijzigd door Borromini op 19-02-2012 08:04 ]
Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje
Zo op het eerste gezicht werkt OMV iets intuïtiever dan FreeNAS, maar goed ik ga alleen af op wat vergelijkingen die ik op google heb gevonden.mr_fragle schreef op zondag 19 februari 2012 @ 02:44:
[...]
Willen idd bijna hetzelfdee. Jij wilt alleen je media nog in raid. Ik heb aan extra sata zonder raid voldoende.
Probleem bij mij blijft echter de behuizing. Net even goed geteld . Dacht dat ik 9 disks had op het moment. Blijk er al 11 te hebben. Moeten er dus minstens 12 kwijt kunnen.
Hoeveel sata pci kaartjes passen er op standaar mobo?
Vind het niet erg om de kast zelf te bouwen. Heb nog oude kast als donor (voor backplate). Met hoekprofielen is wel een HDDrackje in elkaar te zetten. Als het maar ruim en goed te bereiken is.
Zal mediavault ook eens kijen. Werkt dat makkelijker dan freenas?
Een gemiddeld mobo heeft 3-4 pci sloten, meestal 2 verschillende types. Ik heb wat goedkope raid kaarten gevonden maar die zijn pci-x die mobo's zijn weer wat duurder/moeilijker 2e hands te vinden.
Best een hoop uitzoekwerk
@Jormungandr
Die "secure" RAID is op zich toch goed uitgedacht, een RAID 1 array van 2 disks waarvan ik 1 disk 1x per week vervang door een ander. Of mis ik nu iets?
A real man fears not mortality for it's death, he fears mortality for it's lack of life!
RatPack #814
Ik heb het nog niet zien gebeuren wat jij precies wil uitvoeren, maar ben wel eens benieuwd hoe dat zich gaat uitwerken als je disken gaat jongleren. Als ik tijd heb probeer ik dat deze week eens in een VM. Leuk projectje
In se is het doenbaar hoor, maar je doet wel zeer veel degrades/rebuilds. Iets waar RAID niet voor gemaakt is.
Daarom is het gemakkelijker om er gewoon een backup solution van te maken en te kopieren naar een externe die je dan inmetst.
CiPher er lopen idd heel wat builds door/naast elkaar
In other news, Jormungandr vertrekt straks naar Duitsland voor een EMC VNX training. Storage porno ahead
Mocht je toch tijd en zin hebben om het in een VM te testen hou ik me uiteraard aanbevolen voor het resultaat
De bouw van dit nasje zal pas over een aantal maanden plaats gaan vinden.
A real man fears not mortality for it's death, he fears mortality for it's lack of life!
RatPack #814
Verwijderd
Als je alleen RAM voor je applicaties wilt hebben, is 512MB met een beetje swap genoeg ja. Maar dan heb je 0,0 filecache - en daar is RAM nooit overkill voor. Dus je kunt prima 512MB RAM gebruiken voor appliacties wat je echt NODIG hebt, terwijl je de overige 7,5GB voor filecache gebruikt wat ervoor zorgt dat je minder disk I/O doet. Als je filecache theoretisch even groot is als je disk, en je alles van je disk tenminste één keer hebt gelezen; dan hoef je tot een reboot nooit meer van je hardeschijf te lezen omdat alle data gecached is. In dat geval gebruik je de hardeschijf alleen nog voor writes en niet meer voor reads. Onder andere databaseservers komen soms dicht bij deze situatie aan; waarbij RAM cache extreem belangrijk is.Borromini schreef op zondag 19 februari 2012 @ 08:02:
Ik weet niet hoe geheugenintensief parren en rarren is, maar ik raak hier met moeite aan 512 MB
(..)
Naar mijn bescheiden mening is 4 GB dan ook pure overkill - ik heb hier één latje van 2 GB insteken, en da's ook al overkill...
Je wilt geen oude PCI of PCI-X rommel; PCI-express bestaat al bijna 10 jaar en ik zie geen enkele reden om een oudere interfacetechnologie te gebruiken. PCI en PCI-X wil je niet hebben en niet gebruiken; PCI-express wel. PCI-express is min of meer het tegenovergestelde van PCI, in technisch opzicht. Als noord en zuidpool doen ze alles precies andersom (bus versus interface; shared access versus dedicated; half-duplex versus full-duplex; etc).Roeligan schreef op zondag 19 februari 2012 @ 10:39:
[...]
Een gemiddeld mobo heeft 3-4 pci sloten, meestal 2 verschillende types. Ik heb wat goedkope raid kaarten gevonden maar die zijn pci-x die mobo's zijn weer wat duurder/moeilijker 2e hands te vinden.
PCI-X kan in zeldzame gevallen een alternatief zijn; maar ik vind het EXTREEM zonde als je speciaal voor een PCI-X moederbord gaat scouten omdat je een PCI-X controller wilt gebruiken. Vind je dat niet zelf zonde?
Als je aanneemt dat parity genoeg CPU kracht kost om een bottleneck te zijn; wat niet zo is. Een Atom CPU kan al 4-6GB/s en moderne systemen boven de 10GB/s XOR. Voor je CPU is XOR een heel makkelijke instructie; CPU overhead is dan ook nihil. Tenzij je een héél zuinige CPU neemt zoals een ARM chip. Dus sub-Atom kan het zeker wel uitmaken.Bij R1 gaat hij kopieren terwijl R5 parity berekent, dus de rebuild bij een R1 array is dus sneller gedaan dan bij R5.
Maar ook bij mirroring worden checksums berekend. Bij single disks ook; is dat zo vreemd? ZFS detecteert ALTIJD corruptie; dus het kan nooit zo zijn dat ZFS iets niet uitrekent en daardoor niet weet of de data corrupt is. ZFS voldoet aan End-to-End data integrity. Dus van begin tot eind dat ZFS met data bezig is, wordt de data door checksums in de gaten gehouden en wordt voorkomen dat je applicaties ooit corrupte data te zien krijgen.
[ Voor 3% gewijzigd door Verwijderd op 19-02-2012 14:46 ]
Ik draai MDADM 8x2TB in raid5 onder Ubuntu 11.04, xfs filesystemUltraman schreef op zaterdag 18 februari 2012 @ 10:46:
Mogelijk toch iets van intelligentie in caching of compressie die ervoor zorgt dat het ineens een stuk sneller gaat. Verwijder tussen de runs de file eens en flush buffers en caches. Benieuwd wat het dan doet.
Daarnaast heb ik geen idee wat voor onderliggend systeem en filesystem je mee bezig bent.
Ik volg dit forum al een tijdje en ga nu het aanschaffen.
Ik heb het volgende uitgekozen voor de volgende doeleinden.
- ftps/ftp
- back-up locatie
- foto site host
- plex media server (video delen en transcode)
- verschillende game servers
Het os wordt denk vSphex 5 met daarop windows en linux vm's.
| # | Product | Prijs | Subtotaal |
| 1 | Asus P8Z68-V LX | € 92,- | € 92,- |
| 2 | Western Digital Velociraptor WD1500BLFS, 150GB SATA-300, 16MB, 10000rpm | € 99,90 | € 199,80 |
| 1 | Samsung SE-S084F Zwart | € 33,- | € 33,- |
| 1 | Norcotek RPC-4220 | € 446,13 | € 446,13 |
| 1 | Intel Core i5 2400 | € 166,- | € 166,- |
| 1 | Corsair Professional Gold AX750 | € 144,90 | € 144,90 |
| 2 | Corsair Vengeance CMZ16GX3M2A1600C10 | € 114,- | € 228,- |
| Bekijk collectie Importeer producten | Totaal | € 1.309,83 | |
ja idd tussen die 2 zit ik te twijfelen.Dennisik schreef op maandag 20 februari 2012 @ 00:38:
Geen Norco 4224?
Volgens mij is die een stukje beter, staat alleen niet in de PW.
de 4224 heeft 24 bays, maar de 4220 heeft er 20 en ruimte voor 2 2,5" disks en een slim line dvd brander/lezer.
alsik de 4224 ga aanschaffen koop ik er denk een revodrive bij voor het OS.
[ Voor 33% gewijzigd door dylan0806 op 20-02-2012 12:52 ]
heb hem hier gekocht http://cybershop.ri-vier.nl/
en is even duur als de 4220 bij azerty
[ Voor 34% gewijzigd door thalantis op 20-02-2012 13:24 ]
zit je dan niet dat het duurder wordt omdat je ook nog een hoop moet betalen voor belastingen en verzendkosten?thalantis schreef op maandag 20 februari 2012 @ 13:22:
ik heb de 4224 en is binnenin wel plek voor een ssd tegen de zijkant aan, heb ik ook gedaan
heb hem hier gekocht http://cybershop.ri-vier.nl/
en is even duur als de 4220 bij azerty
Verwijderd
Revodrive moet je niet aanschaffen; dat is Silicon Image + Sandforce. En je schiet er niets mee op; zelf goede SSDs in RAID0 plaatsen is veel beter, en behoud je ook TRIM mee. Op alle Revodrive (1, 2 en 3) heb je onder Windows geen TRIM support.dylan0806 schreef op maandag 20 februari 2012 @ 00:42:
alsik de 4224 ga aanschaffen koop ik er denk een revodrive bij voor het OS.
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.