Even niets...
Verwijderd
Vanavond weer verder
Ik zou wel kiezen voor installatie via ports óf packages. Niet beideFireDrunk schreef op donderdag 12 januari 2012 @ 09:24:
VirtIO is voor het draaien van FreeBSD/Linux onder KVM/QEMU/XEN icm Paravirtual devices.
Packages installeren :
cd /usr/ports/emulators/virtio-kmod/ make install clean pkg_add -r virtio-kmod
http://www.freshports.org/emulators/virtio-kmod/
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
of de eerste 2 regels, of de laatse inderdaad
Even niets...
Heel veel cpu geld voor wat storage maar ja.analog_ schreef op donderdag 12 januari 2012 @ 03:39:
zpool client data / vm data : 6TB of RAW HDD space
Tijdelijk opslag voor VM en echte clients, geen spindown.zpool client OS / VM OS : 384GB of RAW SSD space
- 3x2 mirror with Seagate Barracuda LP, 2TB
- Supermicro X8DTL-3F - 6xSATA
Boot voor echte machines en VMs
- 3x2 mirror with Crucial m4 CT128M4SSD2 128GB
- 2x LSI SAS 9211-8i - 3xSAS
Indeling schijven kan veel beter. En als je de spindown wil behouden zou ik je aanraden om alles(client OS / VM OS client data / vm data) op de ST32000542AS te zetten en dan de de ssd's als zil en die andere te configureren.
Nog logischer maar dat zou meer stroom kunnen gebruiken is gewoon echt alles op de grote hoop te gooien met alleen maar green schijven en dan weer ssd's voor zil en slog
Even niets...
Overigens had ik het niet over andere raid instellingen alleen over het gebruik van de ssd's waar ze het meeste nut hebben als je van zfs gebruik maakt namelijk als slog en zil en niet voor data.
En als je alles op een hoop gooit met alleen green schijven ja wat ik al zei dat zal misschien iets meer stroom verbruiken.
Verwijderd
Kan het A50M platform met 8GB overweg met RaidZ en zijn de onboard gigabit NICs ook inderdaad te verleiden tot gigabit prestaties?mca2 schreef op woensdag 11 januari 2012 @ 23:00:
[…]heel verhaal[…]En weet iemand nog een goedkoop kastje en voeding waar dit alles in past?
- heeft deze setup voldoende kracht om een beetje performen met raid-z?
- geeft de onboard NIC voldoende snelheid om 1080p te streamen (welke snelheid is sowieso te halen?)
- draait FreeBSD/debian in de raid-z pool of heb ik daar een losse schijf/usb stick voor nodig?
Hij wil 3 mirrors van 2 disks als ik het goed lees.Verwijderd schreef op donderdag 12 januari 2012 @ 17:46:
Bij mirroring zul je van alle schijven lezen en schrijven, anders kan mirroring ook nooit bijna de leessnelheid van RAID0 behalen. Spindown gaat dus niet werken als de pool actief is.
Dan hoeven toch alleen alle schijven in de mirror op te spinnen, 2 van de 6 in dit geval?
* FireDrunk moet even verder lezen.
Als de 3 mirrors in 1 ZPOOL zitten moeten alle drives opspinnen.
Zijn het afzonderlijke ZPOOL's dan hoeft dat niet.
[ Voor 15% gewijzigd door FireDrunk op 12-01-2012 18:27 ]
Even niets...
Ik hoop tegen deze zomer geld teveel te hebben ja, de reden achter deze SSD setup is dat er dus infiniband bijkomt die dus de bandbreedte kan verspreiden over mijn machines en dat raidZ IOPS-wise niet zo fantastisch schaalt, ik kan het tegen dan uiteindelijk ook zelf even uit testen om te zien hoe groot het verschil is. Wat ik mij afvroeg is of één Xeon CPU voldoende zou zijn aangezien dat toch 400euro verschil is. Weet iemand hoe het tegenwoordig zit met matched pairs? Is dat nog steeds vereist, dat pleit namelijk voor ze beide gelijktijdig aankopen.FireDrunk schreef op donderdag 12 januari 2012 @ 08:30:
@Hierboven: Machtige configHeb je geld over?
En waarom zoveel SSD's mirroren? Dat is toch niet verplicht?
@CiPHER: Ik zal het eens testen
De reden waarom er geen sil/l2arc/slog is simpelweg dat het maar patch middelen zijn. Uiteindelijk kan ik mijn data op de virtuele machines en echte bakken zo opdelen dat er geen reden is voor ze nog wel te gebruiken. Het is performance-wise veel interessanter om raid1 setjes in een pool te duwen dan raidz met patch middelen. Ik was zelf ook al lichtjes wat anders aan eht denken namelijk 5 van die oude 2TB seagate LP bij de grote dataset te dumpen (extra raidz1 volume) en twee mirrored 1TB setjes voor tijdelijke opslag, uiteindelijk zijn het 2 disks minder die constant spinnen. Het is niet voor 1-2-3 de komende maanden (de disks iig. niet, mogelijk dat de overige hardware langzaam aan binnenkomt). Ik ben dus nog behoorlijk aan het orienteren naar de beste oplossing.
[ Voor 32% gewijzigd door analog_ op 12-01-2012 20:54 ]
Voor wat zou de Xeon genoeg moeten zijn, alleen ZFS of nog meer?
Even niets...
Een storage server heeft over het algemeen baat bij veel geheugen, maar cpu is meestal geen bottleneck. TDP is meestal ook niet interessant voor een storage server, idle power wel. Je huidige config is interessant als je de server ook als ESX server wilt gebruiken, maar alleen als storage server heb je teveel CPU.
Als je alleen een storage server wil, zou ik zo iets doen:
supermicro X9SCM-F + E1220
16 GB mem
3 x M1015 van ebay > flashen naar 9211
Dat scheelt een hoop geld, voor ongeveer dezelfde performance. Voor je SSD's is raidz waarschijnlijk genoeg, of stripes en elk uur een backup. Je kan dan ook een SSD gebruiken als l2arc voor je tijdelijke opslag.
Als je echt serieus commentaar wilt zal je toch wat meer info moeten geven. Wat is belangrijk? performance, verbruikt? Hoeveel performance heb je nodig voor je vm's? etc.
Ik heb een amd sempron 140 met 1gb draaien en daar komt ook gigabit snelheden uit met opensolaris dus waarom niet.mca2 schreef op donderdag 12 januari 2012 @ 18:20:
[...]
Kan het A50M platform met 8GB overweg met RaidZ en zijn de onboard gigabit NICs ook inderdaad te verleiden tot gigabit prestaties?
zfs op opensolaris heeft niet zo heel veel cpu power nodig ..... freebsd kan anders zijn is in ieder geval veel gevoeliger voor te weinig geheugen, solaris wat minder.
zil l2arc slog zijn geen pleisters maar items gebruiken waar ze goed in zijn
[ Voor 7% gewijzigd door Mafketel op 12-01-2012 23:39 ]
Alles wat ik op ebay kan vinden is altijd meegenomen, maar ik heb weinig zin in gezeik dus niet zo happig op flashen (hoewel ik het perfect kan, etc), LSIs staan er ook op dus dan haal ik die wel. Ik heb een haat-liefde relatie ontwikkeld met mijn huidige oplossing dus probeer ik zoveel mogelijk 'stock' te doen. Het probleem is dat volgens tweakblogs/IRC is dat dat x9scm bord vrijwel onmogelijk op een nog betaalbare manier aan 32GB ram doet. De reden voor 32GB is simpel, alles uit het ram is een stuk sneller, het is relatief goedkoop om je performance ermee op te krikken dus waarom niet. Eigenlijk is het een beetje wachten op de Intel E5 reeks en met name de E5-2630L (2GHz, HT hexacore met 60W TDP,wiki). Die E5 komt ook met 4 geheugen channels dus 4 of 8 ram slots waarschijnlijk, gemakkelijker gevult. Volgens IRC (#openindiana, #zfs, #nexentastor op freenode) zou ik toch twee quads nodig hebben wil ik mijn infiniband vullen, hopelijk is die E5 een mooi compromis. De controllers zouden de bottleneck alvast niet zijn. Gelukkig heb ik nog wat tijd om de kat uit de boom te kijken.nielsdc schreef op donderdag 12 januari 2012 @ 22:10:
Uiteindelijk is er altijd een afweging tussen kosten en performance. raidz zal inderdaad minder performen als striped mirrors, maar de vraag is of je die performance ook daadwerkelijk nodig hebt.
Een storage server heeft over het algemeen baat bij veel geheugen, maar cpu is meestal geen bottleneck. TDP is meestal ook niet interessant voor een storage server, idle power wel. Je huidige config is interessant als je de server ook als ESX server wilt gebruiken, maar alleen als storage server heb je teveel CPU.
Als je alleen een storage server wil, zou ik zo iets doen:
supermicro X9SCM-F + E1220
16 GB mem
3 x M1015 van ebay > flashen naar 9211
Dat scheelt een hoop geld, voor ongeveer dezelfde performance. Voor je SSD's is raidz waarschijnlijk genoeg, of stripes en elk uur een backup. Je kan dan ook een SSD gebruiken als l2arc voor je tijdelijke opslag.
Als je echt serieus commentaar wilt zal je toch wat meer info moeten geven. Wat is belangrijk? performance, verbruikt? Hoeveel performance heb je nodig voor je vm's? etc.
[ Voor 7% gewijzigd door analog_ op 13-01-2012 03:14 ]
Nu lees ik her en der dat de huidige populaire 2TB schijven (WD EARX en Samsun F4) 4kB-sectors hebben en dit van invloed kan zijn op je performance. Nu ga ik voor een Raid-Z1 opstelling en zou dit minder moeten spelen. Of loont het toch om voor bijvoorbeeld een Hitachi Deskstar 5K3000 met 512B sector size te gaan?
Daarnaast zou ik graag spindown doen op mijn zpool en komt er een kleine losse HD bij. Nu kan ik een simpele kleine klassiek HD plaatsen maar ik begrijp dat met SSD mogelijk winst valt te behalen. Geeft het veel performance winst als ik hiervoor een SSD neem en hierop ook een SLOG en L2ARC partitie aanmaak? Of hebben deze een dedicated HD nodig? En breng ik dan de betrouwbaarheid van mijn zool niet in gevaar ivm het mogelijk falen van de SSD?
De schijven met 4kb is geen probleem als je een 3 raidz opstellen maakt. Dit komt uitgebreid aan bod in het ZFS topic.mca2 schreef op zondag 15 januari 2012 @ 10:36:
Ik ben nog steeds een beetje aan het puzzelen en probeer in ieder geval de hardware setup aan te laten sluiten bij een ZFS configuratie. Dat wordt dus een AMD A50M bord met 3x 2TB schijven en 8GB intern.
Nu lees ik her en der dat de huidige populaire 2TB schijven (WD EARX en Samsun F4) 4kB-sectors hebben en dit van invloed kan zijn op je performance. Nu ga ik voor een Raid-Z1 opstelling en zou dit minder moeten spelen. Of loont het toch om voor bijvoorbeeld een Hitachi Deskstar 5K3000 met 512B sector size te gaan?
Daarnaast zou ik graag spindown doen op mijn zpool en komt er een kleine losse HD bij. Nu kan ik een simpele kleine klassiek HD plaatsen maar ik begrijp dat met SSD mogelijk winst valt te behalen. Geeft het veel performance winst als ik hiervoor een SSD neem en hierop ook een SLOG en L2ARC partitie aanmaak? Of hebben deze een dedicated HD nodig? En breng ik dan de betrouwbaarheid van mijn zool niet in gevaar ivm het mogelijk falen van de SSD?
De vraag is hoeveel winst je wilt halen. Met drie schijven kan je ook al goed een gigabit lijn voltrekken. SSD's hebben dan niet direct een toegevoegde waarde. Wil je meer dan gigabit snelheden halen en heb je daar ook de hardware voor dan is het wel handig om het te overwegen. Als je veilig een SSD SLOG wilt toevoegen moet je wel een pool aanmaken met v19 of hoger. Bij eerdere versies raakt je pool corrupt als je SLOG faalt. Bij een L2ARC maakt dat niet uit.
Je dedicated HD vraag snap ik niet helemaal. In ZFS ondersteund je SSD je pool en je zou je OS gewoon ook op je SSD kunnen installeren. Als je een nieuwe schijf moet kopen voor je NAS dan kan je dus overwegen om dat gelijk een SSD te laten zijn, dan zit je voor de toekomst ook goed. Als je al schijven hebt, dan is een SSD niet altijd een meerwaarde. Als je voor een SSD kiest, lees dan het ZFS topic eens goed door want het kan nogal uitmaken welk merk/type je neemt.
Sinds de 2 dagen regel reageer ik hier niet meer
Ik heb het ZFS topic inmiddels ook gespotCurlyMo schreef op zondag 15 januari 2012 @ 11:08:
[...]
De schijven met 4kb is geen probleem als je een 3 raidz opstellen maakt. Dit komt uitgebreid aan bod in het ZFS topic.
De vraag is hoeveel winst je wilt halen. Met drie schijven kan je ook al goed een gigabit lijn voltrekken. SSD's hebben dan niet direct een toegevoegde waarde. Wil je meer dan gigabit snelheden halen en heb je daar ook de hardware voor dan is het wel handig om het te overwegen. Als je veilig een SSD SLOG wilt toevoegen moet je wel een pool aanmaken met v19 of hoger. Bij eerdere versies raakt je pool corrupt als je SLOG faalt. Bij een L2ARC maakt dat niet uit.
Je dedicated HD vraag snap ik niet helemaal. In ZFS ondersteund je SSD je pool en je zou je OS gewoon ook op je SSD kunnen installeren. Als je een nieuwe schijf moet kopen voor je NAS dan kan je dus overwegen om dat gelijk een SSD te laten zijn, dan zit je voor de toekomst ook goed. Als je al schijven hebt, dan is een SSD niet altijd een meerwaarde. Als je voor een SSD kiest, lees dan het ZFS topic eens goed door want het kan nogal uitmaken welk merk/type je neemt.
Ik denk eerlijk gezegd dat voor mijn thuis toepassing niet veel winst nodig is maar ik heb toch een losse HD nodig voor de spindown. Ik heb geen recente hardware liggen, dus ik zal alles nieuw aanschaffen en als we dan toch bezig zijn. Ik vroeg me toen af of ik een fysiek aparte HD nodig heb voor SLOG/L2ARC maar lees net in het ZFS-topic dat dat alles op een SSD kan zolang je hier maar voldoende vrije ruimte houdt ivm de snelheden. Dat zou dan een 80GB intel 320 worden ivm de controller en supercaps.
Tenslotte zou het FreeBSD 9.0 (vers van de pers) worden met v28, dan zou mijn zpool heel moeten blijven als de SLOG faalt. Nu nog even speuren of FreeBSD overweg kan met de onboard Realtek 8111, schijnt onder linux al een redelijk drama te zijn.
Nu alleen nog proberen te achterhalen welke van de A50M bordjes het zuinigst is.
[ Voor 0% gewijzigd door mca2 op 01-03-2013 21:28 . Reden: verzoekje ]
Heb deze controller in mijn NAS (FreeBSD), Desktop & Laptop (beide Windows 7) zitten en hij werkt op alle systemen prima. Alleen doet de leessnelheden van de NAS naar Windows zijn niet optimaal, maar dat is een Windows probleem.mca2 schreef op zondag 15 januari 2012 @ 11:39:
[...]
Nu nog even speuren of FreeBSD overweg kan met de onboard Realtek 8111.
Sinds de 2 dagen regel reageer ik hier niet meer
Goed te horen. Ik las hier, dat die 8111 nogal wat packets wou droppen tenzij je de realtek driver genbruikt. Maar dat artikel is van 2009, allicht is het een en ander verbeterd in linux en FreeBSD.CurlyMo schreef op zondag 15 januari 2012 @ 12:29:
[...]
Heb deze controller in mijn NAS (FreeBSD), Desktop & Laptop (beide Windows 7) zitten en hij werkt op alle systemen prima. Alleen doet de leessnelheden van de NAS naar Windows zijn niet optimaal, maar dat is een Windows probleem.
Weet iemand trouwens waar je het verbruik van de diverse A50M borden kan zien?
[ Voor 1% gewijzigd door mca2 op 01-03-2013 21:29 . Reden: verzoekje ]
| # | Product | Prijs | Subtotaal |
| 1 | Intel Celeron G530 Boxed | € 37,74 | € 37,74 |
| 4 | Western Digital Caviar GreenPower WD20EARS, 2TB | € 121,70 | € 486,80 |
| 1 | Cooler Master Elite 310 | € 29,- | € 29,- |
| 1 | be quiet! Pure Power L7 350W | € 36,95 | € 36,95 |
| 1 | OCZ Vertex Plus Sata II 2,5" SSD 30GB | € 43,79 | € 43,79 |
| 1 | Corsair CMV4GX3M1A1333C9 | € 18,35 | € 18,35 |
| 1 | Asrock H61DE/S3 | € 64,90 | € 64,90 |
| Bekijk collectie Importeer producten | Totaal | € 717,53 | |
Deze setup heb ik tijd terug gemaakt.
Kwa voeding/kast/geheugen/opslag/moederbord zit het denk wel goed. Ben daar wel tevreden met de keuzes, en heb nog geen betere optie gezien (Voor soortgelijk bedrag)
Enkel ik heb 2 puntjes waar ik bij twijfel. Ik had eerst deze processor gekozen:
pricewatch: Intel Pentium G620
+ Deze SSD
pricewatch: Transcend TS8GSSD25H-M 8GB
Enkel is de SSD bij azerty site eraf gehaald, en goedkoopste is nu bijna 2x zo duur.
Dus ben even rond gaan kijken. Ik kwam nu op deze processor:
pricewatch: Intel Celeron G530 Boxed
+ Deze SSD
pricewatch: OCZ Vertex Plus Sata II 2,5" SSD 30GB
Processor is slechts 0,2GHz langzamer, terwijl prijs verschil redelijk groot is (In verhouding)
En buiten dat heb ik een snellere SSD gekozen.
Mijn 2 vragen zijn.
Wat zou ik beter kunnen kiezen.
Snellere processor of snellere SSD erin.
Benchmarks van G620 ben ik tegenkomen, maar nog niet van de G530.
En 2de vraag is, ga ik de snelheid van SSD echt merken.
Ik heb nog 2 HD's liggen bedacht ik me net, die zou ik ook eventueel als OS disk kunnen gebruiken.
Alleen is SSD wel sneller, zuiniger en betrouwbaarder dan deze HD's die al meer dan 4 jaar oud zijn.
De SSD zou ik je sterk afraden. Neem een SSD zonder sandforce controller. deze controllers kennen veel problemen en zijn niet echt betrouwbaar
- Nieuwsgroepen/torrents/dlna/streamen/backup/raid 5.
Heel mss virtualisatie in de toekomst, maar dat is 1 client dan.
Zou geheugen nog flink kunnen uitbreiden van 1x4 naar 4x4GB.
Zelf ben ik nog leek op het gebied van SSD.
Zoek een SSD voor rond de 16GB. Enkel Ubuntu server hoeft er op te draaien, download directory is denk meteen RAID5 setup, of zet daartussen nog een extra hardeschijf zodat RAID setup niet gebruikt hoeft te worden tijden download. Kost stukken minder stroom.
Ik ga er nog wel even op google, want die 30GB SSD vind ik wel erg mooi en vooral kwa ruimte zou hier nog eventueel een vmware op kunnen draaien.
8GB wordt krap als ik linux ook via GUI wil gebruiken en niet alleen via de command line.
[ Voor 19% gewijzigd door Dennisik op 15-01-2012 15:13 ]
Maar voor een beetje standaard server beheer, heb je dat allemaal niet nodig, dus kan je met veel minder toe.
XFCE is bijvoorbeeld ook al veel lichter.
Even niets...
Wou gewoon een volledige versie van Ubuntu 10.4 erop aan het zetten. Die paar euro meer voor een SSD met 30GB neem ik dan voor lief, zo zal ik in de toekomst iig niet tegen problemen aan lopen als ik er nog wat anders wil op zetten mbt tot het OS.FireDrunk schreef op zondag 15 januari 2012 @ 15:38:
Uh, dan heb je toch iets verkeerds in gedachten... Een kale X kan je al hebben met 150MB (Zie Damn Small Linux). Als je de standaard zooi van KDE / GNOME installeerd heb je inderdaad wel meer nodig.
Maar voor een beetje standaard server beheer, heb je dat allemaal niet nodig, dus kan je met veel minder toe.
XFCE is bijvoorbeeld ook al veel lichter.
Ik vraag me af hoeveel nut een SSD heeft in een NAS trouwens. Je nas staat toch 24/7 aan. Dus snel opstarten is het niet echt voor nodig. Ik zou lekker een usb stick nemen ofzo
Ik moet er maar nog eens over nadenken. Duurt toch nog even tot cat6 spul binnenkomt uit chinaEJPostema schreef op zondag 15 januari 2012 @ 16:41:
eigenlijk heeft alleen intel kleine goede ssd's, maar voor hetzelfde geld heb je ook een 64gig crucial/samsung.
Ik vraag me af hoeveel nut een SSD heeft in een NAS trouwens. Je nas staat toch 24/7 aan. Dus snel opstarten is het niet echt voor nodig. Ik zou lekker een usb stick nemen ofzo
NAS staat denk niet 24/7 aan, vandaar dat een snelle boot wel handig is.
Goedkope HD van 100GB zou ook volstaan, kan dan daarop downloaden ipv van telkens de RAID5 configuratie aan te spreken wat veel energie kost.
De wijzen komen uit het Oosten!
De wijzen komen uit het Oosten!
Aanvulling: 2 hoofdschijven en 2 backup schijven(later uit te breiden naar 3-3) waar mbv een rsync/snapshot script dagelijks een backup gedraait wordt. Schijven zijn momenteel EXT2 geformatteerd.Momenteel heb ik twee stuks CH3SNAs draaien thuis (Gb netwerk) en ik zit er vanwege de lage transfer rates aan te denken deze te vervangen door een zelfbouw nas.
# Product Prijs Subtotaal 1 Asus E35M1-I € 99,70 € 99,70 1 Lian Li PC-Q08B € 86,60 € 86,60 1 be quiet! Pure Power L7 300W € 34,85 € 34,85 1 G.Skill Ripjaws X F3-12800CL9D-8GBXL € 39,50 € 39,50 Bekijk collectie
Importeer productenTotaal € 260,65
En dit geheel dan voorzien van 4 schijven (jbod) en Freenas.
De post van CurlyMo heeft me aan het twijfelen gebracht of ik FreeNAS, FreeBSD of ZFSguru ga draaien. ZFS is geen vereiste aangezien de schijven momenteel EXT2 geformatteerd zijn en ik deze eigenlijk 1 op 1 over wil zetten.CurlyMo schreef op maandag 09 januari 2012 @ 22:12:
[...]
....Wil je ZFS draaien en redelijk wat tweaken met eigen scripts, dan kan je ook nog ZFSguru overwegen. Die draait gewoon een normale volledige FreeBSD zodat het wat makkelijker aan te passen is. Hetzelfde geldt voor bijv. het installeren van je eigen torrent cliënt e.d. Allemaal wat makkelijker in ZFSguru.
Het is echter zo dat ik op wat basis zaken na geen linux ervaring heb en niet de tijd heb om me uitgebreid in een os te gaan verdiepen.
Het geheel hoeft enkel als fileserver te functioneren met eventueel upnp/dlna functionaliteit en een nzb client en ik vroeg me dan ook af of FreeNAS hiervoor niet simpelweg voldoende is?
Of wellicht dat FreeBSD of ZFSguru in jullie ogen vrij eenvoudig eigen te maken is?
Mag ik even vragen welk tooltje dat was?NoepZor schreef op zondag 15 januari 2012 @ 17:44:
Met een andere tool de smart data achterhaald...
SMART data uit RAID arrays lezen is notoir lastig en kunnen de meeste tools niet.
Tenzij het een software RAID is, dan kan je gewoon de devices aanspreken.CaptJackSparrow schreef op dinsdag 17 januari 2012 @ 13:23:
[...]
Mag ik even vragen welk tooltje dat was?
SMART data uit RAID arrays lezen is notoir lastig en kunnen de meeste tools niet.
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
| # | Product | Prijs | Subtotaal |
| 1 | Fractal Design Define XL USB 3.0 Black Pearl | € 121,- | € 121,- |
| 1 | Adata Superior S102 USB3.0 16GB Grijs | € 23,74 | € 23,74 |
| 5 | Hitachi Deskstar 5K3000, 3TB | € 173,90 | € 869,50 |
| 1 | Scythe Mugen 2 Rev. B | € 32,02 | € 32,02 |
| 4 | Scythe Gentle Typhoon D1225C12B5AP-15 (1850 rpm) , 120mm | € 11,90 | € 47,60 |
| 2 | Kingston HyperX KHX1600C9S3K2/8GX | € 44,91 | € 89,82 |
| 1 | Intel Core i3 2130 | € 124,85 | € 124,85 |
| 1 | be quiet! Straight Power E9 400W | € 67,- | € 67,- |
| 1 | MSI Z68A-G43 (G3) | € 99,61 | € 99,61 |
| Bekijk collectie Importeer producten | Totaal | € 1.475,14 | |
Bovenstaand heb ik een DIY Nas samengesteld, lekker low energy, vandaar ook de fans van Scythe die niet in 140 mm verkrijgbaar zijn.
USB voor het OS.
Ik ga er waarschijnlijk Freenas op draaien doordat ZFS met een geweldig Filesystem lijkt.
Hoor graag jullie mening.
Heeft iemand wellicht nog tips
[ Voor 194% gewijzigd door 3d0zer op 17-01-2012 16:12 ]
Verwijderd
Het voordeel van ZFSguru is dat je makkelijker dan FreeNAS extra functionaliteit kunt toevoegen, zoals je nzb client en mediastreaming. Je kunt beide ook even uitproberen in Virtualbox om te zien waar je je het meest vertrouwd mee voelt. Ik werk zelf mee aan ZFSguru en ondanks dat dit het jongste project is, heeft het vele voordelen boven andere distributies. Het grote voordeel van ZFSguru is dat het op normaal FreeBSD is gebaseerd, en je dus alles met ZFSguru kan wat je ook op FreeBSD kan. Je kunt het dus als een FreeBSD-installatie beschouwen, en andere dingen gewoon via de web-interface doen. Over specieke vragen kun je wellicht beter in het ZFS topic posten.floriske.nl schreef op dinsdag 17 januari 2012 @ 12:21:
De post van CurlyMo heeft me aan het twijfelen gebracht of ik FreeNAS, FreeBSD of ZFSguru ga draaien. ZFS is geen vereiste aangezien de schijven momenteel EXT2 geformatteerd zijn en ik deze eigenlijk 1 op 1 over wil zetten.
Het is echter zo dat ik op wat basis zaken na geen linux ervaring heb en niet de tijd heb om me uitgebreid in een os te gaan verdiepen.
Het geheel hoeft enkel als fileserver te functioneren met eventueel upnp/dlna functionaliteit en een nzb client en ik vroeg me dan ook af of FreeNAS hiervoor niet simpelweg voldoende is?
Of wellicht dat FreeBSD of ZFSguru in jullie ogen vrij eenvoudig eigen te maken is?
Kan al wel vast verklappen dat de nieuwe LiveCD met FreeBSD 9.0-RELEASE vandaag uit zou moeten komen.
Sinds de 2 dagen regel reageer ik hier niet meer
Verwijderd
[ Voor 92% gewijzigd door Verwijderd op 17-01-2012 16:45 ]
Ik heb er een quadcore AMD64 in zitten en nu zit er 2Gb geheugen in, maar dat kan voor een paar tientjes 8Gb worden. Op zich zou ie dan goed genoeg moeten zijn voor ZFS. Maar ik wil dat alleen maar doen als ik er op vooruit ga in performance of in ieder geval niet achteruit.
Dat ZFS superieur is snap ik onderhand wel, maar dat is voor mij an sich geen reden om over te gaan. Dat management makkelijker/beter is, vind ik geen reden (voor mij dan). Ik zit immers niet de hele dag die array te managen (bewaar me). Het moet voor mij een fire and forget systeem zijn. Dat is het nu ook.
En nee, ik ga niet naar FreeBSD
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Voor mij is het belangrijkste van mijn NAS, de betrouwbaarheid en daarna pas de snelheid. Daarom ook de keuze voor ZFS. Op dit moment trek ik mijn gigabit lijn vol dus of dat nu met 3 schijven RAIDZ is of met een 6 disk RAID6, dan zal niet uitmaken. Dat zal dus in jouw geval helemaal geen probleem moeten vormen.
Ik ben wel benieuwd waarom je geen FreeBSD zou willen draaien?
Sinds de 2 dagen regel reageer ik hier niet meer
Je vergeet de volgende zin te vermelden: This functionality is currently available only in the 0.6.0-rc6 release candidate. Volgens mij gebruikt niemand de 0.5.2 release.CurlyMo schreef op dinsdag 17 januari 2012 @ 18:02:
Zover ik weet is native ZFS linux nog steeds niet stabiel. "Please keep in mind the current 0.5.2 stable release does not yet support a mountable filesystem". Dat is dus een groot nadeel en daarom zou ik nog steeds niet voor ZFS kiezen op Linux.
ZFS on Linux is stabiel zolang je geen compressie of dedup gebruikt! Al mijn data staat op ubuntu/ZFS en ik heb 0 problemen gehad. Met de zfs on linux ppa is het ook super makkelijk te gebruiken.
Ik kwam er door ZFS achter dat mijn vorige hardware niet 100% stabiel was (scrub errors), zonder ZFS was ik daar waarschijnlijk niet makkelijk achter gekomen. Daarnaast heb je de standaard ZFS voordelen zoals snapshots, gepoolde storage etc.
Mijn systeem + performance staat in het 10TB+ topic.
Wat is een mountable filesystem? Het idee van een filesysteem is toch dat je iets kan mounten? Ik ben heel simpel: ik heb een array en die wil ik mounten als /storage. Punt. Daar ga ik dan dingetjes mee doen. Geen toestanden met snapshots, dedup, encryptie of compressie.PietjePuk schreef op dinsdag 17 januari 2012 @ 18:02:
Zover ik weet is native ZFS linux nog steeds niet stabiel. "Please keep in mind the current 0.5.2 stable release does not yet support a mountable filesystem". Dat is dus een groot nadeel en daarom zou ik nog steeds niet voor ZFS kiezen op Linux.
Wat ik nu heb is betrouwbaar genoeg. Dus als ik op iets anders over ga, moet ik daar een voordeel uit halen. Ik draai al jaren met een Linux server waarbij ik de disks gebruik als storage voor mijn andere pc's en ik heb daar nooit enig probleem mee gehad. Dingen als dat het veiliger of 'beter' zou zijn maken dus momenteel even niet uit voor mij. Er zijn wel meer dingen beter, maar die doe ik ook niet.Voor mij is het belangrijkste van mijn NAS, de betrouwbaarheid en daarna pas de snelheid.
Om daaromIk ben wel benieuwd waarom je geen FreeBSD zou willen draaien?
En zonder vervelend te willen klinken, wil ik er ook niet over debatteren. Het is mijn keuze.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
ZFS bestaat uit twee delen: zpool & zfs. Als ik het goed zeg regelt de eerste de samenwerking tussen de schijven tot een RAID array. Op deze array zul je vervolgens nog filesystem moeten zetten. Net zoals bij MDADM je schijven samenvoegt tot MD0. Het zfs gedeelte is de filesysteem dat zorgt voor compressie, snapshots, dedup enz. Op dit moment is het eerste gedeelte de pool helemaal stabiel. Het tweede nog niet. Je kunt dus wel een zpool aanmaken en daar vervolgens XFS of EXT2,3,4 op draaien maar dan heb je nog maar de helft van je ZFS oplossing. Dat heeft dus niet echt een meerwaarde.mphilipp schreef op dinsdag 17 januari 2012 @ 19:10:
Wat is een mountable filesystem? Het idee van een filesysteem is toch dat je iets kan mounten? Ik ben heel simpel: ik heb een array en die wil ik mounten als /storage. Punt. Daar ga ik dan dingetjes mee doen. Geen toestanden met snapshots, dedup, encryptie of compressie.
Dat "Ubuntu met FreeBSD kernel" begrijp ik niet helemaalWat ik nu heb is betrouwbaar genoeg. Dus als ik op iets anders over ga, moet ik daar een voordeel uit halen. Ik draai al jaren met een Linux server waarbij ik de disks gebruik als storage voor mijn andere pc's en ik heb daar nooit enig probleem mee gehad. Dingen als dat het veiliger of 'beter' zou zijn maken dus momenteel even niet uit voor mij. Er zijn wel meer dingen beter, maar die doe ik ook niet.
[...]
Om daaromIk heb er geen zin in. Ik gebruik nu Ubuntu en ik draai daar mijn pakketjes op en daar kan ik mee overweg. En met FreeBSD moet ik weer gaan kloten om dat aan de praat te krijgen. Ook al zeg jij nu dat ik dat weetikwat moet doen om Ubuntu met FreeBSD kernel te gaan draaien, ik doe het niet.
En zonder vervelend te willen klinken, wil ik er ook niet over debatteren. Het is mijn keuze.
Sinds de 2 dagen regel reageer ik hier niet meer
Voor watjes zoals ik die geen zin hebben om alles met de hand te doen, is er blijkbaar de mogelijkheid om Ubuntu met de FreeBSD kernel te draaien. Dan kun je gewoon de Ubuntu/Debian packages blijven gebruiken. Maar ik heb me er totaal niet in verdiept en ik heb gewoon de indruk dat FreeBSD veel te veel gedoe is. Ik heb die doos uiteindelijk draaien om te gebruiken, en niet om mee te spelen. Ik snap dat het met wat gewenning allemaal te doen is, maar ik heb er geen zin in. Ik wil thuis niet ook nog beheerdertje gaan spelen. Gewoon mijn porno downloaden op dat ding en klaar...JanJanssen schreef op dinsdag 17 januari 2012 @ 19:18:
[...]
Dat "Ubuntu met FreeBSD kernel" begrijp ik niet helemaal
Maar goed, voordat we hier een brede maatschappelijke discussie krijgen over hoe ongelijk ik wel niet heb en waarom ik wel FreeBSD zou moeten gebruiken wil ik het hierbij laten.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Ik heb even gekeken en jouw systeem is inderdaad een stuk sneller. Maar ja...dat kan natuurlijk door hele andere dingen komen als alleen ZFS. Uiteraard heb ik me er wel een beetje in verdiept en ik begrijp dat het gebruik van een SSD voor de ZIL en de L2ARC erg veel goede dingen kan doen voor de performance. Dat zou dus iets zijn om te overwegen.nielsdc schreef op dinsdag 17 januari 2012 @ 19:00:
[...]
Mijn systeem + performance staat in het 10TB+ topic.
Is er in het algemeen iets te zeggen over de performance van ZFS tov MDADM? Hoe is het bv als er verschillende processen tegelijk op die array aan het rossen zijn? Er wordt bv gedownload met SABnzb, en als die nou lekker bezig is: 1 actieve download, een andere is aan het parren of rarren en stel dat ik dan ook nog eens iets van die plek ga kopiëren. btw: momenteel heb ik 2 arrays. Een kleine met 2disks in stripe en de grote storage array in raid6. De kleine is voor downloads en de andere puur opslag. Dat om de load te spreiden.
Uiteindelijk is de performance van die kleine gestripte array teleurstellend. Die loopt ook via de onboard controllers en die stellen vrij weinig voor. De raid6 array is sneller dan die kleine array, dat zegt genoeg.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Mijn MDADM raid6 array met 9 schijven doet overigens 800MiB/s lezen sequentieel en 450 schrijven. Lijkt me meer dan genoeg. Als ik al naar ZFS zou willen (op zich best wel) en kunnen (neen, want het is ook mijn HTPC), dan zou dat puur om betrouwbaarheidsredenen zijn en niet voor de performance. Sterker nog, ik verwacht er qua leessnelheid een stuk op achteruit te gaan. Dat gezegd hebbende is FreeBSD echt een prima OS!
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Hmmm...dan doe ik ergens toch nog iets fout...HarmoniousVibe schreef op dinsdag 17 januari 2012 @ 20:40:
Mijn MDADM raid6 array met 9 schijven doet overigens 800MiB/s lezen sequentieel en 450 schrijven.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Even niets...
Ik zal mijn vraag wat specifieker stellen, wellicht willen jullie ermee helpen?
Onderstaande lijst heb ik samengesteld voor een NAS.
Wil daar uiteindelijk twee pools ZFS van 5 schijven op kunnen draaien.
Mijn vraag: Is een 400 W voeding (Zie lijstje) daarvoor voldoende, of moet ik naar een zwaardere uitvoering gaan?
| # | Product | Prijs | Subtotaal |
| 1 | Fractal Design Define XL USB 3.0 Black Pearl | € 121,- | € 121,- |
| 1 | Corsair Flash Voyager CMFVY3S-16GB 16GB Zwart | € 20,- | € 20,- |
| 10 | Hitachi Deskstar 5K3000, 3TB | € 173,90 | € 1.739,- |
| 1 | Scythe Mugen 2 Rev. B | € 32,02 | € 32,02 |
| 4 | Scythe Gentle Typhoon D1225C12B5AP-15 (1850 rpm) , 120mm | € 11,90 | € 47,60 |
| 1 | Arctic Silver Silver 5 - 3.5 Gram | € 5,46 | € 5,46 |
| 1 | Intel Core i3 2120 Boxed | € 109,80 | € 109,80 |
| 1 | be quiet! Straight Power E9 400W | € 67,- | € 67,- |
| 2 | Kingston HyperX KHX1600C9D3K2/8G | € 41,90 | € 83,80 |
| 1 | MSI Z68A-G43 (G3) | € 99,61 | € 99,61 |
| Bekijk collectie Importeer producten | Totaal | € 2.340,19 | |
[ Voor 7% gewijzigd door 3d0zer op 17-01-2012 21:48 ]
10 disks van 30W zonder staggerd spinup levert je dus een piek op van 300W.
Je CPU en consorten doen niet echt super veel bij boot (1 core word meestal maar belast, dus <25% vermogen).
Idle doen de disks: 4.8W (* 10 maakt ~50W voor je disks).
Dan is 400W weer super veel. Staggered spinup zou in jou geval dus erg helpen.
Waar wil je de disks op aansluiten?
Even niets...
Aansluiten denk ik via SATA Port Multiplyers.
Ik begin met 5 schijven in 1 pool en wil dat kunnen uitbreiden naar 10 in 2 pools, maar dan niet meteen de hele hardware te hoeven vervangen.
Heb jij er wellicht tips voor hoe dit aan te pakken?
Heb trouwens nog gekeken of er virtualisatie kon worden gedraaid met dit MB echter in de whitelists komen weinig spannende boards voor met een Z68 Chipset. Lastig om daar een inschatting van te maken.
Zie Link voor de HCL
[ Voor 22% gewijzigd door 3d0zer op 17-01-2012 22:02 ]
Even niets...
XFS tuning. Heb hem al vaker gepost:FireDrunk schreef op dinsdag 17 januari 2012 @ 21:40:
Ik ben ook wel benieuwd. Ik heb 8 schijven in RAID6 en kom (met _heel_ veel tuning) maar net aan de 500MB/s lezen en 300MB/s schrijven.
defaults,user,exec,noatime,sunit=1024,swidth=7168,swalloc,allocsize=1g,largeio,inode64,logbufs=8,logbsize=256k
512K chunk size, 9 disks in raid6 = 512K/512=1024
(9-2)*1024=7168.
Ook helpt het om xfs_fsr in je cron.daily te plaatsen. Met
xfs_db -c frag -r /dev/mdX
Verder is mijn hardware alles behalve spannend: MSI 790XT, Sempron 140, 2GB DDR2, LSI 3081E-R, 9 x WD20EARS Green. Niet echt heel bijzonder dus. Mijn tweaks overiges ook niet (vrij breed uitgemeten op de interwebs), dus het verbaast me dat andere mensen dat ook niet halen.
[ Voor 23% gewijzigd door HarmoniousVibe op 17-01-2012 22:14 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Had een paar wensen:FireDrunk schreef op dinsdag 17 januari 2012 @ 22:06:
Waarom wil je persé Z68?
- PCI-e 3.x 16x
- USB 3.0
- Socket 1155 voor de i3
- minimaal 6 sata aansluitingen
- ATX formaat (Komt in een tower en is niet zo een gepriegel)
- Informatique moet het board in de handel hebben (dit ivm de rest van mijn systeem en mijn bedrijf, je moet dan heel het systeem ergens kopen anders krijg je geen investeringsaftrek).
- Ethernet 1Gbps
Maar goed, het is en blijft een NAS/Servertje dus dat is niet echt doorslaggevend.
Again, tips zijn welkom, ben hier absoluut geen expert in.
[ Voor 14% gewijzigd door 3d0zer op 17-01-2012 22:14 ]
edit: aha, op die fiets.
[ Voor 17% gewijzigd door HarmoniousVibe op 17-01-2012 22:15 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Was meer bedoelt voor als het board een keer in een ander systeem komt.. De vrijheid die je er dan mee hebt oidHarmoniousVibe schreef op dinsdag 17 januari 2012 @ 22:13:
Lol, overclocking is wel het allerlaatste wat je moet gaan doen.
Even niets...
Ok dan.. Een H67 Chipset zou wellicht voordeliger zijn denk je?FireDrunk schreef op dinsdag 17 januari 2012 @ 22:17:
Tja, persoonlijk denk ik dat je het geld wat je daarmee zou besparen verliest omdat het Z68 chipset niet echt zuinig is. Maar exacte data heb ik nog even niet bij de hand... Z68 word niet zoveel getest op zuinigheid
Scheelt inderdaad wel in prijs mbt Moederbords
Even niets...
Hoorde inderdaad al dat het een betere netwerkperformance geeft
Het is mij niet zozeer te doen om een grafische kaart erin te rammen, dus die optie hoef ik geen rekening mee te houden, was meer zoiets met een knipoog naar toekomstige ontwikkelingen.FireDrunk schreef op dinsdag 17 januari 2012 @ 22:24:
PCIe 3.0 word dan wel lastig volgens mij, maar persoonlijk denk ik dat dat echt geen fluit uitmaakt. De bandbreedte van PCIe 2.0 word nog lang niet gehaald volgens mij, tenzij je een ATi 7990 x2 wil kopen (mocht die ooit komen...)
Presteren die boards goed over het algemeen? Kan er hier niet zoveel over vinden.Borromini schreef op dinsdag 17 januari 2012 @ 22:22:
En wijzer. Misschien een P67 à la limite. Als je deftig gigabit wilt zit je zo goed als vast aan een Intel-moederbord, tenzij je voor een aparte NIC gaat.
Wel suf trouwens, die esata zorgt ervoor dat ik weer een lijnje van extern naar intern moet trekken voor de 6e satapoort mbt interne disks.
Ik heb dit geprobeerd, maar er kwam geen extra bit door de kabel heen...HarmoniousVibe schreef op dinsdag 17 januari 2012 @ 22:09:
[...]
XFS tuning. Heb hem al vaker gepost:
Misschien een n00b vraag, maar ik stel 'm toch maar: die parameters, hadden die dan niet met het formatteren meegegeven moeten worden? Ik moet tot mijn schande bekennen dat ik geen idee meer heb hoe ik ze precies heb aangemaakt. Ik weet nog wel dat ik toen een of andere guide heb gevolgd van iemand die (deed alsof ie) er wel wat vanaf wist. Het zag er iig solide uit. Maar welke parameters ik precies heb meegegeven weet ik echt niet meer. Dom, ik had dat moeten vastleggen.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Ik draai hier ook op een Z68 en moet zeggen dat ik totaal weinig klachten heb qua zuinigheid. Mijn redenen waren SB + onboard GPU + 6x SATA. Daarnaast zou je zuinigheid kunnen creëren door je CPU te undervolten maar of dat perse verstandig is...FireDrunk schreef op dinsdag 17 januari 2012 @ 22:17:
Tja, persoonlijk denk ik dat je het geld wat je daarmee zou besparen verliest omdat het Z68 chipset niet echt zuinig is. Maar exacte data heb ik nog even niet bij de hand... Z68 word niet zoveel getest op zuinigheid
Alles draait op een PicoPSU 90w en dat werkt prima. Als je een 120w PicoPSU zou pakken (die ook makkelijk 150w kan pieken) je het met 5 schijven ook wel moet redden. Ik ga ze tegen die tijd gewoon proberen om nog 3 schijven toe te voegen aan mijn 90w. Deze kan namelijk ook makkelijk 120w pieken. Misschien dus ook goed idee om ook de HD204UI te overwegen. Die zijn een stuk zuiniger.
Sinds de 2 dagen regel reageer ik hier niet meer
Ben me ondertussen helemaal suf aan het testen met sunit en swidth, maar ik kom echt niet boven de 450/500MB/s lezen uit en niet boven de 300-325MB/s schrijven.
Wat ik wel zie is dat de IO Utilization in iotop varieert. Even de wiskunde
Ik heb 8 disks in RAID6 met 128k chunk size. Dat geeft mij een sunit van 256.
swidth = 6 * 256 = 1536.
/etc/fstab aangepast en daarna: mount /mnt/data -o remount gedaan.
IO utilization zit zonder sunit en swidth op 100% met sunit en swidth, zo rond de 70%.
Heb ook andere sunits en swidth geprobeerd, maar het maakt eigenlijk vrij weinig uit.
Wel lijken sommige waardes een iets stabieler IO te laten zien. Waar hogere sunit/swidth grote fluctuaties laten zien, laten lagere een stabielere maar lagere snelheid zien.
DD gebruikt overigens tot wel 45% van mijn dual quadcore... Wat ik overigens best bagger vind...
[ Voor 83% gewijzigd door FireDrunk op 17-01-2012 22:47 ]
Even niets...
Verwijderd
Hiermee kun je een middel-kleine filesystem van prik voorzien:
Systeem 50W (35W TDP + rest)
Schijven spinup 17W * 6 = 102W
Totaal 152W
Merk op dat veel brickvoedingen een piekspanning kennen, waarschijnlijk gebaseerd op warmtevorming (?), maar dat mag voor je spinup geen problemen opleveren (8 seconden ofzo). Dus PicoPSU met 6x Samsung F4EG 2TB schijven is mogelijk. Ook het +5V vermogen wat de PicoPSU moet omvormen, vormt geen belemmering heb ik eerder berekend.
Bedenk wel, andere schijven verbruiken meer dan de Samsung F4EG. Zie StorageReview voor wat exacte metingen.
Service van hun is ook super. Mijn adapter was kapot. Heb met na het mailen van een foto gratis een vervangend exemplaar toegestuurd gekregen.
Zover ik trouwens kan zien worden bij Informatique ook Streacom aangeboden (ook die 150w) wat een andere fabrikant is als MiniBox die de bekende gele & rode pico's maakt. Of dat consequenties heeft op de kwaliteit is natuurlijk de vraag.
[ Voor 18% gewijzigd door CurlyMo op 17-01-2012 23:21 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Link naar het board
In hoeverre zal ik verschil merken tussen een onboard intel netwerkkaart of een ander merk?
De vraag is hoeveel die netwerk kaart je waard is. Aan de ene kant kun je kiezen voor gelijk een top moederbord van Supermicro waarbij je ook gelijk een intel nic hebt pricewatch: Supermicro X9SCM
Aan de andere kant zijn er veel meer opties als je voor een gewoon consumenten bord gaat als je die intel nic wens loslaat. Eventueel kan je die er later los bij zetten pricewatch: Intel Gigabit CT Desktop Adapter. Dat kost de kop niet € 24 euro. Waarschijnlijk zul je geen problemen tegenkomen maar je speelruimte qua keuze wordt wel veel groter.
Sinds de 2 dagen regel reageer ik hier niet meer
Waar ik een beetje naar zoek is wat voor voordeel aan een ander board zit dan een intel mbt een nas server.
Daar heb je toch behoefte aan een zeer stabiel netwerkkaartje toch?
En de intelboards zijn niet al te duur, eigenlijk zelfs goedkoop op het moment. Maar goed, wel redelijk kale boards, dat dan weer wel... Geen USB 3.0 op het board bijv voor te lussen naar de voorkant van de kast.. Alleen een externe op de achterkant van het board.
[ Voor 41% gewijzigd door 3d0zer op 17-01-2012 23:42 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Maakt niet uit. XFS kan alles at mount time overriden (excuses voor deze halve Engelse zinmphilipp schreef op dinsdag 17 januari 2012 @ 22:29:
[...]
Ik heb dit geprobeerd, maar er kwam geen extra bit door de kabel heen...
Misschien een n00b vraag, maar ik stel 'm toch maar: die parameters, hadden die dan niet met het formatteren meegegeven moeten worden? Ik moet tot mijn schande bekennen dat ik geen idee meer heb hoe ik ze precies heb aangemaakt. Ik weet nog wel dat ik toen een of andere guide heb gevolgd van iemand die (deed alsof ie) er wel wat vanaf wist. Het zag er iig solide uit. Maar welke parameters ik precies heb meegegeven weet ik echt niet meer. Dom, ik had dat moeten vastleggen.
@FD: sunit en swidth zijn ook niet instellingen die je net als de chunk size een beetje uit kunt/moeten proberen om zodoende de optimale waarde te krijgen. Gegeven een bepaalde configuratie en een bepaalde chunk size, is er simpelweg één optimale sunit/swidth. Als dat niet optimaal is, moet je niet aan je sunit/swidth gaan sleutelen, maar aan de chunk size om aan de hand daarvan de sunit/swidth op aan te passen.
Wat verder ook nog flink helpt, zeker als je parallele I/O hebt, is de deadline scheduler te gebruiken. Voor dit soort gebruik ben ik geen voorstander van CFQ, terwijl dit wel de standaard is.
cat /sys/block/sdX/queue/scheduler
Als dd 45% van je 8 cores dichttrekt is er toch iets goed mis. Volgens mij is dd niet eens multithreaded. Ik heb zelf een Sempron 140 en die wordt met random 4k writes wel dichtgetrokken ja, maar met 'normale' sequentiële I/O (al die niet parallel) is daar absoluut geen sprake van.
Verder wordt door een -o flag mee te geven de mount options overschreven; niet geappend voor zover ik weet. Kijk even wat `mount` zegt om de actieve mount flags te bekijken. En zoals ik ook al zei: gebruik vooral inode64; hierdoor wordt de address space voor inodes veel groter, waardoor ze netjes over de disk/array kunnen worden verdeeld. Hierdoor hoeven de koppen die steeds terug naar één bepaald punt, wat tot veel minder random I/O en meer sequentiële I/O leidt.
En kijk voor de grap eens of je array gefragmenteerd is.
[ Voor 18% gewijzigd door HarmoniousVibe op 18-01-2012 00:23 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Bedoel met stabiel dat hij niet telkens op verschillende bandbreedtes download, dus gewoon stabiel is... altijd dezelfde verbindingssnelheid tussen pc's bijvoorbeeld.CurlyMo schreef op dinsdag 17 januari 2012 @ 23:43:
Zoals gezegd heb ik nooit problemen ervaren dus ik weer niet wat je dan precies met stabiel bedoelt. Het enige probleem wat ik ervaar is dat Windows 7 geen volledige gigabit snelheden haalt bij lezen. Dat ligt dus meer aan Windows dan aan Realtek. Ik zou je Intel eis dus gewoon loslaten.
[ Voor 1% gewijzigd door _Dune_ op 26-03-2013 21:08 ]
Ik weet niet hoe het zit qua prestaties, maar qua zuinigheid zitten de Intel-moederborden in het topsegment, samen met MSI. Ik denk dat de moederborden mekaar qua prestaties tegenwoordig niet veel meer ontlopen, zeker omdat het chipsetlandschap niet zo divers meer is als vroeger. Het is veel meer eenheidsworst.3d0zer schreef op dinsdag 17 januari 2012 @ 22:29:
[...]
Presteren die boards goed over het algemeen? Kan er hier niet zoveel over vinden.
Wel suf trouwens, die esata zorgt ervoor dat ik weer een lijnje van extern naar intern moet trekken voor de 6e satapoort mbt interne disks.
Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje
Verwijderd

MSI is meestal zuiniger dan Asus en Gigabyte enzo.
[ Voor 4% gewijzigd door Verwijderd op 18-01-2012 01:07 ]
MSI Z68A-G43 (G3)

Lekker weinig geks op het bord, dus zuinig en toch PCI Express gen3 x16 slot en een gen2 x16 dus als ik naar port multiplier wil voor als ik meer dan 6 schijven krijg, zal dat lekkerder lopen dan op een normaal PCI express slot toch?
Wat vinden jullie?
root@NAS:~# cat /sys/block/md0/queue/schedulerHarmoniousVibe schreef op woensdag 18 januari 2012 @ 00:18:
[...]
cat /sys/block/sdX/queue/scheduler
none
0.45% gefragmenteerdAls dd 45% van je 8 cores dichttrekt is er toch iets goed mis. Volgens mij is dd niet eens multithreaded. Ik heb zelf een Sempron 140 en die wordt met random 4k writes wel dichtgetrokken ja, maar met 'normale' sequentiële I/O (al die niet parallel) is daar absoluut geen sprake van.
Verder wordt door een -o flag mee te geven de mount options overschreven; niet geappend voor zover ik weet. Kijk even wat `mount` zegt om de actieve mount flags te bekijken. En zoals ik ook al zei: gebruik vooral inode64; hierdoor wordt de address space voor inodes veel groter, waardoor ze netjes over de disk/array kunnen worden verdeeld. Hierdoor hoeven de koppen die steeds terug naar één bepaald punt, wat tot veel minder random I/O en meer sequentiële I/O leidt.
En kijk voor de grap eens of je array gefragmenteerd is.
/etc/fstab:
/dev/md0 /mnt/data xfs defaults,largeio,sunit=256,swidth=1536,inode64,swalloc,allocsize=1g,user,exec
Net reboot gedaan, mount options werken nu inderdaad wel:
root@NAS:~# dd if=/dev/zero of=/mnt/data/test2.bin bs=1G count=12 12+0 records in 12+0 records out 12884901888 bytes (13 GB) copied, 29.7485 s, 433 MB/s
root@NAS:~# dd if=/mnt/data/test2.bin of=/dev/null bs=16M 768+0 records in 768+0 records out 12884901888 bytes (13 GB) copied, 18.5184 s, 696 MB/s
Dat ziet er al een stuk beter uit. IOtop zegt dat er ~60% IO usage is, dus het zou nog sneller kunnen lijkt me.
Net even met de scheduler zitten spelen, maar dat maakt weinig uit (<1%).
Even niets...
cat /sys/block/sdk/queue/scheduler noop [deadline] cfq cat /sys/block/md5/queue/scheduler none
[ Voor 36% gewijzigd door HarmoniousVibe op 18-01-2012 08:41 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
root@NAS:~# cat /sys/block/sd[bcdefghi]/queue/scheduler noop [deadline] cfq noop [deadline] cfq noop [deadline] cfq noop [deadline] cfq noop [deadline] cfq noop [deadline] cfq noop [deadline] cfq noop [deadline] cfq
Even niets...
Je loopt een beetje achter. Hoewel de huidige release een release candidate is, is die wel gewoon stabiel.CurlyMo schreef op dinsdag 17 januari 2012 @ 19:18:
ZFS bestaat uit twee delen: zpool & zfs. Als ik het goed zeg regelt de eerste de samenwerking tussen de schijven tot een RAID array. Op deze array zul je vervolgens nog filesystem moeten zetten. Net zoals bij MDADM je schijven samenvoegt tot MD0. Het zfs gedeelte is de filesysteem dat zorgt voor compressie, snapshots, dedup enz. Op dit moment is het eerste gedeelte de pool helemaal stabiel. Het tweede nog niet. Je kunt dus wel een zpool aanmaken en daar vervolgens XFS of EXT2,3,4 op draaien maar dan heb je nog maar de helft van je ZFS oplossing. Dat heeft dus niet echt een meerwaarde.
Dit werd vandaag gepost op de ZFS on linux mailinglist:
I have to say I'm impressed. Despite all the abuse I've thrown at the
system (including dropping 4 out of 9 drives in a raidz2 pool when a
controller went south) it's come back intact every time.
floriske.nl schreef op dinsdag 17 januari 2012 @ 12:21:
De post van CurlyMo heeft me aan het twijfelen gebracht of ik FreeNAS, FreeBSD of ZFSguru ga draaien. ZFS is geen vereiste aangezien de schijven momenteel EXT2 geformatteerd zijn en ik deze eigenlijk 1 op 1 over wil zetten.
Het is echter zo dat ik op wat basis zaken na geen linux ervaring heb en niet de tijd heb om me uitgebreid in een os te gaan verdiepen.
Het geheel hoeft enkel als fileserver te functioneren met eventueel upnp/dlna functionaliteit en een nzb client en ik vroeg me dan ook af of FreeNAS hiervoor niet simpelweg voldoende is?
Of wellicht dat FreeBSD of ZFSguru in jullie ogen vrij eenvoudig eigen te maken is?
Dan blijft natuurlijk de hamvraag: Hoe eenvoudig is ZFSguru op te zetten voor iemand die weinig tot geen linux ervaring heeft? En kan ZFSguru overweg met EXT2 schijven?Verwijderd schreef op dinsdag 17 januari 2012 @ 16:13:
[...]
Het voordeel van ZFSguru is dat je makkelijker dan FreeNAS extra functionaliteit kunt toevoegen, zoals je nzb client en mediastreaming. Je kunt beide ook even uitproberen in Virtualbox om te zien waar je je het meest vertrouwd mee voelt. Ik werk zelf mee aan ZFSguru en ondanks dat dit het jongste project is, heeft het vele voordelen boven andere distributies. Het grote voordeel van ZFSguru is dat het op normaal FreeBSD is gebaseerd, en je dus alles met ZFSguru kan wat je ook op FreeBSD kan. Je kunt het dus als een FreeBSD-installatie beschouwen, en andere dingen gewoon via de web-interface doen. Over specieke vragen kun je wellicht beter in het ZFS topic posten.
Kan al wel vast verklappen dat de nieuwe LiveCD met FreeBSD 9.0-RELEASE vandaag uit zou moeten komen.
Voor mij gaat het er, vanwege tijdgebrek, met name om dat eea eenvoudig en snel op te zetten is, zodat ik mezelf er later op mijn gemak wat meer in kan verdiepen.
Ik snap dat heel veel mensen ZFS on linux gebruiken en dat het prima werkt. Maar zolang iets een release candidate is, is het aan de gebruiker om het risico te nemen. Zelf neem ik dat risico (hoe klein) ook vrijwel altijd maar voor een volledige informatie vind ik wel dat je iemand daarover moet informeren.nielsdc schreef op woensdag 18 januari 2012 @ 09:02:
[...]
Je loopt een beetje achter. Hoewel de huidige release een release candidate is, is die wel gewoon stabiel.
Dit werd vandaag gepost op de ZFS on linux mailinglist:
[...]
Waarop ik reageerde was niet "hoe makkelijk is het om ZFSguru op te zetten" of andere FreeBSD oplossingen. Je gaf aan dat je graag eigen scripts wilde draaien op je systeem. Dan is FreeNAS een mindere keuze omdat je daar veel meer ervaring voor nodig hebt om het naar je hand te zetten. Out of de box werkt het verder perfect. Daarnaast is ZFSguru natuurlijk gemaakt voor ZFS maar draait het op een volledige FreeBSD installatie. Ext2 zal dus wel ondersteund worden maar niet via de webgui.floriske.nl schreef op woensdag 18 januari 2012 @ 09:23:
Dan blijft natuurlijk de hamvraag: Hoe eenvoudig is ZFSguru op te zetten voor iemand die weinig tot geen linux ervaring heeft? En kan ZFSguru overweg met EXT2 schijven?
Voor mij gaat het er, vanwege tijdgebrek, met name om dat eea eenvoudig en snel op te zetten is, zodat ik mezelf er later op mijn gemak wat meer in kan verdiepen.
Voor een leek:
* Wil je ZFS, gebruik dan ZFSguru
* Wil je customizen, gebruik dan bijv. ubuntu server
* Wil je de makkelijkste NAS oplossing draai dan gewoon een standaard FreeNAS en laat je wensen qua custom snapshot scripts los. FreeNAS heeft vast soort gelijke functionaliteit.
Als laatste kan je natuurlijk vragen of iemand hier je script wilt aanpassen zodat hij ook onder FreeBSD of Linux draait
Sinds de 2 dagen regel reageer ik hier niet meer
Verwijderd
Ter info het systeem dat heb besteld:
Moederbord: Asus E35M-I
Case: Lian LI PC-Q25
OS Drive: Corsair Force 3 60GB(ook partities voor ZIL & L2ARC)
Storage Drives: 5x2TB maar nog onbeslist welk type+merk. elke merk lijkt wel problemen te hebben. Allesinds geen enterprise drives.
PSU: Seasonic X-400 fanless
OS: Ubuntu 11.10 met ubuntu-zfs (RAIDZ1)
Het "Is RAID6 dead in 2019" (-> google) verhaal is inderdaad wel lastig, maar niet onoverkomenlijk.
Even niets...
Verwijderd
| # | Product | Prijs | Subtotaal |
| 1 | Fractal Design Define XL USB 3.0 Black Pearl | € 121,- | € 121,- |
| 1 | Corsair Flash Voyager CMFVY3S-16GB 16GB Zwart | € 20,- | € 20,- |
| 1 | TP-Link TL-SG1005D | € 14,90 | € 14,90 |
| 5 | Hitachi Deskstar 5K3000, 3TB | € 173,90 | € 869,50 |
| 1 | Scythe Mugen 2 Rev. B | € 32,02 | € 32,02 |
| 4 | Scythe Gentle Typhoon D1225C12B5AP-15 (1850 rpm) , 120mm | € 11,90 | € 47,60 |
| 1 | Intel Core i3 2120 Boxed | € 109,74 | € 109,74 |
| 1 | be quiet! Straight Power E9 400W | € 67,- | € 67,- |
| 2 | Kingston HyperX KHX1600C9D3K2/8G | € 41,90 | € 83,80 |
| 1 | MSI Z68A-G43 (G3) | € 99,61 | € 99,61 |
| Bekijk collectie Importeer producten | Totaal | € 1.465,17 | |
NAS wordt gebruikt voor:
Downloaden van nieuwsgroepen + parren + unrarren
iTunes Server (AppleTV2)/Media server (XBox360/PS3)
File server voor iMac/MacBook/Mac Pro
Web servertje
Ik heb de ZFS Topic ook gevolgd en wil dan ook ZFS gaan gebruiken. En dan RAIDZ2 met 6 harde schijven van 2 TB met een 128GB SSD voor OS/L2ARC/ZIL.
Momenteel heb ik een lege Thermaltake Mozart XT staan met een (5 jaar oude) 450W voeding van Cooler Master.
En dit is het lijst van wat ik van plan ben om aan te schaffen:
| # | Product | Prijs | Subtotaal |
| 6 | Samsung EcoGreen F4EG HD204UI, 2TB | € 111,75 | € 670,50 |
| 1 | Intel Core i3 2120 Boxed | € 109,74 | € 109,74 |
| 1 | Crucial m4 CT128M4SSD2 128GB | € 164,90 | € 164,90 |
| 1 | Corsair Vengeance CMZ16GX3M4A1600C9 | € 84,90 | € 84,90 |
| 1 | Gigabyte GA-Z68XP-UD3P | € 137,60 | € 137,60 |
| Bekijk collectie Importeer producten | Totaal | € 1.167,64 | |
Mijn vraag is, voldoet deze setup aan mijn wensen? Kan het beter? Kan de voeding deze setup aan?
In de toekomst kan het zijn dat ik de pool ga vergroten naar nog een RAIDZ2 met 6x 2 TB schijven. Zal dat gaan met Intel RAID Controller SASUC8I?
Verwijderd
Voeding zou zeker geen probleem mogen zijn. Je kunt tot wel 20 schijven (Samsung F4EG) met die voeding aan (systeem: 100W). Besef wel dat sommige voedingen aparte +12V rails hebben en dan kun je eventueel wel problemen krijgen als je alles op één rails hangt.
Maar met 6 schijfjes mag je zeker geen problemen verwachten, besef hierbij dat de Samsung F4EG schijf de meest zuinige is met spinup current; zo rond de 17W gemeten door StorageReview.
SASUC8i controller kan, maar deze is wat oud voor hedendaagse begrippen. Zo heeft deze geen PCI-express 2.0 of SATA 6Gbps. De nieuwe IBM M1015 is wat duurder maar kan net als de Intel geflashed worden naar IT-firmware. Dan draai je de nieuwe LSI SAS2008 chip, en krijg je de genoemde voordelen. Als je nu een controller moet kopen zou ik deze kaart aanraden. Ik dacht dat Intel SASUC8i wel een probleem had met schijven boven de 2TB, trouwens. Iets om rekening mee te houden.
En ja verder, net als hierboven: waarom geen H67 plankje van MSI? Superzuinig, 6 echte Intel poorten, 4 PCI-express voor Micro-ATX model. Lijkt me prima plankje voor een server. Z68 heeft voordeel van overclocken en RAID + SRT. Die twee laatste zijn Windows-specifieke features dus daar doe je niets mee. En overclocken op een server ook niet; hooguit als de hardware een andere bestemming krijgt. Dus hier kun je nog overna denken.
Oh en als je duur geheugen wilt, waarom dan geen supercool 1.25v low-power geheugen? Paar euro duurder dan je nu hebt. Twee keer dit setje:
pricewatch: G.Skill Sniper F3-12800CL9D-8GBSR2
Ik heb deze ook en ik heb wat meetgegevens versus 1.5v als je wilt.
[ Voor 48% gewijzigd door Verwijderd op 18-01-2012 15:19 ]
Dat is nog wel interessant. Hoevel Gb wordt aangeraden/typisch gebruikt voor SLOG/SIL/L2ARC?Verwijderd schreef op woensdag 18 januari 2012 @ 15:13:
Waarom zo'n grote 128GB SSD? Beter twee keer 64GB dat is veel sneller voor L2ARC. Of gewoon eentje. Besef wel dat als je voor L2ARC wilt gebruiken je ook ruimte ongebruikt moet laten, voor overprovisioning. Wil je ook SLOG gebruiken dan raad ik een SSD aan met supercapacitors zoals de Intel 320 80/120GB.
Verwijderd
SLOG (separate log device ofwel dedicated ZIL disk) = 4 GB is al genoeg, afhankelijk niet van de grootte van je pool maar van de snelheid.
[ Voor 11% gewijzigd door Verwijderd op 18-01-2012 15:48 ]
Waarvoor geen Intel moederbord?
Zoals deze: pricewatch: Intel Desktop Board DB65AL
Voordeel hiervan is dat hij een echte Intel Chipset heeft voor GB Lan, 6x Sata ook van Intel.
En prijstechnisch vergelijkbaar is met MSI.
Wou eerst voor Asrock gaan. Enkel wat vrienden die er verstand van hebben, hebben mij dit afgeraden omdat er op de Asrock geen Intel Sata controller sata zat en geen GB Lan sata controller. Voor 15 euro meer heb je een Intel Moederbord die dit wel heeft.
[ Voor 27% gewijzigd door Dennisik op 18-01-2012 16:01 ]
Ik heb lang gezocht, en de Gigabyte Z68 plank is een van de weinige die 8 onboard heeft. Die MSI heeft 6 poorten, dat betekent dat ik meteen een sata kaart aan moet schaffen. Als je een betere oplossing heb, dan hoor ik dat graag.
Stel 60 GB voor L2ARC en 4 voor SLOG. Dat is totaal 64 GB. Met een 128 GB SSD zal ik dus 100 GB hebben (laten we zeggen dat 28 GB ongebruikte voor overprovisioning), dan hebben we nog 36 GB voor OS/Swap. Ik wil echt FreeBSD/ZFSGuru op draaien. Gaat dat allemaal passen?
Stel je neemt het moederbord hierboven + deze controller
pricewatch: Dawicontrol DC-300e RAID (2x SATA300 RAID, PCI-e x1)
Ben je nog goedkoper uit, heb je een Intel Lan controller en 8 Sata poorten.
Wat voor OS ga je draaien?Dinh schreef op woensdag 18 januari 2012 @ 16:02:
Stel dat ik 2x 64 GB SSD neem. Moet ik deze dan in een raid-0 zetten (onboard raid0)? Dit betekent wel dat ik icm 6x harde schijven totaal 8 SATA poorten nodig heb.
Ik heb lang gezocht, en de Gigabyte Z68 plank is een van de weinige die 8 onboard heeft. Die MSI heeft 6 poorten, dat betekent dat ik meteen een sata kaart aan moet schaffen. Als je een betere oplossing heb, dan hoor ik dat graag.
Stel 60 GB voor L2ARC en 4 voor SLOG. Dat is totaal 64 GB. Met een 128 GB SSD zal ik dus 100 GB hebben (laten we zeggen dat 28 GB ongebruikte voor overprovisioning), dan hebben we nog 36 GB voor OS/Swap. Ik wil echt FreeBSD/ZFSGuru op draaien. Gaat dat allemaal passen?
Check anders of de Marvell Chips voor de 2 extra aansluitingen van SATA compatible zijn met je OS. De laatste generaties Marvell worden nog niet ondersteund door FreeBSD/ZFSGuru/FreeNas en soms ook niet linux. Dit was voor mij de reden om voor een goedkoper board met 6 sata en dan voor uitbreiding een port multiplier te gebruiken.
Verwijderd
Maar geen solid caps, Intel BIOS meestal beperkt qua opties en zo'n lelijk PCI slot waarvan je juist had gehoopt dat dat eindelijk eens pre-2010 was gebleven. Maar als je persé een Intel netwerk controller wilt, is dat een optie ja. Moet wel zeggen dat in mijn eigen tests het bar weinig uitmaakte wanneer ik testte met iperf. Intel PRO/1000 PT scoorde net iets hoger, maar de verschillen waren erg klein. Ik denk dat je prima een bord kunt kopen en mocht blijken dat de NIC niet lekker werkt kun je er altijd een Intel PRO/1000 CT kaartje in pleuren.Dennisik schreef op woensdag 18 januari 2012 @ 15:59:
@Cipher,
Waarvoor geen Intel moederbord? (..) Voordeel hiervan is dat hij een echte Intel Chipset heeft voor GB Lan, 6x Sata ook van Intel.
Het is zeker een pré als je moederbord Intel NIC onboard heeft, maar cruciaal toch niet?
Die heeft een Silicon Image SiI-3132 controller. Werkt als het goed is prima onder FreeBSD/ZFSguru. ZFSguru heeft standaard de 'siis' driver actief. Besef wel dat je een performance hit zult krijgen op je pool hierdoor; in mijn tests zat ik op 120MB/s met twee schijven, terwijl afzonderlijk de performance hoger was. Dat was nog met de oude driver, dus mocht je deze controller nemen hoop ik dat je wat testjes voor me kunt doen.Dennisik schreef op woensdag 18 januari 2012 @ 16:05:
@Dinh
[URL="http://tweakers.net/pricewatch/140480/dawicontrol-dc-300e-raid-(2x-sata300-raid-pci-e-x1).html#tab:prices"]pricewatch: Dawicontrol DC-300e RAID (2x SATA300 RAID, PCI-e x1)
Besef dat voor extra SATA poorten het beste is een HBA controller; zonder RAID of port multipliers of expanders maar gewoon pure poorten op een échte controller, zoals de IBM M1015 (met IT-firmware). Zo'n controller is een goede investering voor alle software RAID voor zolang je SATA schijven gaat gebruiken (want na SATA komt SATA Express en dat is PCIe gebaseerd).
[ Voor 10% gewijzigd door Verwijderd op 18-01-2012 16:50 ]
Zoals ik nu even google niet nee:Verwijderd schreef op woensdag 18 januari 2012 @ 16:48:
[...]
Maar geen solid caps, Intel BIOS meestal beperkt qua opties en zo'n lelijk PCI slot waarvan je juist had gehoopt dat dat eindelijk eens pre-2010 was gebleven. Maar als je persé een Intel netwerk controller wilt, is dat een optie ja. Moet wel zeggen dat in mijn eigen tests het bar weinig uitmaakte wanneer ik testte met iperf. Intel PRO/1000 PT scoorde net iets hoger, maar de verschillen waren erg klein. Ik denk dat je prima een bord kunt kopen en mocht blijken dat de NIC niet lekker werkt kun je er altijd een Intel PRO/1000 CT kaartje in pleuren.
Het is zeker een pré als je moederbord Intel NIC onboard heeft, maar cruciaal toch niet?
http://buildegg.com/bewp/?p=78
Kennis van mij verkoos Intel boven Realtek. Samen met het feit dat mijn Asrock een andere Raid controller had, waarvan hij niet zeker wist of Linux dat ondersteunde. Daarvoor raadde hij een Intel boord aan.
Zag inderdaad al in test dat de snelheid wat te wensen over liet.Die heeft een Silicon Image SiI-3132 controller. Werkt als het goed is prima onder FreeBSD/ZFSguru. ZFSguru heeft standaard de 'siis' driver actief. Besef wel dat je een performance hit zult krijgen op je pool hierdoor; in mijn tests zat ik op 120MB/s met twee schijven, terwijl afzonderlijk de performance hoger was. Dat was nog met de oude driver, dus mocht je deze controller nemen hoop ik dat je wat testjes voor me kunt doen.
Ik zal voorlopig geen controller nodig hebben, heb aan 6 sata poorten hedendaags gnoeg als ik het spul ga bestellen.
Met het feit hierboven zal ik nog eens opnieuw kijken naar de moederborden, een moederbord met wat meer PCI aansluitingen zal handig zijn wil ik mijn kast uitbreiden met PCI sata controllers.
Ik zal deze tip onthouden, bedankt!Besef dat voor extra SATA poorten het beste is een HBA controller; zonder RAID of port multipliers of expanders maar gewoon pure poorten op een échte controller, zoals de IBM M1015 (met IT-firmware). Zo'n controller is een goede investering voor alle software RAID voor zolang je SATA schijven gaat gebruiken (want na SATA komt SATA Express en dat is PCIe gebaseerd).
Verwijderd
Irrelevant; onder Linux en onder FreeBSD gebruik je andere drivers. En daar kun je ook grote performanceverschillen en nog vaker: bugs/issues terugvinden. Zo heb ik realteks meegemaakt die af en toe packetloss hadden. Na een FreeBSD upgrade was dat probleem weg. Pure driverproblemen, voornamelijk veroozaakt door slechte documentatie van Realtek terwijl Intel duidelijk wel samenwerkt met open source organisaties om hun spul goed werkend te krijgen op server platforms, wat voor Intel belangrijker is dan voor Realtek die massa goedkope chips produceert.Dennisik schreef op woensdag 18 januari 2012 @ 16:58:
[...]
Zoals ik nu even google niet nee:
http://buildegg.com/bewp/?p=78
In mijn eigen tests zat ik zo rond de 920 - 940 megabit ofzo, nVidia, Intel, Realtek allemaal scheelde het vrijwel niets. Maar dat hoeft niets te zeggen, een realtek X of een nVidia Y kunnen andere PHY chips hebben, en dus met de ene PHY andere performance of issues hebben dan de ander. Dit maakt het allemaal wat ingewikkelder.
Ik zie Intel gigabit als een leuke extra, maar niet als cruciaal. Mocht je problemen met je NIC hebben gewoon een 25 euro Intel CT kaartje erin en je bent ook klaar, en als het niet nodig is heb je toch een mooier MSI bord wat je denk ik meer waar voor je geld biedt.Kennis van mij verkoos Intel boven Realtek.
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.