• FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
VirtIO is voor het draaien van FreeBSD/Linux onder KVM/QEMU/XEN icm Paravirtual devices.

Packages installeren :
cd /usr/ports/emulators/virtio-kmod/ 
make install clean
pkg_add -r virtio-kmod


http://www.freshports.org/emulators/virtio-kmod/

Even niets...


Verwijderd

Ik ben gisteravond in ieder geval aan het klooien geweest met FreeBSD 9 en de kogel is wel door de kerk: ik ga over. Ik ben nu al bezig met het installeren van sabnzbd/couch patato/sickbeard/samba/nfs (wat me ook weer een VM scheelt en dus geheugen/cpu). Zodra de basis goed staat en ik de backups heb gemaakt ga ik proberen de zpool te importeren op de nieuwe VM (keep my fingers crossed).

Vanavond weer verder :)

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
FireDrunk schreef op donderdag 12 januari 2012 @ 09:24:
VirtIO is voor het draaien van FreeBSD/Linux onder KVM/QEMU/XEN icm Paravirtual devices.

Packages installeren :
cd /usr/ports/emulators/virtio-kmod/ 
make install clean
pkg_add -r virtio-kmod


http://www.freshports.org/emulators/virtio-kmod/
Ik zou wel kiezen voor installatie via ports óf packages. Niet beide :).

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Je hebt gelijk :P

of de eerste 2 regels, of de laatse inderdaad :P

Even niets...


  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
analog_ schreef op donderdag 12 januari 2012 @ 03:39:
zpool client data / vm data : 6TB of RAW HDD space
Tijdelijk opslag voor VM en echte clients, geen spindown.
  • 3x2 mirror with Seagate Barracuda LP, 2TB
    • Supermicro X8DTL-3F - 6xSATA
zpool client OS / VM OS : 384GB of RAW SSD space
Boot voor echte machines en VMs
  • 3x2 mirror with Crucial m4 CT128M4SSD2 128GB
    • 2x LSI SAS 9211-8i - 3xSAS
Heel veel cpu geld voor wat storage maar ja.
Indeling schijven kan veel beter. En als je de spindown wil behouden zou ik je aanraden om alles(client OS / VM OS client data / vm data) op de ST32000542AS te zetten en dan de de ssd's als zil en die andere te configureren.

Nog logischer maar dat zou meer stroom kunnen gebruiken is gewoon echt alles op de grote hoop te gooien met alleen maar green schijven en dan weer ssd's voor zil en slog

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Maar dan moeten alle disks op-spinnen voor elke file... Als je mirrors maakt niet neem ik aan...

Even niets...


  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
die 6 tijdelijke disk hadden toch geen spindown? En persoonlijk denk ik dat mirror of zraid voor downspinnenn weinig uitmaakt.
Overigens had ik het niet over andere raid instellingen alleen over het gebruik van de ssd's waar ze het meeste nut hebben als je van zfs gebruik maakt namelijk als slog en zil en niet voor data.
En als je alles op een hoop gooit met alleen green schijven ja wat ik al zei dat zal misschien iets meer stroom verbruiken.

Verwijderd

Bij mirroring zul je van alle schijven lezen en schrijven, anders kan mirroring ook nooit bijna de leessnelheid van RAID0 behalen. Spindown gaat dus niet werken als de pool actief is.

  • mca2
  • Registratie: Augustus 2000
  • Laatst online: 20-12 02:16
mca2 schreef op woensdag 11 januari 2012 @ 23:00:
[…]heel verhaal[…]
  • heeft deze setup voldoende kracht om een beetje performen met raid-z?
  • geeft de onboard NIC voldoende snelheid om 1080p te streamen (welke snelheid is sowieso te halen?)
  • draait FreeBSD/debian in de raid-z pool of heb ik daar een losse schijf/usb stick voor nodig?
En weet iemand nog een goedkoop kastje en voeding waar dit alles in past?
Kan het A50M platform met 8GB overweg met RaidZ en zijn de onboard gigabit NICs ook inderdaad te verleiden tot gigabit prestaties?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Verwijderd schreef op donderdag 12 januari 2012 @ 17:46:
Bij mirroring zul je van alle schijven lezen en schrijven, anders kan mirroring ook nooit bijna de leessnelheid van RAID0 behalen. Spindown gaat dus niet werken als de pool actief is.
Hij wil 3 mirrors van 2 disks als ik het goed lees.
Dan hoeven toch alleen alle schijven in de mirror op te spinnen, 2 van de 6 in dit geval?

* FireDrunk moet even verder lezen.

Als de 3 mirrors in 1 ZPOOL zitten moeten alle drives opspinnen.
Zijn het afzonderlijke ZPOOL's dan hoeft dat niet.

[ Voor 15% gewijzigd door FireDrunk op 12-01-2012 18:27 ]

Even niets...


  • analog_
  • Registratie: Januari 2004
  • Niet online
FireDrunk schreef op donderdag 12 januari 2012 @ 08:30:
@Hierboven: Machtige config :) Heb je geld over? :)
En waarom zoveel SSD's mirroren? Dat is toch niet verplicht?

@CiPHER: Ik zal het eens testen :)
Ik hoop tegen deze zomer geld teveel te hebben ja, de reden achter deze SSD setup is dat er dus infiniband bijkomt die dus de bandbreedte kan verspreiden over mijn machines en dat raidZ IOPS-wise niet zo fantastisch schaalt, ik kan het tegen dan uiteindelijk ook zelf even uit testen om te zien hoe groot het verschil is. Wat ik mij afvroeg is of één Xeon CPU voldoende zou zijn aangezien dat toch 400euro verschil is. Weet iemand hoe het tegenwoordig zit met matched pairs? Is dat nog steeds vereist, dat pleit namelijk voor ze beide gelijktijdig aankopen.

De reden waarom er geen sil/l2arc/slog is simpelweg dat het maar patch middelen zijn. Uiteindelijk kan ik mijn data op de virtuele machines en echte bakken zo opdelen dat er geen reden is voor ze nog wel te gebruiken. Het is performance-wise veel interessanter om raid1 setjes in een pool te duwen dan raidz met patch middelen. Ik was zelf ook al lichtjes wat anders aan eht denken namelijk 5 van die oude 2TB seagate LP bij de grote dataset te dumpen (extra raidz1 volume) en twee mirrored 1TB setjes voor tijdelijke opslag, uiteindelijk zijn het 2 disks minder die constant spinnen. Het is niet voor 1-2-3 de komende maanden (de disks iig. niet, mogelijk dat de overige hardware langzaam aan binnenkomt). Ik ben dus nog behoorlijk aan het orienteren naar de beste oplossing.

[ Voor 32% gewijzigd door analog_ op 12-01-2012 20:54 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Matched pair is minder belangrijk dan vroeger, maar nog wel van toepassing.
Voor wat zou de Xeon genoeg moeten zijn, alleen ZFS of nog meer?

Even niets...


  • nielsdc
  • Registratie: Juni 2011
  • Laatst online: 19-07 18:49
Uiteindelijk is er altijd een afweging tussen kosten en performance. raidz zal inderdaad minder performen als striped mirrors, maar de vraag is of je die performance ook daadwerkelijk nodig hebt.

Een storage server heeft over het algemeen baat bij veel geheugen, maar cpu is meestal geen bottleneck. TDP is meestal ook niet interessant voor een storage server, idle power wel. Je huidige config is interessant als je de server ook als ESX server wilt gebruiken, maar alleen als storage server heb je teveel CPU.

Als je alleen een storage server wil, zou ik zo iets doen:

supermicro X9SCM-F + E1220
16 GB mem
3 x M1015 van ebay > flashen naar 9211

Dat scheelt een hoop geld, voor ongeveer dezelfde performance. Voor je SSD's is raidz waarschijnlijk genoeg, of stripes en elk uur een backup. Je kan dan ook een SSD gebruiken als l2arc voor je tijdelijke opslag.

Als je echt serieus commentaar wilt zal je toch wat meer info moeten geven. Wat is belangrijk? performance, verbruikt? Hoeveel performance heb je nodig voor je vm's? etc.

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
mca2 schreef op donderdag 12 januari 2012 @ 18:20:
[...]

Kan het A50M platform met 8GB overweg met RaidZ en zijn de onboard gigabit NICs ook inderdaad te verleiden tot gigabit prestaties?
Ik heb een amd sempron 140 met 1gb draaien en daar komt ook gigabit snelheden uit met opensolaris dus waarom niet.
zfs op opensolaris heeft niet zo heel veel cpu power nodig ..... freebsd kan anders zijn is in ieder geval veel gevoeliger voor te weinig geheugen, solaris wat minder.

zil l2arc slog zijn geen pleisters maar items gebruiken waar ze goed in zijn ;)

[ Voor 7% gewijzigd door Mafketel op 12-01-2012 23:39 ]


  • analog_
  • Registratie: Januari 2004
  • Niet online
nielsdc schreef op donderdag 12 januari 2012 @ 22:10:
Uiteindelijk is er altijd een afweging tussen kosten en performance. raidz zal inderdaad minder performen als striped mirrors, maar de vraag is of je die performance ook daadwerkelijk nodig hebt.

Een storage server heeft over het algemeen baat bij veel geheugen, maar cpu is meestal geen bottleneck. TDP is meestal ook niet interessant voor een storage server, idle power wel. Je huidige config is interessant als je de server ook als ESX server wilt gebruiken, maar alleen als storage server heb je teveel CPU.

Als je alleen een storage server wil, zou ik zo iets doen:

supermicro X9SCM-F + E1220
16 GB mem
3 x M1015 van ebay > flashen naar 9211

Dat scheelt een hoop geld, voor ongeveer dezelfde performance. Voor je SSD's is raidz waarschijnlijk genoeg, of stripes en elk uur een backup. Je kan dan ook een SSD gebruiken als l2arc voor je tijdelijke opslag.

Als je echt serieus commentaar wilt zal je toch wat meer info moeten geven. Wat is belangrijk? performance, verbruikt? Hoeveel performance heb je nodig voor je vm's? etc.
Alles wat ik op ebay kan vinden is altijd meegenomen, maar ik heb weinig zin in gezeik dus niet zo happig op flashen (hoewel ik het perfect kan, etc), LSIs staan er ook op dus dan haal ik die wel. Ik heb een haat-liefde relatie ontwikkeld met mijn huidige oplossing dus probeer ik zoveel mogelijk 'stock' te doen. Het probleem is dat volgens tweakblogs/IRC is dat dat x9scm bord vrijwel onmogelijk op een nog betaalbare manier aan 32GB ram doet. De reden voor 32GB is simpel, alles uit het ram is een stuk sneller, het is relatief goedkoop om je performance ermee op te krikken dus waarom niet. Eigenlijk is het een beetje wachten op de Intel E5 reeks en met name de E5-2630L (2GHz, HT hexacore met 60W TDP,wiki). Die E5 komt ook met 4 geheugen channels dus 4 of 8 ram slots waarschijnlijk, gemakkelijker gevult. Volgens IRC (#openindiana, #zfs, #nexentastor op freenode) zou ik toch twee quads nodig hebben wil ik mijn infiniband vullen, hopelijk is die E5 een mooi compromis. De controllers zouden de bottleneck alvast niet zijn. Gelukkig heb ik nog wat tijd om de kat uit de boom te kijken.

[ Voor 7% gewijzigd door analog_ op 13-01-2012 03:14 ]


  • mca2
  • Registratie: Augustus 2000
  • Laatst online: 20-12 02:16
Ik ben nog steeds een beetje aan het puzzelen en probeer in ieder geval de hardware setup aan te laten sluiten bij een ZFS configuratie. Dat wordt dus een AMD A50M bord met 3x 2TB schijven en 8GB intern.

Nu lees ik her en der dat de huidige populaire 2TB schijven (WD EARX en Samsun F4) 4kB-sectors hebben en dit van invloed kan zijn op je performance. Nu ga ik voor een Raid-Z1 opstelling en zou dit minder moeten spelen. Of loont het toch om voor bijvoorbeeld een Hitachi Deskstar 5K3000 met 512B sector size te gaan?

Daarnaast zou ik graag spindown doen op mijn zpool en komt er een kleine losse HD bij. Nu kan ik een simpele kleine klassiek HD plaatsen maar ik begrijp dat met SSD mogelijk winst valt te behalen. Geeft het veel performance winst als ik hiervoor een SSD neem en hierop ook een SLOG en L2ARC partitie aanmaak? Of hebben deze een dedicated HD nodig? En breng ik dan de betrouwbaarheid van mijn zool niet in gevaar ivm het mogelijk falen van de SSD?

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:48
mca2 schreef op zondag 15 januari 2012 @ 10:36:
Ik ben nog steeds een beetje aan het puzzelen en probeer in ieder geval de hardware setup aan te laten sluiten bij een ZFS configuratie. Dat wordt dus een AMD A50M bord met 3x 2TB schijven en 8GB intern.

Nu lees ik her en der dat de huidige populaire 2TB schijven (WD EARX en Samsun F4) 4kB-sectors hebben en dit van invloed kan zijn op je performance. Nu ga ik voor een Raid-Z1 opstelling en zou dit minder moeten spelen. Of loont het toch om voor bijvoorbeeld een Hitachi Deskstar 5K3000 met 512B sector size te gaan?

Daarnaast zou ik graag spindown doen op mijn zpool en komt er een kleine losse HD bij. Nu kan ik een simpele kleine klassiek HD plaatsen maar ik begrijp dat met SSD mogelijk winst valt te behalen. Geeft het veel performance winst als ik hiervoor een SSD neem en hierop ook een SLOG en L2ARC partitie aanmaak? Of hebben deze een dedicated HD nodig? En breng ik dan de betrouwbaarheid van mijn zool niet in gevaar ivm het mogelijk falen van de SSD?
De schijven met 4kb is geen probleem als je een 3 raidz opstellen maakt. Dit komt uitgebreid aan bod in het ZFS topic.

De vraag is hoeveel winst je wilt halen. Met drie schijven kan je ook al goed een gigabit lijn voltrekken. SSD's hebben dan niet direct een toegevoegde waarde. Wil je meer dan gigabit snelheden halen en heb je daar ook de hardware voor dan is het wel handig om het te overwegen. Als je veilig een SSD SLOG wilt toevoegen moet je wel een pool aanmaken met v19 of hoger. Bij eerdere versies raakt je pool corrupt als je SLOG faalt. Bij een L2ARC maakt dat niet uit.

Je dedicated HD vraag snap ik niet helemaal. In ZFS ondersteund je SSD je pool en je zou je OS gewoon ook op je SSD kunnen installeren. Als je een nieuwe schijf moet kopen voor je NAS dan kan je dus overwegen om dat gelijk een SSD te laten zijn, dan zit je voor de toekomst ook goed. Als je al schijven hebt, dan is een SSD niet altijd een meerwaarde. Als je voor een SSD kiest, lees dan het ZFS topic eens goed door want het kan nogal uitmaken welk merk/type je neemt.

Sinds de 2 dagen regel reageer ik hier niet meer


  • mca2
  • Registratie: Augustus 2000
  • Laatst online: 20-12 02:16
CurlyMo schreef op zondag 15 januari 2012 @ 11:08:
[...]


De schijven met 4kb is geen probleem als je een 3 raidz opstellen maakt. Dit komt uitgebreid aan bod in het ZFS topic.

De vraag is hoeveel winst je wilt halen. Met drie schijven kan je ook al goed een gigabit lijn voltrekken. SSD's hebben dan niet direct een toegevoegde waarde. Wil je meer dan gigabit snelheden halen en heb je daar ook de hardware voor dan is het wel handig om het te overwegen. Als je veilig een SSD SLOG wilt toevoegen moet je wel een pool aanmaken met v19 of hoger. Bij eerdere versies raakt je pool corrupt als je SLOG faalt. Bij een L2ARC maakt dat niet uit.

Je dedicated HD vraag snap ik niet helemaal. In ZFS ondersteund je SSD je pool en je zou je OS gewoon ook op je SSD kunnen installeren. Als je een nieuwe schijf moet kopen voor je NAS dan kan je dus overwegen om dat gelijk een SSD te laten zijn, dan zit je voor de toekomst ook goed. Als je al schijven hebt, dan is een SSD niet altijd een meerwaarde. Als je voor een SSD kiest, lees dan het ZFS topic eens goed door want het kan nogal uitmaken welk merk/type je neemt.
Ik heb het ZFS topic inmiddels ook gespot :) Maar ok, dan worden het gewoon Samsung F4's.

Ik denk eerlijk gezegd dat voor mijn thuis toepassing niet veel winst nodig is maar ik heb toch een losse HD nodig voor de spindown. Ik heb geen recente hardware liggen, dus ik zal alles nieuw aanschaffen en als we dan toch bezig zijn. Ik vroeg me toen af of ik een fysiek aparte HD nodig heb voor SLOG/L2ARC maar lees net in het ZFS-topic dat dat alles op een SSD kan zolang je hier maar voldoende vrije ruimte houdt ivm de snelheden. Dat zou dan een 80GB intel 320 worden ivm de controller en supercaps.

Tenslotte zou het FreeBSD 9.0 (vers van de pers) worden met v28, dan zou mijn zpool heel moeten blijven als de SLOG faalt. Nu nog even speuren of FreeBSD overweg kan met de onboard Realtek 8111, schijnt onder linux al een redelijk drama te zijn.

Nu alleen nog proberen te achterhalen welke van de A50M bordjes het zuinigst is.

[ Voor 0% gewijzigd door mca2 op 01-03-2013 21:28 . Reden: verzoekje ]


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:48
mca2 schreef op zondag 15 januari 2012 @ 11:39:
[...]
Nu nog even speuren of FreeBSD overweg kan met de onboard Realtek 8111.
Heb deze controller in mijn NAS (FreeBSD), Desktop & Laptop (beide Windows 7) zitten en hij werkt op alle systemen prima. Alleen doet de leessnelheden van de NAS naar Windows zijn niet optimaal, maar dat is een Windows probleem.

Sinds de 2 dagen regel reageer ik hier niet meer


  • mca2
  • Registratie: Augustus 2000
  • Laatst online: 20-12 02:16
CurlyMo schreef op zondag 15 januari 2012 @ 12:29:
[...]

Heb deze controller in mijn NAS (FreeBSD), Desktop & Laptop (beide Windows 7) zitten en hij werkt op alle systemen prima. Alleen doet de leessnelheden van de NAS naar Windows zijn niet optimaal, maar dat is een Windows probleem.
Goed te horen. Ik las hier, dat die 8111 nogal wat packets wou droppen tenzij je de realtek driver genbruikt. Maar dat artikel is van 2009, allicht is het een en ander verbeterd in linux en FreeBSD.

Weet iemand trouwens waar je het verbruik van de diverse A50M borden kan zien?

[ Voor 1% gewijzigd door mca2 op 01-03-2013 21:29 . Reden: verzoekje ]


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
#ProductPrijsSubtotaal
1Intel Celeron G530 Boxed€ 37,74€ 37,74
4Western Digital Caviar GreenPower WD20EARS, 2TB€ 121,70€ 486,80
1Cooler Master Elite 310€ 29,-€ 29,-
1be quiet! Pure Power L7 350W€ 36,95€ 36,95
1OCZ Vertex Plus Sata II 2,5" SSD 30GB€ 43,79€ 43,79
1Corsair CMV4GX3M1A1333C9€ 18,35€ 18,35
1Asrock H61DE/S3€ 64,90€ 64,90
Bekijk collectie
Importeer producten
Totaal€ 717,53

Deze setup heb ik tijd terug gemaakt.

Kwa voeding/kast/geheugen/opslag/moederbord zit het denk wel goed. Ben daar wel tevreden met de keuzes, en heb nog geen betere optie gezien (Voor soortgelijk bedrag)

Enkel ik heb 2 puntjes waar ik bij twijfel. Ik had eerst deze processor gekozen:
pricewatch: Intel Pentium G620
+ Deze SSD
pricewatch: Transcend TS8GSSD25H-M 8GB

Enkel is de SSD bij azerty site eraf gehaald, en goedkoopste is nu bijna 2x zo duur.
Dus ben even rond gaan kijken. Ik kwam nu op deze processor:
pricewatch: Intel Celeron G530 Boxed
+ Deze SSD
pricewatch: OCZ Vertex Plus Sata II 2,5" SSD 30GB

Processor is slechts 0,2GHz langzamer, terwijl prijs verschil redelijk groot is (In verhouding)
En buiten dat heb ik een snellere SSD gekozen.

Mijn 2 vragen zijn.
Wat zou ik beter kunnen kiezen.
Snellere processor of snellere SSD erin.
Benchmarks van G620 ben ik tegenkomen, maar nog niet van de G530.

En 2de vraag is, ga ik de snelheid van SSD echt merken.
Ik heb nog 2 HD's liggen bedacht ik me net, die zou ik ook eventueel als OS disk kunnen gebruiken.
Alleen is SSD wel sneller, zuiniger en betrouwbaarder dan deze HD's die al meer dan 4 jaar oud zijn.

  • EJPostema
  • Registratie: December 2010
  • Laatst online: 09-12-2024
Waar wil je de nas voor gebruiken? de celeron 530 is in veel gevallen iig krachtig genoeg.

De SSD zou ik je sterk afraden. Neem een SSD zonder sandforce controller. deze controllers kennen veel problemen en zijn niet echt betrouwbaar

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Voor:
- Nieuwsgroepen/torrents/dlna/streamen/backup/raid 5.

Heel mss virtualisatie in de toekomst, maar dat is 1 client dan.
Zou geheugen nog flink kunnen uitbreiden van 1x4 naar 4x4GB.

Zelf ben ik nog leek op het gebied van SSD.
Zoek een SSD voor rond de 16GB. Enkel Ubuntu server hoeft er op te draaien, download directory is denk meteen RAID5 setup, of zet daartussen nog een extra hardeschijf zodat RAID setup niet gebruikt hoeft te worden tijden download. Kost stukken minder stroom.

Ik ga er nog wel even op google, want die 30GB SSD vind ik wel erg mooi en vooral kwa ruimte zou hier nog eventueel een vmware op kunnen draaien.

8GB wordt krap als ik linux ook via GUI wil gebruiken en niet alleen via de command line.

[ Voor 19% gewijzigd door Dennisik op 15-01-2012 15:13 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Uh, dan heb je toch iets verkeerds in gedachten... Een kale X kan je al hebben met 150MB (Zie Damn Small Linux). Als je de standaard zooi van KDE / GNOME installeerd heb je inderdaad wel meer nodig.
Maar voor een beetje standaard server beheer, heb je dat allemaal niet nodig, dus kan je met veel minder toe.
XFCE is bijvoorbeeld ook al veel lichter.

Even niets...


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
FireDrunk schreef op zondag 15 januari 2012 @ 15:38:
Uh, dan heb je toch iets verkeerds in gedachten... Een kale X kan je al hebben met 150MB (Zie Damn Small Linux). Als je de standaard zooi van KDE / GNOME installeerd heb je inderdaad wel meer nodig.
Maar voor een beetje standaard server beheer, heb je dat allemaal niet nodig, dus kan je met veel minder toe.
XFCE is bijvoorbeeld ook al veel lichter.
Wou gewoon een volledige versie van Ubuntu 10.4 erop aan het zetten. Die paar euro meer voor een SSD met 30GB neem ik dan voor lief, zo zal ik in de toekomst iig niet tegen problemen aan lopen als ik er nog wat anders wil op zetten mbt tot het OS.

  • EJPostema
  • Registratie: December 2010
  • Laatst online: 09-12-2024
eigenlijk heeft alleen intel kleine goede ssd's, maar voor hetzelfde geld heb je ook een 64gig crucial/samsung.

Ik vraag me af hoeveel nut een SSD heeft in een NAS trouwens. Je nas staat toch 24/7 aan. Dus snel opstarten is het niet echt voor nodig. Ik zou lekker een usb stick nemen ofzo

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
EJPostema schreef op zondag 15 januari 2012 @ 16:41:
eigenlijk heeft alleen intel kleine goede ssd's, maar voor hetzelfde geld heb je ook een 64gig crucial/samsung.

Ik vraag me af hoeveel nut een SSD heeft in een NAS trouwens. Je nas staat toch 24/7 aan. Dus snel opstarten is het niet echt voor nodig. Ik zou lekker een usb stick nemen ofzo
Ik moet er maar nog eens over nadenken. Duurt toch nog even tot cat6 spul binnenkomt uit china :')

NAS staat denk niet 24/7 aan, vandaar dat een snelle boot wel handig is.
Goedkope HD van 100GB zou ook volstaan, kan dan daarop downloaden ipv van telkens de RAID5 configuratie aan te spreken wat veel energie kost.

  • NoepZor
  • Registratie: Maart 2003
  • Laatst online: 22-12 14:11
Ik heb momenteel een status at risk op een schijf in mijn raid 5 array volgens RST. Met een andere tool de smart data achterhaald en nu blijkt er een disk te zijn welke volgens smart iets fout heeft met de re-allocated sector count. Hoe ernstig is dit? Ik heb nog gewoon garantie op de schijf, dus dat is het probleem niet, maar qua kans op helemaal falen?

Afbeeldingslocatie: http://i39.tinypic.com/2d763wz.png

De wijzen komen uit het Oosten!


Verwijderd

4000 bad sectors = RMA, duidelijk. :)

  • NoepZor
  • Registratie: Maart 2003
  • Laatst online: 22-12 14:11
Bedankt voor je antwoord, ik vermoedde dit al, maar kon zo uit google niet hard maken hoeveel sectors er nu kapot zijn en wat de gevolgen zijn (corrupte data? schijf die er binnenkort mee kapt?) etc :)

De wijzen komen uit het Oosten!


  • floriske.nl
  • Registratie: Januari 2002
  • Laatst online: 11-11 18:43

floriske.nl

Wie ik? Echt niet!

Momenteel heb ik twee stuks CH3SNAs draaien thuis (Gb netwerk) en ik zit er vanwege de lage transfer rates aan te denken deze te vervangen door een zelfbouw nas.

#ProductPrijsSubtotaal
1Asus E35M1-I€ 99,70€ 99,70
1Lian Li PC-Q08B€ 86,60€ 86,60
1be quiet! Pure Power L7 300W€ 34,85€ 34,85
1G.Skill Ripjaws X F3-12800CL9D-8GBXL€ 39,50€ 39,50
Bekijk collectie
Importeer producten
Totaal€ 260,65


En dit geheel dan voorzien van 4 schijven (jbod) en Freenas.
Aanvulling: 2 hoofdschijven en 2 backup schijven(later uit te breiden naar 3-3) waar mbv een rsync/snapshot script dagelijks een backup gedraait wordt. Schijven zijn momenteel EXT2 geformatteerd.
CurlyMo schreef op maandag 09 januari 2012 @ 22:12:
[...]

....Wil je ZFS draaien en redelijk wat tweaken met eigen scripts, dan kan je ook nog ZFSguru overwegen. Die draait gewoon een normale volledige FreeBSD zodat het wat makkelijker aan te passen is. Hetzelfde geldt voor bijv. het installeren van je eigen torrent cliënt e.d. Allemaal wat makkelijker in ZFSguru.
De post van CurlyMo heeft me aan het twijfelen gebracht of ik FreeNAS, FreeBSD of ZFSguru ga draaien. ZFS is geen vereiste aangezien de schijven momenteel EXT2 geformatteerd zijn en ik deze eigenlijk 1 op 1 over wil zetten.

Het is echter zo dat ik op wat basis zaken na geen linux ervaring heb en niet de tijd heb om me uitgebreid in een os te gaan verdiepen.

Het geheel hoeft enkel als fileserver te functioneren met eventueel upnp/dlna functionaliteit en een nzb client en ik vroeg me dan ook af of FreeNAS hiervoor niet simpelweg voldoende is?
Of wellicht dat FreeBSD of ZFSguru in jullie ogen vrij eenvoudig eigen te maken is?

  • CaptJackSparrow
  • Registratie: Februari 2009
  • Niet online

CaptJackSparrow

x07 - License to Tweak.

NoepZor schreef op zondag 15 januari 2012 @ 17:44:
Met een andere tool de smart data achterhaald...
Mag ik even vragen welk tooltje dat was? :)

SMART data uit RAID arrays lezen is notoir lastig en kunnen de meeste tools niet.

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 22-12 08:23

Demo

Probleemschietende Tovenaar

CaptJackSparrow schreef op dinsdag 17 januari 2012 @ 13:23:
[...]

Mag ik even vragen welk tooltje dat was? :)

SMART data uit RAID arrays lezen is notoir lastig en kunnen de meeste tools niet.
Tenzij het een software RAID is, dan kan je gewoon de devices aanspreken.

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
#ProductPrijsSubtotaal
1Fractal Design Define XL USB 3.0 Black Pearl€ 121,-€ 121,-
1Adata Superior S102 USB3.0 16GB Grijs€ 23,74€ 23,74
5Hitachi Deskstar 5K3000, 3TB€ 173,90€ 869,50
1Scythe Mugen 2 Rev. B€ 32,02€ 32,02
4Scythe Gentle Typhoon D1225C12B5AP-15 (1850 rpm) , 120mm€ 11,90€ 47,60
2Kingston HyperX KHX1600C9S3K2/8GX€ 44,91€ 89,82
1Intel Core i3 2130€ 124,85€ 124,85
1be quiet! Straight Power E9 400W€ 67,-€ 67,-
1MSI Z68A-G43 (G3)€ 99,61€ 99,61
Bekijk collectie
Importeer producten
Totaal€ 1.475,14


Bovenstaand heb ik een DIY Nas samengesteld, lekker low energy, vandaar ook de fans van Scythe die niet in 140 mm verkrijgbaar zijn.

USB voor het OS.

Ik ga er waarschijnlijk Freenas op draaien doordat ZFS met een geweldig Filesystem lijkt.

Hoor graag jullie mening.

Heeft iemand wellicht nog tips

[ Voor 194% gewijzigd door 3d0zer op 17-01-2012 16:12 ]


Verwijderd

floriske.nl schreef op dinsdag 17 januari 2012 @ 12:21:
De post van CurlyMo heeft me aan het twijfelen gebracht of ik FreeNAS, FreeBSD of ZFSguru ga draaien. ZFS is geen vereiste aangezien de schijven momenteel EXT2 geformatteerd zijn en ik deze eigenlijk 1 op 1 over wil zetten.

Het is echter zo dat ik op wat basis zaken na geen linux ervaring heb en niet de tijd heb om me uitgebreid in een os te gaan verdiepen.

Het geheel hoeft enkel als fileserver te functioneren met eventueel upnp/dlna functionaliteit en een nzb client en ik vroeg me dan ook af of FreeNAS hiervoor niet simpelweg voldoende is?
Of wellicht dat FreeBSD of ZFSguru in jullie ogen vrij eenvoudig eigen te maken is?
Het voordeel van ZFSguru is dat je makkelijker dan FreeNAS extra functionaliteit kunt toevoegen, zoals je nzb client en mediastreaming. Je kunt beide ook even uitproberen in Virtualbox om te zien waar je je het meest vertrouwd mee voelt. Ik werk zelf mee aan ZFSguru en ondanks dat dit het jongste project is, heeft het vele voordelen boven andere distributies. Het grote voordeel van ZFSguru is dat het op normaal FreeBSD is gebaseerd, en je dus alles met ZFSguru kan wat je ook op FreeBSD kan. Je kunt het dus als een FreeBSD-installatie beschouwen, en andere dingen gewoon via de web-interface doen. Over specieke vragen kun je wellicht beter in het ZFS topic posten. :)

Kan al wel vast verklappen dat de nieuwe LiveCD met FreeBSD 9.0-RELEASE vandaag uit zou moeten komen. 8)

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:48
@CiPHER, weet je ook of de nieuwe versie een upgrade mogelijkheid biedt vanaf FreeBSD 8.2?

Sinds de 2 dagen regel reageer ik hier niet meer


Verwijderd

Heb mijn reactie in het ZFS topic geplaatst: Het grote ZFS topic :)

[ Voor 92% gewijzigd door Verwijderd op 17-01-2012 16:45 ]


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 23:01

mphilipp

Romanes eunt domus

Ik zie dat je tegenwoordig in Ubuntu ook native ZFS kan draaien. Het is dan niet helemaal de nieuwste versie (28 uit het hoofd; zraid is wel up to date), maar volgens mij is dat geen groot drama. Ik heb nu de NAS gevuld met 6 2TB disks in RAID6 (MDADM, XFS). Stel dat ik over zou gaan, ga ik er op vooruit op het gebied van snelheid? Is ZFS sneller dan XFS/MDADM RAID6? Of kun je dat zo niet zeggen?

Ik heb er een quadcore AMD64 in zitten en nu zit er 2Gb geheugen in, maar dat kan voor een paar tientjes 8Gb worden. Op zich zou ie dan goed genoeg moeten zijn voor ZFS. Maar ik wil dat alleen maar doen als ik er op vooruit ga in performance of in ieder geval niet achteruit.

Dat ZFS superieur is snap ik onderhand wel, maar dat is voor mij an sich geen reden om over te gaan. Dat management makkelijker/beter is, vind ik geen reden (voor mij dan). Ik zit immers niet de hele dag die array te managen (bewaar me). Het moet voor mij een fire and forget systeem zijn. Dat is het nu ook.

En nee, ik ga niet naar FreeBSD ;)

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:48
Zover ik weet is native ZFS linux nog steeds niet stabiel. "Please keep in mind the current 0.5.2 stable release does not yet support a mountable filesystem". Dat is dus een groot nadeel en daarom zou ik nog steeds niet voor ZFS kiezen op Linux.

Voor mij is het belangrijkste van mijn NAS, de betrouwbaarheid en daarna pas de snelheid. Daarom ook de keuze voor ZFS. Op dit moment trek ik mijn gigabit lijn vol dus of dat nu met 3 schijven RAIDZ is of met een 6 disk RAID6, dan zal niet uitmaken. Dat zal dus in jouw geval helemaal geen probleem moeten vormen.

Ik ben wel benieuwd waarom je geen FreeBSD zou willen draaien?

Sinds de 2 dagen regel reageer ik hier niet meer


  • nielsdc
  • Registratie: Juni 2011
  • Laatst online: 19-07 18:49
CurlyMo schreef op dinsdag 17 januari 2012 @ 18:02:
Zover ik weet is native ZFS linux nog steeds niet stabiel. "Please keep in mind the current 0.5.2 stable release does not yet support a mountable filesystem". Dat is dus een groot nadeel en daarom zou ik nog steeds niet voor ZFS kiezen op Linux.
Je vergeet de volgende zin te vermelden: This functionality is currently available only in the 0.6.0-rc6 release candidate. Volgens mij gebruikt niemand de 0.5.2 release.

ZFS on Linux is stabiel zolang je geen compressie of dedup gebruikt! Al mijn data staat op ubuntu/ZFS en ik heb 0 problemen gehad. Met de zfs on linux ppa is het ook super makkelijk te gebruiken.

Ik kwam er door ZFS achter dat mijn vorige hardware niet 100% stabiel was (scrub errors), zonder ZFS was ik daar waarschijnlijk niet makkelijk achter gekomen. Daarnaast heb je de standaard ZFS voordelen zoals snapshots, gepoolde storage etc.

Mijn systeem + performance staat in het 10TB+ topic.

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 23:01

mphilipp

Romanes eunt domus

PietjePuk schreef op dinsdag 17 januari 2012 @ 18:02:
Zover ik weet is native ZFS linux nog steeds niet stabiel. "Please keep in mind the current 0.5.2 stable release does not yet support a mountable filesystem". Dat is dus een groot nadeel en daarom zou ik nog steeds niet voor ZFS kiezen op Linux.
Wat is een mountable filesystem? Het idee van een filesysteem is toch dat je iets kan mounten? Ik ben heel simpel: ik heb een array en die wil ik mounten als /storage. Punt. Daar ga ik dan dingetjes mee doen. Geen toestanden met snapshots, dedup, encryptie of compressie.
Voor mij is het belangrijkste van mijn NAS, de betrouwbaarheid en daarna pas de snelheid.
Wat ik nu heb is betrouwbaar genoeg. Dus als ik op iets anders over ga, moet ik daar een voordeel uit halen. Ik draai al jaren met een Linux server waarbij ik de disks gebruik als storage voor mijn andere pc's en ik heb daar nooit enig probleem mee gehad. Dingen als dat het veiliger of 'beter' zou zijn maken dus momenteel even niet uit voor mij. Er zijn wel meer dingen beter, maar die doe ik ook niet.
Ik ben wel benieuwd waarom je geen FreeBSD zou willen draaien?
Om daarom :+ Ik heb er geen zin in. Ik gebruik nu Ubuntu en ik draai daar mijn pakketjes op en daar kan ik mee overweg. En met FreeBSD moet ik weer gaan kloten om dat aan de praat te krijgen. Ook al zeg jij nu dat ik dat weetikwat moet doen om Ubuntu met FreeBSD kernel te gaan draaien, ik doe het niet.
En zonder vervelend te willen klinken, wil ik er ook niet over debatteren. Het is mijn keuze.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:48
mphilipp schreef op dinsdag 17 januari 2012 @ 19:10:
Wat is een mountable filesystem? Het idee van een filesysteem is toch dat je iets kan mounten? Ik ben heel simpel: ik heb een array en die wil ik mounten als /storage. Punt. Daar ga ik dan dingetjes mee doen. Geen toestanden met snapshots, dedup, encryptie of compressie.
ZFS bestaat uit twee delen: zpool & zfs. Als ik het goed zeg regelt de eerste de samenwerking tussen de schijven tot een RAID array. Op deze array zul je vervolgens nog filesystem moeten zetten. Net zoals bij MDADM je schijven samenvoegt tot MD0. Het zfs gedeelte is de filesysteem dat zorgt voor compressie, snapshots, dedup enz. Op dit moment is het eerste gedeelte de pool helemaal stabiel. Het tweede nog niet. Je kunt dus wel een zpool aanmaken en daar vervolgens XFS of EXT2,3,4 op draaien maar dan heb je nog maar de helft van je ZFS oplossing. Dat heeft dus niet echt een meerwaarde.
Wat ik nu heb is betrouwbaar genoeg. Dus als ik op iets anders over ga, moet ik daar een voordeel uit halen. Ik draai al jaren met een Linux server waarbij ik de disks gebruik als storage voor mijn andere pc's en ik heb daar nooit enig probleem mee gehad. Dingen als dat het veiliger of 'beter' zou zijn maken dus momenteel even niet uit voor mij. Er zijn wel meer dingen beter, maar die doe ik ook niet.

[...]

Om daarom :+ Ik heb er geen zin in. Ik gebruik nu Ubuntu en ik draai daar mijn pakketjes op en daar kan ik mee overweg. En met FreeBSD moet ik weer gaan kloten om dat aan de praat te krijgen. Ook al zeg jij nu dat ik dat weetikwat moet doen om Ubuntu met FreeBSD kernel te gaan draaien, ik doe het niet.
En zonder vervelend te willen klinken, wil ik er ook niet over debatteren. Het is mijn keuze.
Dat "Ubuntu met FreeBSD kernel" begrijp ik niet helemaal :? Ik kan alleen maar zeggen dat de overstap tussen Linux (waar ik ook op begonnen ben) en FreeBSD (en Solaris) maar heel klein vindt. Maar de keus is inderdaad aan jou.

Sinds de 2 dagen regel reageer ik hier niet meer


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 23:01

mphilipp

Romanes eunt domus

JanJanssen schreef op dinsdag 17 januari 2012 @ 19:18:
[...]
Dat "Ubuntu met FreeBSD kernel" begrijp ik niet helemaal
Voor watjes zoals ik die geen zin hebben om alles met de hand te doen, is er blijkbaar de mogelijkheid om Ubuntu met de FreeBSD kernel te draaien. Dan kun je gewoon de Ubuntu/Debian packages blijven gebruiken. Maar ik heb me er totaal niet in verdiept en ik heb gewoon de indruk dat FreeBSD veel te veel gedoe is. Ik heb die doos uiteindelijk draaien om te gebruiken, en niet om mee te spelen. Ik snap dat het met wat gewenning allemaal te doen is, maar ik heb er geen zin in. Ik wil thuis niet ook nog beheerdertje gaan spelen. Gewoon mijn porno downloaden op dat ding en klaar... :+

Maar goed, voordat we hier een brede maatschappelijke discussie krijgen over hoe ongelijk ik wel niet heb en waarom ik wel FreeBSD zou moeten gebruiken wil ik het hierbij laten.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 23:01

mphilipp

Romanes eunt domus

nielsdc schreef op dinsdag 17 januari 2012 @ 19:00:
[...]
Mijn systeem + performance staat in het 10TB+ topic.
Ik heb even gekeken en jouw systeem is inderdaad een stuk sneller. Maar ja...dat kan natuurlijk door hele andere dingen komen als alleen ZFS. Uiteraard heb ik me er wel een beetje in verdiept en ik begrijp dat het gebruik van een SSD voor de ZIL en de L2ARC erg veel goede dingen kan doen voor de performance. Dat zou dus iets zijn om te overwegen.

Is er in het algemeen iets te zeggen over de performance van ZFS tov MDADM? Hoe is het bv als er verschillende processen tegelijk op die array aan het rossen zijn? Er wordt bv gedownload met SABnzb, en als die nou lekker bezig is: 1 actieve download, een andere is aan het parren of rarren en stel dat ik dan ook nog eens iets van die plek ga kopiëren. btw: momenteel heb ik 2 arrays. Een kleine met 2disks in stripe en de grote storage array in raid6. De kleine is voor downloads en de andere puur opslag. Dat om de load te spreiden.
Uiteindelijk is de performance van die kleine gestripte array teleurstellend. Die loopt ook via de onboard controllers en die stellen vrij weinig voor. De raid6 array is sneller dan die kleine array, dat zegt genoeg.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Voor kleine random writes is SSD-cache wel handig, maar je moet je afvragen hoevaak dat gebeurt op een array waar voornamelijk grote bestanden worden bewaard. Ook als er heel vaak dezelfde stukken data worden gelezen is het goed voor de performance, maar ook dat is meer serverwerk dan echt data-storage in bulk.

Mijn MDADM raid6 array met 9 schijven doet overigens 800MiB/s lezen sequentieel en 450 schrijven. Lijkt me meer dan genoeg. Als ik al naar ZFS zou willen (op zich best wel) en kunnen (neen, want het is ook mijn HTPC), dan zou dat puur om betrouwbaarheidsredenen zijn en niet voor de performance. Sterker nog, ik verwacht er qua leessnelheid een stuk op achteruit te gaan. Dat gezegd hebbende is FreeBSD echt een prima OS!

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 23:01

mphilipp

Romanes eunt domus

HarmoniousVibe schreef op dinsdag 17 januari 2012 @ 20:40:
Mijn MDADM raid6 array met 9 schijven doet overigens 800MiB/s lezen sequentieel en 450 schrijven.
Hmmm...dan doe ik ergens toch nog iets fout... :+ Toch eens uitzoeken waar het lek zit dan. Hoewel...waarmee heb je dat getest? Misschien wel handig als we dezelfde test gebruiken natuurlijk.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Ik ben ook wel benieuwd. Ik heb 8 schijven in RAID6 en kom (met _heel_ veel tuning) maar net aan de 500MB/s lezen en 300MB/s schrijven.

Even niets...


  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
Hi there,

Ik zal mijn vraag wat specifieker stellen, wellicht willen jullie ermee helpen?

Onderstaande lijst heb ik samengesteld voor een NAS. :o

Wil daar uiteindelijk twee pools ZFS van 5 schijven op kunnen draaien.

Mijn vraag: Is een 400 W voeding (Zie lijstje) daarvoor voldoende, of moet ik naar een zwaardere uitvoering gaan?

#ProductPrijsSubtotaal
1Fractal Design Define XL USB 3.0 Black Pearl€ 121,-€ 121,-
1Corsair Flash Voyager CMFVY3S-16GB 16GB Zwart€ 20,-€ 20,-
10Hitachi Deskstar 5K3000, 3TB€ 173,90€ 1.739,-
1Scythe Mugen 2 Rev. B€ 32,02€ 32,02
4Scythe Gentle Typhoon D1225C12B5AP-15 (1850 rpm) , 120mm€ 11,90€ 47,60
1Arctic Silver Silver 5 - 3.5 Gram€ 5,46€ 5,46
1Intel Core i3 2120 Boxed€ 109,80€ 109,80
1be quiet! Straight Power E9 400W€ 67,-€ 67,-
2Kingston HyperX KHX1600C9D3K2/8G€ 41,90€ 83,80
1MSI Z68A-G43 (G3)€ 99,61€ 99,61
Bekijk collectie
Importeer producten
Totaal€ 2.340,19

[ Voor 7% gewijzigd door 3d0zer op 17-01-2012 21:48 ]


  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 22-12 09:56
meer dan zat

  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
Hoe licht zou je kunnen gaan met betrekking tot voeding in een dergelijke setup denk je?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Die 3TB disks trekken (volgens de specs van Hitachi) 30W bij startup, dat is *behoorlijk* veel.
10 disks van 30W zonder staggerd spinup levert je dus een piek op van 300W.
Je CPU en consorten doen niet echt super veel bij boot (1 core word meestal maar belast, dus <25% vermogen).
Idle doen de disks: 4.8W (* 10 maakt ~50W voor je disks).

Dan is 400W weer super veel. Staggered spinup zou in jou geval dus erg helpen.

Waar wil je de disks op aansluiten?

Even niets...


  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
Hmm dat klopt inderdaad.

Aansluiten denk ik via SATA Port Multiplyers.

Ik begin met 5 schijven in 1 pool en wil dat kunnen uitbreiden naar 10 in 2 pools, maar dan niet meteen de hele hardware te hoeven vervangen.

Heb jij er wellicht tips voor hoe dit aan te pakken?

Heb trouwens nog gekeken of er virtualisatie kon worden gedraaid met dit MB echter in de whitelists komen weinig spannende boards voor met een Z68 Chipset. Lastig om daar een inschatting van te maken.

Zie Link voor de HCL

[ Voor 22% gewijzigd door 3d0zer op 17-01-2012 22:02 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Waarom wil je persé Z68?

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
FireDrunk schreef op dinsdag 17 januari 2012 @ 21:40:
Ik ben ook wel benieuwd. Ik heb 8 schijven in RAID6 en kom (met _heel_ veel tuning) maar net aan de 500MB/s lezen en 300MB/s schrijven.
XFS tuning. Heb hem al vaker gepost:

defaults,user,exec,noatime,sunit=1024,swidth=7168,swalloc,allocsize=1g,largeio,inode64,logbufs=8,logbsize=256k
. Vooral inode64 doet héél veel voor de performance, evenals de sunit en swidth. Sunit moet je afstellen op chuck/512 en swidth = sunit/datadisks.

512K chunk size, 9 disks in raid6 = 512K/512=1024
(9-2)*1024=7168.

Ook helpt het om xfs_fsr in je cron.daily te plaatsen. Met
xfs_db -c frag -r /dev/mdX
kun zien of het hard nodig is.

Verder is mijn hardware alles behalve spannend: MSI 790XT, Sempron 140, 2GB DDR2, LSI 3081E-R, 9 x WD20EARS Green. Niet echt heel bijzonder dus. Mijn tweaks overiges ook niet (vrij breed uitgemeten op de interwebs), dus het verbaast me dat andere mensen dat ook niet halen.

[ Voor 23% gewijzigd door HarmoniousVibe op 17-01-2012 22:14 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
Had een paar wensen:
  • PCI-e 3.x 16x
  • USB 3.0
  • Socket 1155 voor de i3
  • minimaal 6 sata aansluitingen
  • ATX formaat (Komt in een tower en is niet zo een gepriegel)
  • Informatique moet het board in de handel hebben (dit ivm de rest van mijn systeem en mijn bedrijf, je moet dan heel het systeem ergens kopen anders krijg je geen investeringsaftrek).
  • Ethernet 1Gbps
Z68 is verder de laatste chipset, misschien zou ik het nog nodig hebben in de toekomst mbt mogelijkheden overclocking enz.

Maar goed, het is en blijft een NAS/Servertje dus dat is niet echt doorslaggevend.

Again, tips zijn welkom, ben hier absoluut geen expert in. :X

[ Voor 14% gewijzigd door 3d0zer op 17-01-2012 22:14 ]


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Lol, overclocking is wel het allerlaatste wat je moet gaan doen.

edit: aha, op die fiets.

[ Voor 17% gewijzigd door HarmoniousVibe op 17-01-2012 22:15 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
HarmoniousVibe schreef op dinsdag 17 januari 2012 @ 22:13:
Lol, overclocking is wel het allerlaatste wat je moet gaan doen.
Was meer bedoelt voor als het board een keer in een ander systeem komt.. De vrijheid die je er dan mee hebt oid ;)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
Tja, persoonlijk denk ik dat je het geld wat je daarmee zou besparen verliest omdat het Z68 chipset niet echt zuinig is. Maar exacte data heb ik nog even niet bij de hand... Z68 word niet zoveel getest op zuinigheid :P

Even niets...


  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
FireDrunk schreef op dinsdag 17 januari 2012 @ 22:17:
Tja, persoonlijk denk ik dat je het geld wat je daarmee zou besparen verliest omdat het Z68 chipset niet echt zuinig is. Maar exacte data heb ik nog even niet bij de hand... Z68 word niet zoveel getest op zuinigheid :P
Ok dan.. Een H67 Chipset zou wellicht voordeliger zijn denk je?
Scheelt inderdaad wel in prijs mbt Moederbords

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

En wijzer. Misschien een P67 à la limite. Als je deftig gigabit wilt zit je zo goed als vast aan een Intel-moederbord, tenzij je voor een aparte NIC gaat.

[ Voor 13% gewijzigd door Borromini op 17-01-2012 22:22 ]

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
PCIe 3.0 word dan wel lastig volgens mij, maar persoonlijk denk ik dat dat echt geen fluit uitmaakt. De bandbreedte van PCIe 2.0 word nog lang niet gehaald volgens mij, tenzij je een ATi 7990 x2 wil kopen (mocht die ooit komen...)

Even niets...


  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
Ook weer een goede tip, had ik nog niet aan gedacht van die Intel Netwerkkaart...

Hoorde inderdaad al dat het een betere netwerkperformance geeft

  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
FireDrunk schreef op dinsdag 17 januari 2012 @ 22:24:
PCIe 3.0 word dan wel lastig volgens mij, maar persoonlijk denk ik dat dat echt geen fluit uitmaakt. De bandbreedte van PCIe 2.0 word nog lang niet gehaald volgens mij, tenzij je een ATi 7990 x2 wil kopen (mocht die ooit komen...)
Het is mij niet zozeer te doen om een grafische kaart erin te rammen, dus die optie hoef ik geen rekening mee te houden, was meer zoiets met een knipoog naar toekomstige ontwikkelingen.

  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
Borromini schreef op dinsdag 17 januari 2012 @ 22:22:
En wijzer. Misschien een P67 à la limite. Als je deftig gigabit wilt zit je zo goed als vast aan een Intel-moederbord, tenzij je voor een aparte NIC gaat.
Presteren die boards goed over het algemeen? Kan er hier niet zoveel over vinden.
Wel suf trouwens, die esata zorgt ervoor dat ik weer een lijnje van extern naar intern moet trekken voor de 6e satapoort mbt interne disks.

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 23:01

mphilipp

Romanes eunt domus

HarmoniousVibe schreef op dinsdag 17 januari 2012 @ 22:09:
[...]
XFS tuning. Heb hem al vaker gepost:
Ik heb dit geprobeerd, maar er kwam geen extra bit door de kabel heen...
Misschien een n00b vraag, maar ik stel 'm toch maar: die parameters, hadden die dan niet met het formatteren meegegeven moeten worden? Ik moet tot mijn schande bekennen dat ik geen idee meer heb hoe ik ze precies heb aangemaakt. Ik weet nog wel dat ik toen een of andere guide heb gevolgd van iemand die (deed alsof ie) er wel wat vanaf wist. Het zag er iig solide uit. Maar welke parameters ik precies heb meegegeven weet ik echt niet meer. Dom, ik had dat moeten vastleggen. |:(

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:48
FireDrunk schreef op dinsdag 17 januari 2012 @ 22:17:
Tja, persoonlijk denk ik dat je het geld wat je daarmee zou besparen verliest omdat het Z68 chipset niet echt zuinig is. Maar exacte data heb ik nog even niet bij de hand... Z68 word niet zoveel getest op zuinigheid :P
Ik draai hier ook op een Z68 en moet zeggen dat ik totaal weinig klachten heb qua zuinigheid. Mijn redenen waren SB + onboard GPU + 6x SATA. Daarnaast zou je zuinigheid kunnen creëren door je CPU te undervolten maar of dat perse verstandig is...

Alles draait op een PicoPSU 90w en dat werkt prima. Als je een 120w PicoPSU zou pakken (die ook makkelijk 150w kan pieken) je het met 5 schijven ook wel moet redden. Ik ga ze tegen die tijd gewoon proberen om nog 3 schijven toe te voegen aan mijn 90w. Deze kan namelijk ook makkelijk 120w pieken. Misschien dus ook goed idee om ook de HD204UI te overwegen. Die zijn een stuk zuiniger.

Sinds de 2 dagen regel reageer ik hier niet meer


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
SB + onboard GPU + 6 x sata kan met H67 en Q67 ook, daar heb je geen Z68 voor nodig.

Ben me ondertussen helemaal suf aan het testen met sunit en swidth, maar ik kom echt niet boven de 450/500MB/s lezen uit en niet boven de 300-325MB/s schrijven.

Wat ik wel zie is dat de IO Utilization in iotop varieert. Even de wiskunde :+ :
Ik heb 8 disks in RAID6 met 128k chunk size. Dat geeft mij een sunit van 256.
swidth = 6 * 256 = 1536.

/etc/fstab aangepast en daarna: mount /mnt/data -o remount gedaan.

IO utilization zit zonder sunit en swidth op 100% met sunit en swidth, zo rond de 70%.
Heb ook andere sunits en swidth geprobeerd, maar het maakt eigenlijk vrij weinig uit.
Wel lijken sommige waardes een iets stabieler IO te laten zien. Waar hogere sunit/swidth grote fluctuaties laten zien, laten lagere een stabielere maar lagere snelheid zien.

DD gebruikt overigens tot wel 45% van mijn dual quadcore... Wat ik overigens best bagger vind...

[ Voor 83% gewijzigd door FireDrunk op 17-01-2012 22:47 ]

Even niets...


Verwijderd

Informatique heeft een PicoPSU 150W met 150W DC voeding, als set voor rond de 75 euro ofzo. Het bijzondere hieraan is dat je er een sterke 150W DC voeding bij krijgt, die vrij zeldzaam zijn.

Hiermee kun je een middel-kleine filesystem van prik voorzien:

Systeem 50W (35W TDP + rest)
Schijven spinup 17W * 6 = 102W
Totaal 152W

Merk op dat veel brickvoedingen een piekspanning kennen, waarschijnlijk gebaseerd op warmtevorming (?), maar dat mag voor je spinup geen problemen opleveren (8 seconden ofzo). Dus PicoPSU met 6x Samsung F4EG 2TB schijven is mogelijk. Ook het +5V vermogen wat de PicoPSU moet omvormen, vormt geen belemmering heb ik eerder berekend.

Bedenk wel, andere schijven verbruiken meer dan de Samsung F4EG. Zie StorageReview voor wat exacte metingen.

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:48
Een andere topsite voor de PicoPSU combinaties is http://www.short-circuit.com/categories/powercombos.html. Zij gaan tot 200W combo's. Het interessants is de 160w Pico + 192w adapter. Genoeg buffer door het peak vermogen. De prijs van de 150/150 combo is 75 dollar, incl. verzending zal dit dus ongeveer op hetzelfde uitkomen als Informatique (die ze voor Nederlandse begrippen goedkoop aanbiedt).

Service van hun is ook super. Mijn adapter was kapot. Heb met na het mailen van een foto gratis een vervangend exemplaar toegestuurd gekregen.

Zover ik trouwens kan zien worden bij Informatique ook Streacom aangeboden (ook die 150w) wat een andere fabrikant is als MiniBox die de bekende gele & rode pico's maakt. Of dat consequenties heeft op de kwaliteit is natuurlijk de vraag.

[ Voor 18% gewijzigd door CurlyMo op 17-01-2012 23:21 ]

Sinds de 2 dagen regel reageer ik hier niet meer


  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
Dus met dit board van Intel zou ik eigenlijk alles al kunnen handelen?

Link naar het board

In hoeverre zal ik verschil merken tussen een onboard intel netwerkkaart of een ander merk?

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:48
Zoals eerder besproken heb ik totaal geen problemen met een gangbare RTL8111E netwerkkaart.

De vraag is hoeveel die netwerk kaart je waard is. Aan de ene kant kun je kiezen voor gelijk een top moederbord van Supermicro waarbij je ook gelijk een intel nic hebt pricewatch: Supermicro X9SCM

Aan de andere kant zijn er veel meer opties als je voor een gewoon consumenten bord gaat als je die intel nic wens loslaat. Eventueel kan je die er later los bij zetten pricewatch: Intel Gigabit CT Desktop Adapter. Dat kost de kop niet € 24 euro. Waarschijnlijk zul je geen problemen tegenkomen maar je speelruimte qua keuze wordt wel veel groter.

Sinds de 2 dagen regel reageer ik hier niet meer


  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
Thanks!

Waar ik een beetje naar zoek is wat voor voordeel aan een ander board zit dan een intel mbt een nas server.
Daar heb je toch behoefte aan een zeer stabiel netwerkkaartje toch?

En de intelboards zijn niet al te duur, eigenlijk zelfs goedkoop op het moment. Maar goed, wel redelijk kale boards, dat dan weer wel... Geen USB 3.0 op het board bijv voor te lussen naar de voorkant van de kast.. Alleen een externe op de achterkant van het board.

[ Voor 41% gewijzigd door 3d0zer op 17-01-2012 23:42 ]


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:48
Zoals gezegd heb ik nooit problemen ervaren dus ik weer niet wat je dan precies met stabiel bedoelt. Het enige probleem wat ik ervaar is dat Windows 7 geen volledige gigabit snelheden haalt bij lezen. Dat ligt dus meer aan Windows dan aan Realtek. Ik zou je Intel eis dus gewoon loslaten.

Sinds de 2 dagen regel reageer ik hier niet meer


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
mphilipp schreef op dinsdag 17 januari 2012 @ 22:29:
[...]

Ik heb dit geprobeerd, maar er kwam geen extra bit door de kabel heen...
Misschien een n00b vraag, maar ik stel 'm toch maar: die parameters, hadden die dan niet met het formatteren meegegeven moeten worden? Ik moet tot mijn schande bekennen dat ik geen idee meer heb hoe ik ze precies heb aangemaakt. Ik weet nog wel dat ik toen een of andere guide heb gevolgd van iemand die (deed alsof ie) er wel wat vanaf wist. Het zag er iig solide uit. Maar welke parameters ik precies heb meegegeven weet ik echt niet meer. Dom, ik had dat moeten vastleggen. |:(
Maakt niet uit. XFS kan alles at mount time overriden (excuses voor deze halve Engelse zin :)).

@FD: sunit en swidth zijn ook niet instellingen die je net als de chunk size een beetje uit kunt/moeten proberen om zodoende de optimale waarde te krijgen. Gegeven een bepaalde configuratie en een bepaalde chunk size, is er simpelweg één optimale sunit/swidth. Als dat niet optimaal is, moet je niet aan je sunit/swidth gaan sleutelen, maar aan de chunk size om aan de hand daarvan de sunit/swidth op aan te passen.

Wat verder ook nog flink helpt, zeker als je parallele I/O hebt, is de deadline scheduler te gebruiken. Voor dit soort gebruik ben ik geen voorstander van CFQ, terwijl dit wel de standaard is.

cat /sys/block/sdX/queue/scheduler


Als dd 45% van je 8 cores dichttrekt is er toch iets goed mis. Volgens mij is dd niet eens multithreaded. Ik heb zelf een Sempron 140 en die wordt met random 4k writes wel dichtgetrokken ja, maar met 'normale' sequentiële I/O (al die niet parallel) is daar absoluut geen sprake van.

Verder wordt door een -o flag mee te geven de mount options overschreven; niet geappend voor zover ik weet. Kijk even wat `mount` zegt om de actieve mount flags te bekijken. En zoals ik ook al zei: gebruik vooral inode64; hierdoor wordt de address space voor inodes veel groter, waardoor ze netjes over de disk/array kunnen worden verdeeld. Hierdoor hoeven de koppen die steeds terug naar één bepaald punt, wat tot veel minder random I/O en meer sequentiële I/O leidt.

En kijk voor de grap eens of je array gefragmenteerd is.

[ Voor 18% gewijzigd door HarmoniousVibe op 18-01-2012 00:23 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
CurlyMo schreef op dinsdag 17 januari 2012 @ 23:43:
Zoals gezegd heb ik nooit problemen ervaren dus ik weer niet wat je dan precies met stabiel bedoelt. Het enige probleem wat ik ervaar is dat Windows 7 geen volledige gigabit snelheden haalt bij lezen. Dat ligt dus meer aan Windows dan aan Realtek. Ik zou je Intel eis dus gewoon loslaten.
Bedoel met stabiel dat hij niet telkens op verschillende bandbreedtes download, dus gewoon stabiel is... altijd dezelfde verbindingssnelheid tussen pc's bijvoorbeeld.

[ Voor 1% gewijzigd door _Dune_ op 26-03-2013 21:08 ]


  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

3d0zer schreef op dinsdag 17 januari 2012 @ 22:29:
[...]


Presteren die boards goed over het algemeen? Kan er hier niet zoveel over vinden.
Wel suf trouwens, die esata zorgt ervoor dat ik weer een lijnje van extern naar intern moet trekken voor de 6e satapoort mbt interne disks.
Ik weet niet hoe het zit qua prestaties, maar qua zuinigheid zitten de Intel-moederborden in het topsegment, samen met MSI. Ik denk dat de moederborden mekaar qua prestaties tegenwoordig niet veel meer ontlopen, zeker omdat het chipsetlandschap niet zo divers meer is als vroeger. Het is veel meer eenheidsworst.

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Verwijderd

En zoiets: MSI H67MS-ED55

Afbeeldingslocatie: http://i1-news.softpedia-static.com/images/news2/MSI-s-Micro-ATX-LGA-1155-Motherboard-Lineup-Revealed-5.jpg

MSI is meestal zuiniger dan Asus en Gigabyte enzo.

[ Voor 4% gewijzigd door Verwijderd op 18-01-2012 01:07 ]


  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
Ik dacht persoonlijk aan deze:

MSI Z68A-G43 (G3)
Afbeeldingslocatie: http://img.informatique.nl/pic/500/RNR/115809.jpg

Lekker weinig geks op het bord, dus zuinig en toch PCI Express gen3 x16 slot en een gen2 x16 dus als ik naar port multiplier wil voor als ik meer dan 6 schijven krijg, zal dat lekkerder lopen dan op een normaal PCI express slot toch?

Wat vinden jullie?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
HarmoniousVibe schreef op woensdag 18 januari 2012 @ 00:18:
[...]
cat /sys/block/sdX/queue/scheduler
root@NAS:~# cat /sys/block/md0/queue/scheduler
none
Als dd 45% van je 8 cores dichttrekt is er toch iets goed mis. Volgens mij is dd niet eens multithreaded. Ik heb zelf een Sempron 140 en die wordt met random 4k writes wel dichtgetrokken ja, maar met 'normale' sequentiële I/O (al die niet parallel) is daar absoluut geen sprake van.

Verder wordt door een -o flag mee te geven de mount options overschreven; niet geappend voor zover ik weet. Kijk even wat `mount` zegt om de actieve mount flags te bekijken. En zoals ik ook al zei: gebruik vooral inode64; hierdoor wordt de address space voor inodes veel groter, waardoor ze netjes over de disk/array kunnen worden verdeeld. Hierdoor hoeven de koppen die steeds terug naar één bepaald punt, wat tot veel minder random I/O en meer sequentiële I/O leidt.

En kijk voor de grap eens of je array gefragmenteerd is.
0.45% gefragmenteerd

/etc/fstab:
/dev/md0        /mnt/data       xfs     defaults,largeio,sunit=256,swidth=1536,inode64,swalloc,allocsize=1g,user,exec


Net reboot gedaan, mount options werken nu inderdaad wel:
root@NAS:~# dd if=/dev/zero of=/mnt/data/test2.bin bs=1G count=12
12+0 records in
12+0 records out
12884901888 bytes (13 GB) copied, 29.7485 s, 433 MB/s


root@NAS:~# dd if=/mnt/data/test2.bin of=/dev/null bs=16M
768+0 records in
768+0 records out
12884901888 bytes (13 GB) copied, 18.5184 s, 696 MB/s


Dat ziet er al een stuk beter uit. IOtop zegt dat er ~60% IO usage is, dus het zou nog sneller kunnen lijkt me.

Net even met de scheduler zitten spelen, maar dat maakt weinig uit (<1%).

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Je md-device heeft geen scheduler. Je zult echt die van de physical block devices moeten veranderen.

cat /sys/block/sdk/queue/scheduler 
noop [deadline] cfq
cat /sys/block/md5/queue/scheduler 
none

[ Voor 36% gewijzigd door HarmoniousVibe op 18-01-2012 08:41 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
sysfsutils -> /etc/sysfs.conf

root@NAS:~# cat /sys/block/sd[bcdefghi]/queue/scheduler
noop [deadline] cfq
noop [deadline] cfq
noop [deadline] cfq
noop [deadline] cfq
noop [deadline] cfq
noop [deadline] cfq
noop [deadline] cfq
noop [deadline] cfq

Even niets...


  • nielsdc
  • Registratie: Juni 2011
  • Laatst online: 19-07 18:49
CurlyMo schreef op dinsdag 17 januari 2012 @ 19:18:
ZFS bestaat uit twee delen: zpool & zfs. Als ik het goed zeg regelt de eerste de samenwerking tussen de schijven tot een RAID array. Op deze array zul je vervolgens nog filesystem moeten zetten. Net zoals bij MDADM je schijven samenvoegt tot MD0. Het zfs gedeelte is de filesysteem dat zorgt voor compressie, snapshots, dedup enz. Op dit moment is het eerste gedeelte de pool helemaal stabiel. Het tweede nog niet. Je kunt dus wel een zpool aanmaken en daar vervolgens XFS of EXT2,3,4 op draaien maar dan heb je nog maar de helft van je ZFS oplossing. Dat heeft dus niet echt een meerwaarde.
Je loopt een beetje achter. Hoewel de huidige release een release candidate is, is die wel gewoon stabiel.
Dit werd vandaag gepost op de ZFS on linux mailinglist:
I have to say I'm impressed. Despite all the abuse I've thrown at the
system (including dropping 4 out of 9 drives in a raidz2 pool when a
controller went south) it's come back intact every time.

  • floriske.nl
  • Registratie: Januari 2002
  • Laatst online: 11-11 18:43

floriske.nl

Wie ik? Echt niet!

floriske.nl schreef op dinsdag 17 januari 2012 @ 12:21:
De post van CurlyMo heeft me aan het twijfelen gebracht of ik FreeNAS, FreeBSD of ZFSguru ga draaien. ZFS is geen vereiste aangezien de schijven momenteel EXT2 geformatteerd zijn en ik deze eigenlijk 1 op 1 over wil zetten.

Het is echter zo dat ik op wat basis zaken na geen linux ervaring heb en niet de tijd heb om me uitgebreid in een os te gaan verdiepen.

Het geheel hoeft enkel als fileserver te functioneren met eventueel upnp/dlna functionaliteit en een nzb client en ik vroeg me dan ook af of FreeNAS hiervoor niet simpelweg voldoende is?
Of wellicht dat FreeBSD of ZFSguru in jullie ogen vrij eenvoudig eigen te maken is?
Verwijderd schreef op dinsdag 17 januari 2012 @ 16:13:
[...]

Het voordeel van ZFSguru is dat je makkelijker dan FreeNAS extra functionaliteit kunt toevoegen, zoals je nzb client en mediastreaming. Je kunt beide ook even uitproberen in Virtualbox om te zien waar je je het meest vertrouwd mee voelt. Ik werk zelf mee aan ZFSguru en ondanks dat dit het jongste project is, heeft het vele voordelen boven andere distributies. Het grote voordeel van ZFSguru is dat het op normaal FreeBSD is gebaseerd, en je dus alles met ZFSguru kan wat je ook op FreeBSD kan. Je kunt het dus als een FreeBSD-installatie beschouwen, en andere dingen gewoon via de web-interface doen. Over specieke vragen kun je wellicht beter in het ZFS topic posten. :)

Kan al wel vast verklappen dat de nieuwe LiveCD met FreeBSD 9.0-RELEASE vandaag uit zou moeten komen. 8)
Dan blijft natuurlijk de hamvraag: Hoe eenvoudig is ZFSguru op te zetten voor iemand die weinig tot geen linux ervaring heeft? En kan ZFSguru overweg met EXT2 schijven?

Voor mij gaat het er, vanwege tijdgebrek, met name om dat eea eenvoudig en snel op te zetten is, zodat ik mezelf er later op mijn gemak wat meer in kan verdiepen.

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 22:48
nielsdc schreef op woensdag 18 januari 2012 @ 09:02:
[...]
Je loopt een beetje achter. Hoewel de huidige release een release candidate is, is die wel gewoon stabiel.
Dit werd vandaag gepost op de ZFS on linux mailinglist:
[...]
Ik snap dat heel veel mensen ZFS on linux gebruiken en dat het prima werkt. Maar zolang iets een release candidate is, is het aan de gebruiker om het risico te nemen. Zelf neem ik dat risico (hoe klein) ook vrijwel altijd maar voor een volledige informatie vind ik wel dat je iemand daarover moet informeren.
floriske.nl schreef op woensdag 18 januari 2012 @ 09:23:
Dan blijft natuurlijk de hamvraag: Hoe eenvoudig is ZFSguru op te zetten voor iemand die weinig tot geen linux ervaring heeft? En kan ZFSguru overweg met EXT2 schijven?

Voor mij gaat het er, vanwege tijdgebrek, met name om dat eea eenvoudig en snel op te zetten is, zodat ik mezelf er later op mijn gemak wat meer in kan verdiepen.
Waarop ik reageerde was niet "hoe makkelijk is het om ZFSguru op te zetten" of andere FreeBSD oplossingen. Je gaf aan dat je graag eigen scripts wilde draaien op je systeem. Dan is FreeNAS een mindere keuze omdat je daar veel meer ervaring voor nodig hebt om het naar je hand te zetten. Out of de box werkt het verder perfect. Daarnaast is ZFSguru natuurlijk gemaakt voor ZFS maar draait het op een volledige FreeBSD installatie. Ext2 zal dus wel ondersteund worden maar niet via de webgui.

Voor een leek:
* Wil je ZFS, gebruik dan ZFSguru
* Wil je customizen, gebruik dan bijv. ubuntu server
* Wil je de makkelijkste NAS oplossing draai dan gewoon een standaard FreeNAS en laat je wensen qua custom snapshot scripts los. FreeNAS heeft vast soort gelijke functionaliteit.

Als laatste kan je natuurlijk vragen of iemand hier je script wilt aanpassen zodat hij ook onder FreeBSD of Linux draait

Sinds de 2 dagen regel reageer ik hier niet meer


Verwijderd

Ik ben sinds een week aan het kijken om zelf een NAS te bouwen. Maar hoe meer ik lees hoe meer schrik ik krijg van de betrouwbaarheid. Ik heb de indruk dat die vooral te wijten is aan de slechte betrouwbaarheid van de 2TB harddisks. Is deze vrees onterecht ?

Ter info het systeem dat heb besteld:
Moederbord: Asus E35M-I
Case: Lian LI PC-Q25
OS Drive: Corsair Force 3 60GB(ook partities voor ZIL & L2ARC)
Storage Drives: 5x2TB maar nog onbeslist welk type+merk. elke merk lijkt wel problemen te hebben. Allesinds geen enterprise drives.
PSU: Seasonic X-400 fanless
OS: Ubuntu 11.10 met ubuntu-zfs (RAIDZ1)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 22-12 14:37
'Problemen' is relatief. Met backups maakt het allemaal niet zoveel uit.
Het "Is RAID6 dead in 2019" (-> google) verhaal is inderdaad wel lastig, maar niet onoverkomenlijk.

Even niets...


Verwijderd

Had ik dus ook gelezen. Buiten die back-ups dacht ik nu ook aan 2 extra HDD's te installeren via een PCI kaart en RAIDZ2 te gebruiken.

  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
Ok... dit is hem geworden, en gekocht. BAM!!


:9~


#ProductPrijsSubtotaal
1Fractal Design Define XL USB 3.0 Black Pearl€ 121,-€ 121,-
1Corsair Flash Voyager CMFVY3S-16GB 16GB Zwart€ 20,-€ 20,-
1TP-Link TL-SG1005D€ 14,90€ 14,90
5Hitachi Deskstar 5K3000, 3TB€ 173,90€ 869,50
1Scythe Mugen 2 Rev. B€ 32,02€ 32,02
4Scythe Gentle Typhoon D1225C12B5AP-15 (1850 rpm) , 120mm€ 11,90€ 47,60
1Intel Core i3 2120 Boxed€ 109,74€ 109,74
1be quiet! Straight Power E9 400W€ 67,-€ 67,-
2Kingston HyperX KHX1600C9D3K2/8G€ 41,90€ 83,80
1MSI Z68A-G43 (G3)€ 99,61€ 99,61
Bekijk collectie
Importeer producten
Totaal€ 1.465,17

  • Dinh
  • Registratie: Juli 2004
  • Laatst online: 25-05 14:04
Na lang dit topic te hebben gevolgd, werd het eens tijd dat ik ook eens aan de slag ga. Graag jullie advies voor het volgende:

NAS wordt gebruikt voor:
Downloaden van nieuwsgroepen + parren + unrarren
iTunes Server (AppleTV2)/Media server (XBox360/PS3)
File server voor iMac/MacBook/Mac Pro
Web servertje

Ik heb de ZFS Topic ook gevolgd en wil dan ook ZFS gaan gebruiken. En dan RAIDZ2 met 6 harde schijven van 2 TB met een 128GB SSD voor OS/L2ARC/ZIL.

Momenteel heb ik een lege Thermaltake Mozart XT staan met een (5 jaar oude) 450W voeding van Cooler Master.

En dit is het lijst van wat ik van plan ben om aan te schaffen:

#ProductPrijsSubtotaal
6Samsung EcoGreen F4EG HD204UI, 2TB€ 111,75€ 670,50
1Intel Core i3 2120 Boxed€ 109,74€ 109,74
1Crucial m4 CT128M4SSD2 128GB€ 164,90€ 164,90
1Corsair Vengeance CMZ16GX3M4A1600C9€ 84,90€ 84,90
1Gigabyte GA-Z68XP-UD3P€ 137,60€ 137,60
Bekijk collectie
Importeer producten
Totaal€ 1.167,64


Mijn vraag is, voldoet deze setup aan mijn wensen? Kan het beter? Kan de voeding deze setup aan?

In de toekomst kan het zijn dat ik de pool ga vergroten naar nog een RAIDZ2 met 6x 2 TB schijven. Zal dat gaan met Intel RAID Controller SASUC8I?

Verwijderd

Waarom zo'n grote 128GB SSD? Beter twee keer 64GB dat is veel sneller voor L2ARC. Of gewoon eentje. Besef wel dat als je voor L2ARC wilt gebruiken je ook ruimte ongebruikt moet laten, voor overprovisioning. Wil je ook SLOG gebruiken dan raad ik een SSD aan met supercapacitors zoals de Intel 320 80/120GB.

Voeding zou zeker geen probleem mogen zijn. Je kunt tot wel 20 schijven (Samsung F4EG) met die voeding aan (systeem: 100W). Besef wel dat sommige voedingen aparte +12V rails hebben en dan kun je eventueel wel problemen krijgen als je alles op één rails hangt.

Maar met 6 schijfjes mag je zeker geen problemen verwachten, besef hierbij dat de Samsung F4EG schijf de meest zuinige is met spinup current; zo rond de 17W gemeten door StorageReview.

SASUC8i controller kan, maar deze is wat oud voor hedendaagse begrippen. Zo heeft deze geen PCI-express 2.0 of SATA 6Gbps. De nieuwe IBM M1015 is wat duurder maar kan net als de Intel geflashed worden naar IT-firmware. Dan draai je de nieuwe LSI SAS2008 chip, en krijg je de genoemde voordelen. Als je nu een controller moet kopen zou ik deze kaart aanraden. Ik dacht dat Intel SASUC8i wel een probleem had met schijven boven de 2TB, trouwens. Iets om rekening mee te houden.

En ja verder, net als hierboven: waarom geen H67 plankje van MSI? Superzuinig, 6 echte Intel poorten, 4 PCI-express voor Micro-ATX model. Lijkt me prima plankje voor een server. Z68 heeft voordeel van overclocken en RAID + SRT. Die twee laatste zijn Windows-specifieke features dus daar doe je niets mee. En overclocken op een server ook niet; hooguit als de hardware een andere bestemming krijgt. Dus hier kun je nog overna denken.

Oh en als je duur geheugen wilt, waarom dan geen supercool 1.25v low-power geheugen? Paar euro duurder dan je nu hebt. Twee keer dit setje:
pricewatch: G.Skill Sniper F3-12800CL9D-8GBSR2
Ik heb deze ook en ik heb wat meetgegevens versus 1.5v als je wilt.

[ Voor 48% gewijzigd door Verwijderd op 18-01-2012 15:19 ]


  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
Verwijderd schreef op woensdag 18 januari 2012 @ 15:13:
Waarom zo'n grote 128GB SSD? Beter twee keer 64GB dat is veel sneller voor L2ARC. Of gewoon eentje. Besef wel dat als je voor L2ARC wilt gebruiken je ook ruimte ongebruikt moet laten, voor overprovisioning. Wil je ook SLOG gebruiken dan raad ik een SSD aan met supercapacitors zoals de Intel 320 80/120GB.
Dat is nog wel interessant. Hoevel Gb wordt aangeraden/typisch gebruikt voor SLOG/SIL/L2ARC?

iRacing Profiel


Verwijderd

L2ARC (cache) = 20 tot 100GB afhankelijk van hoeveel random access data je hebt
SLOG (separate log device ofwel dedicated ZIL disk) = 4 GB is al genoeg, afhankelijk niet van de grootte van je pool maar van de snelheid.

[ Voor 11% gewijzigd door Verwijderd op 18-01-2012 15:48 ]


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
@Cipher,

Waarvoor geen Intel moederbord?
Zoals deze: pricewatch: Intel Desktop Board DB65AL

Voordeel hiervan is dat hij een echte Intel Chipset heeft voor GB Lan, 6x Sata ook van Intel.
En prijstechnisch vergelijkbaar is met MSI.

Wou eerst voor Asrock gaan. Enkel wat vrienden die er verstand van hebben, hebben mij dit afgeraden omdat er op de Asrock geen Intel Sata controller sata zat en geen GB Lan sata controller. Voor 15 euro meer heb je een Intel Moederbord die dit wel heeft.

[ Voor 27% gewijzigd door Dennisik op 18-01-2012 16:01 ]


  • Dinh
  • Registratie: Juli 2004
  • Laatst online: 25-05 14:04
Stel dat ik 2x 64 GB SSD neem. Moet ik deze dan in een raid-0 zetten (onboard raid0)? Dit betekent wel dat ik icm 6x harde schijven totaal 8 SATA poorten nodig heb.

Ik heb lang gezocht, en de Gigabyte Z68 plank is een van de weinige die 8 onboard heeft. Die MSI heeft 6 poorten, dat betekent dat ik meteen een sata kaart aan moet schaffen. Als je een betere oplossing heb, dan hoor ik dat graag.

Stel 60 GB voor L2ARC en 4 voor SLOG. Dat is totaal 64 GB. Met een 128 GB SSD zal ik dus 100 GB hebben (laten we zeggen dat 28 GB ongebruikte voor overprovisioning), dan hebben we nog 36 GB voor OS/Swap. Ik wil echt FreeBSD/ZFSGuru op draaien. Gaat dat allemaal passen?

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
@Dinh

Stel je neemt het moederbord hierboven + deze controller
pricewatch: Dawicontrol DC-300e RAID (2x SATA300 RAID, PCI-e x1)

Ben je nog goedkoper uit, heb je een Intel Lan controller en 8 Sata poorten.

  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
Dinh schreef op woensdag 18 januari 2012 @ 16:02:
Stel dat ik 2x 64 GB SSD neem. Moet ik deze dan in een raid-0 zetten (onboard raid0)? Dit betekent wel dat ik icm 6x harde schijven totaal 8 SATA poorten nodig heb.

Ik heb lang gezocht, en de Gigabyte Z68 plank is een van de weinige die 8 onboard heeft. Die MSI heeft 6 poorten, dat betekent dat ik meteen een sata kaart aan moet schaffen. Als je een betere oplossing heb, dan hoor ik dat graag.

Stel 60 GB voor L2ARC en 4 voor SLOG. Dat is totaal 64 GB. Met een 128 GB SSD zal ik dus 100 GB hebben (laten we zeggen dat 28 GB ongebruikte voor overprovisioning), dan hebben we nog 36 GB voor OS/Swap. Ik wil echt FreeBSD/ZFSGuru op draaien. Gaat dat allemaal passen?
Wat voor OS ga je draaien?
Check anders of de Marvell Chips voor de 2 extra aansluitingen van SATA compatible zijn met je OS. De laatste generaties Marvell worden nog niet ondersteund door FreeBSD/ZFSGuru/FreeNas en soms ook niet linux. Dit was voor mij de reden om voor een goedkoper board met 6 sata en dan voor uitbreiding een port multiplier te gebruiken.

  • 3d0zer
  • Registratie: Maart 2005
  • Laatst online: 12-01-2024
Link voor wat meer info over Marvell compatibility LINK

Verwijderd

Dennisik schreef op woensdag 18 januari 2012 @ 15:59:
@Cipher,

Waarvoor geen Intel moederbord? (..) Voordeel hiervan is dat hij een echte Intel Chipset heeft voor GB Lan, 6x Sata ook van Intel.
Maar geen solid caps, Intel BIOS meestal beperkt qua opties en zo'n lelijk PCI slot waarvan je juist had gehoopt dat dat eindelijk eens pre-2010 was gebleven. Maar als je persé een Intel netwerk controller wilt, is dat een optie ja. Moet wel zeggen dat in mijn eigen tests het bar weinig uitmaakte wanneer ik testte met iperf. Intel PRO/1000 PT scoorde net iets hoger, maar de verschillen waren erg klein. Ik denk dat je prima een bord kunt kopen en mocht blijken dat de NIC niet lekker werkt kun je er altijd een Intel PRO/1000 CT kaartje in pleuren.

Het is zeker een pré als je moederbord Intel NIC onboard heeft, maar cruciaal toch niet?
Dennisik schreef op woensdag 18 januari 2012 @ 16:05:
@Dinh
[URL="http://tweakers.net/pricewatch/140480/dawicontrol-dc-300e-raid-(2x-sata300-raid-pci-e-x1).html#tab:prices"]pricewatch: Dawicontrol DC-300e RAID (2x SATA300 RAID, PCI-e x1)
Die heeft een Silicon Image SiI-3132 controller. Werkt als het goed is prima onder FreeBSD/ZFSguru. ZFSguru heeft standaard de 'siis' driver actief. Besef wel dat je een performance hit zult krijgen op je pool hierdoor; in mijn tests zat ik op 120MB/s met twee schijven, terwijl afzonderlijk de performance hoger was. Dat was nog met de oude driver, dus mocht je deze controller nemen hoop ik dat je wat testjes voor me kunt doen. :)

Besef dat voor extra SATA poorten het beste is een HBA controller; zonder RAID of port multipliers of expanders maar gewoon pure poorten op een échte controller, zoals de IBM M1015 (met IT-firmware). Zo'n controller is een goede investering voor alle software RAID voor zolang je SATA schijven gaat gebruiken (want na SATA komt SATA Express en dat is PCIe gebaseerd).

[ Voor 10% gewijzigd door Verwijderd op 18-01-2012 16:50 ]


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op woensdag 18 januari 2012 @ 16:48:
[...]

Maar geen solid caps, Intel BIOS meestal beperkt qua opties en zo'n lelijk PCI slot waarvan je juist had gehoopt dat dat eindelijk eens pre-2010 was gebleven. Maar als je persé een Intel netwerk controller wilt, is dat een optie ja. Moet wel zeggen dat in mijn eigen tests het bar weinig uitmaakte wanneer ik testte met iperf. Intel PRO/1000 PT scoorde net iets hoger, maar de verschillen waren erg klein. Ik denk dat je prima een bord kunt kopen en mocht blijken dat de NIC niet lekker werkt kun je er altijd een Intel PRO/1000 CT kaartje in pleuren.

Het is zeker een pré als je moederbord Intel NIC onboard heeft, maar cruciaal toch niet?
Zoals ik nu even google niet nee:
http://buildegg.com/bewp/?p=78

Kennis van mij verkoos Intel boven Realtek. Samen met het feit dat mijn Asrock een andere Raid controller had, waarvan hij niet zeker wist of Linux dat ondersteunde. Daarvoor raadde hij een Intel boord aan.
Die heeft een Silicon Image SiI-3132 controller. Werkt als het goed is prima onder FreeBSD/ZFSguru. ZFSguru heeft standaard de 'siis' driver actief. Besef wel dat je een performance hit zult krijgen op je pool hierdoor; in mijn tests zat ik op 120MB/s met twee schijven, terwijl afzonderlijk de performance hoger was. Dat was nog met de oude driver, dus mocht je deze controller nemen hoop ik dat je wat testjes voor me kunt doen. :)
Zag inderdaad al in test dat de snelheid wat te wensen over liet.
Ik zal voorlopig geen controller nodig hebben, heb aan 6 sata poorten hedendaags gnoeg als ik het spul ga bestellen.

Met het feit hierboven zal ik nog eens opnieuw kijken naar de moederborden, een moederbord met wat meer PCI aansluitingen zal handig zijn wil ik mijn kast uitbreiden met PCI sata controllers.
Besef dat voor extra SATA poorten het beste is een HBA controller; zonder RAID of port multipliers of expanders maar gewoon pure poorten op een échte controller, zoals de IBM M1015 (met IT-firmware). Zo'n controller is een goede investering voor alle software RAID voor zolang je SATA schijven gaat gebruiken (want na SATA komt SATA Express en dat is PCIe gebaseerd).
Ik zal deze tip onthouden, bedankt!

Verwijderd

Irrelevant; onder Linux en onder FreeBSD gebruik je andere drivers. En daar kun je ook grote performanceverschillen en nog vaker: bugs/issues terugvinden. Zo heb ik realteks meegemaakt die af en toe packetloss hadden. Na een FreeBSD upgrade was dat probleem weg. Pure driverproblemen, voornamelijk veroozaakt door slechte documentatie van Realtek terwijl Intel duidelijk wel samenwerkt met open source organisaties om hun spul goed werkend te krijgen op server platforms, wat voor Intel belangrijker is dan voor Realtek die massa goedkope chips produceert.

In mijn eigen tests zat ik zo rond de 920 - 940 megabit ofzo, nVidia, Intel, Realtek allemaal scheelde het vrijwel niets. Maar dat hoeft niets te zeggen, een realtek X of een nVidia Y kunnen andere PHY chips hebben, en dus met de ene PHY andere performance of issues hebben dan de ander. Dit maakt het allemaal wat ingewikkelder.
Kennis van mij verkoos Intel boven Realtek.
Ik zie Intel gigabit als een leuke extra, maar niet als cruciaal. Mocht je problemen met je NIC hebben gewoon een 25 euro Intel CT kaartje erin en je bent ook klaar, en als het niet nodig is heb je toch een mooier MSI bord wat je denk ik meer waar voor je geld biedt.
Pagina: 1 ... 90 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.