[RAID 5] Intel H67 als RAID contr. of losse RAID contr. ?

Pagina: 1
Acties:

Onderwerpen


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Vandaag heb ik een HP Homeserver EX490 met 4x 2TB erin.
De gebruikte schijven zijn van Samsung, namelijk de EcoGreen F4EG HD204UI, 2TB. Deze zijn voor plaatsing voorzien geweest van de nieuwe firmware ( was een bug in de meegeleverde firmware ).

Dit heb ik nu 2j draaien naar tevredenheid. Enkel wil ik nu een krachtigere server.
Ik wil Windows Server 2008 R2 kunnen draaien. Zodoende kan ik u een exchange server hebben, de beelden van mijn 4 IP-camera's laten opnemen m.b.v. software, Couchpotato, Sickbeard, ... Het lastige aan de huidige server is dat het een 'LT' versie van Server 2003 is. Je kan dus niet alles doen wat met een 'gewone' Server 2k3 kan. Ook is de 'raid' softwarematig... Door 'duplication' zakt ook de schrijfperformance serieus in en dit kost ook veel CPU aan de server.

Afbeeldingslocatie: http://img41.imageshack.us/img41/7919/cameraserver.png[

Dit is de nieuwe configuratie die ik in gedachten had. Ook mooi meegenomen zou zijn dat deze server energiezuiniger is dan de huidige EX490.

Anyway, nu vroeg ik me af of bijvoorbeeld de Intel H67 controller voldoende is om een RAID 5 array van 4 disks aan te sturen. Met een beetje een normale lees en schrijfsnelheid. Ik heb zelf 0,0 ervaring met RAID arrays.

Ik overweeg om voor een hardwarematige RAID (5) controller te gaan, bijvoorbeeld de Areca ARC-1110.
Ook tot de mogelijkheden behoren de Highpoint RocketRAID 2640x1 & de Adaptec AAR-1430SA

Hoe bepaal je of iets een 'goede' RAID controller is ? Deze server is voor 'intensief' thuisgebruik. Moet een 2-3 pc's dagelijks backupen zoals dat nu met de WHS gebeurt. Ook neemt hij 24/7 mijn camerabeelden op en draait hij applicaties zoals Sickbeard & Couchpotato.

Alle tips en hulp welkom ;) !

Acties:
  • 0 Henk 'm!

Verwijderd

Enkel wil ik nu een krachtigere server.
Krachtiger in welke zin? Kom je CPU of I/O performance tekort? Wat voor RAID draai je nu? Duplication zou moeten zorgen voor gehalveerde writes; als je nu mirroring draait zal je niet zo heel veel winst hebben door naar RAID5 te gaan.

Een losse RAID controller kopen is steeds onaantrekkelijker. Hardware RAID is niet zo veilig als geavanceerd software RAID met name ZFS. Dus als je voor zo'n oplossing gaat, heb je dan een volledige kopie/backup van je data? Want duplicatie op hetzelfde RAID volume telt uiteraard niet als backup. Als je primaire data onbereikbaar is, is ook je duplicated data onbereikbaar want ze staan op dezelfde RAID volume.

Areca ARC-11xx series zijn PCI-X, dat wil je niet. Eigenlijk denk ik dat je eerst eens goed moet nadenken over wat je wilt:
- bestanden beschermen tegen gegevensverlies
- hogere I/O performance
- hogere CPU performance
- meer functies laten uitvoeren op je server

In mijn optiek ben je beter uit met een ZFS NAS zodat je geen duur spul hoeft te kopen en veel meer bescherming voor je bestanden hebt. Dan kun je je Windows-taken uitvoeren door een ander (workstation) systeem, of zelfs als VM op de ZFS server, waarin je dan een Windows OS draait.

Dat laatste voorstel betekent dat je flink verbetert qua bescherming voor je bestanden, dat je geen dure controller hoeft te kopen, dat je later SSDs kunt gebruiken voor caching en kunt spelen met virtuele machines voor je overige taken. Of dit helemaal aansluit bij je wensen moet je zelf even bekijken.

Maar een losse RAID controller kopen; houd er rekening mee dat je er in de toekomst niet meer zoveel aan hebt, en echt veilig is het gewoon niet. Hardware RAID gaat doorgaans heel slecht om met bad sectors, iets wat steeds vaker voorkomt door de toennemende datadichtheid (uBER = 10^-14).

Acties:
  • 0 Henk 'm!

  • 3dfx
  • Registratie: Maart 2001
  • Niet online
Verwijderd schreef op zondag 15 januari 2012 @ 17:15:

In mijn optiek ben je beter uit met een ZFS NAS zodat je geen duur spul hoeft te kopen en veel meer bescherming voor je bestanden hebt.
Wel handig als je dan gelijk een linkje naar (je eigen) ZFS-topic geeft. Maar bescheidenheid siert de mens ;)
Het grote ZFS topic

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Verwijderd schreef op zondag 15 januari 2012 @ 17:15:
Krachtiger in welke zin? Kom je CPU of I/O performance tekort? Wat voor RAID draai je nu? Duplication zou moeten zorgen voor gehalveerde writes; als je nu mirroring draait zal je niet zo heel veel winst hebben door naar RAID5 te gaan.
[...]
De gemakkelijkheid om simpelweg windows software te installeren. Zoals mijn "Video Viewer" voor de H.264 camera's ( RTSP streams ). Een instance van SABnzb, Sickbeard & Couchpotato. Eventueel Skype met de Siemens M34 USB DECT module, etc...

Ik wil dat de lees en schrijfwaarden beduidend beter zijn dan nu. Schrijven is nu 10-15 MB/s en lezen 40-50MB/s. Duplication staat uit en zodoende heb ik eigenlijk geen 'beveiliging' van mijn gegevens. Iets wat ik eigenlijk wel wens !

Door het hebben van een windows server kan mijn windows werkstation uit, staat nu 24/7 aan en dat kost een hoop geld per jaar ( overgeclockte i7 met 8GB ram, 4 1 TB schijven + 300GB SSD ).

Dat ZFS filesystem ziet er op papier super uit. Mis alleen Linux of UNIX kennis...
Ook, moet ik nog in VMWare een virtuele Server 2008 R2 of Server 2003 draaien, dan heb ik nog eens 4GB RAM extra nodig. Dat zou met 8TB 6TB storage ( RAID-Z ) op 10/12/16GB RAM komen ( met 2 geheugenbankjes moet ik daar aan geraken ). Daarbovenop, trekt zo'n i3'tje dat allemaal wel :| ?
Ik wil ook liefst een energiezuinige server, vandaar de keuze voor het 45W model.

Ik ben benieuwd naar je reactie, want wil wel graag iets nieuws proberen. Maar ik zou alle data 'makkelijk' vanuit Windows moeten kunnen accessen. Liefst met een simpele 'network share/drive' in verkenner.
Of doe ik nu heel moeilijk ?

Acties:
  • 0 Henk 'm!

Verwijderd

Dus in principe wil je wel ZFS, maar je wilt wel 99% vanuit Windows doen en een normale drive-letter hebben. En programma's wil je erop draaien onder Windows platform.

Nou dat kan. :)

Als je een ZFS fileserver hebt, dan gebruik je veelal Samba om de bestanden te delen mat de overige computers op het netwerk. Samba = Windows filesharing ook wel SMB of CIFS genoemd. Hiermee kun je in windows een X:\ drive letter maken wat naar je ZFS fileserver toewijst. Dus dat is allemaal geen probleem.

Het grootste probleem is hoe je de extra software op je ZFS server gaat draaien. Je kunt natuurlijk native Linux/BSD software draaien, maar je wilt wellicht een windows-achtige omgeving waarin je simpelweg kunt werken met je applicaties. Dan denk ik aan: virtualisatie. Draai een Windows VM op je ZFS server en je kunt daar al je Windows apps in offloaden. De basis blijft dan geavanceerd met ZFS maar je draait een VM voor wat applicaties.
Ik wil ook liefst een energiezuinige server, vandaar de keuze voor het 45W model.
TDP heeft niet direct meer te maken met zuinigheid. Je kunt een zuinigere server hebben die 100W TDP heeft, omdat de CPU dan ook eerder naar idle terug kan. Het gaat bij NAS om task energy: dus lage idle power is extreem belangrijk; stroomverbruik onder stressed condities is weer veel minder belangrijk. Een lage TDP chip doe je vooral als je een kleine kast of PicoPSU wilt gebruiken.

Als je echt zuinig wilt dan kun je naar PicoPSU kijken. Informatique heeft een mooie 150W combiset, waarbij je een vrij zeldzame 150W +12V adapter erbij krijgt. Daarmee kun je aardig wat Samsung F4EG schijven opspinnen. Met zo'n PicoPSU wordt je server nog zuiniger, vooral als je onder de 20W idle komt.

Voordat je ZFS kiest raad ik je wel aan je een beetje te verdiepen hierin. Aan de andere kant: ZFS is een van de veiligste opslagsystemen die automatisch problemen als corruptie voor je oplost, als het op te lossen is. Dus in feite heb je er na de eenmalige installatie weinig nakijken meer naar.

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Vandaag het topic wat meer doorgespit :*). Weet alleen nog steeds niet of ik het effectief geconfigureerd ga krijgen...

Ik las ook wat zaken m.b.t. het gebruik van ECC RAM. Acht jij dit nodig ? Of denk jij dat de foutcorrectie van ZFS dat wel corrigeert ? Het door mij gekozen Mini-ITX moederbord kan helaas enkel Non-ECC RAM aan, ook is er slechts ruimte voor maar 2 latjes... Dus moet wel voor deze kit kiezen.
Verder is het ook het enige S1155 mini-ITX moederbord met 6 SATA aansluitingen, wat eigenlijk nog eentje te weinig is ( 6x 2TB + 1x SSD ). Of ik zou voor een iets grotere case moeten kiezen met µATX form factor...

Ik heb nog een Intel X25-M 120GB SSD over vanuit m'n workstation. Ik dacht deze te gebruiken voor het OS en mijn Virtuele Windows Server 2k3/2k8/2k11. Als ik goed gelezen heb zou ik dan met VirtualBox aan de slag moeten gaan onder FreeBSD... Weeral veel om na te denken hoe en wat. En dan liefst ook nog een beetje krachtig onder die VM... Dus weet niet goed of ik voor een i3 of i5 moet kiezen 8)7.

Is het een dom idee om de ZFS fileserver te linken aan de virtuele Windows Server en van daaruit de share's en bijhorende gebruikersaccounts aan te maken ? Of ga ik zo een enorm performance verlies realiseren ? Of kan ik zo (gemakkelijker) corrupties veroorzaken ?

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Even een VM van ZFS guru opgezet >:) met 2 cores van m'n i7, 3GB RAM en 4 virtuele schijven van 8GiB in een (RAID5 redundancy) pool:

Non-destructive benchmark

ZFSguru 0.1.9 pool benchmark
Pool : PhilippeZFS (31.8G, 12% full)
Test size : 0.5 GiB
Data source : /dev/random
Read throughput : 2.7 GB/s = 2.5 GiB/s
Write throughput: 68.3 MB/s = 65.1 MiB/s

ZFSguru 0.1.9 pool benchmark
Pool : PhilippeZFS (31.8G, 12% full)
Test size : 1 GiB
Data source : /dev/random
Read throughput : 2.8 GB/s = 2.6 GiB/s
Write throughput: 65.5 MB/s = 62.4 MiB/s

ZFSguru 0.1.9 pool benchmark
Pool : PhilippeZFS (31.8G, 13% full)
Test size : 2 GiB
Data source : /dev/random
Read throughput : 120.4 MB/s = 114.8 MiB/s
Write throughput: 66.1 MB/s = 63 MiB/s


Ik ben er ook in geslaagd om de VirtualBox service te installeren. Enkel als ik Windows Server 2003 wil installeren ( een VM in een VM :*) ) dan kan ik geen keyboardstrokes geven of ook niet via VNC verbinden. Maar denk wel dat dat zichzelf oplost wanneer ik op een fysieke machine zal werken. Hoe krachtig is die VirtualBox t.o.v. VMWare ? Gaan jullie ook voor de versieupdates daarvan zorgen door die web-interface package manager.

Anyway toch al heel snel een (fijne) eerste ervaring opgedaan met ZFSguru.

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Dit zijn 2 configuraties die ik in overweging neem. De ene is zeer mooi & compact, de andere is uitbreidbaarder. Met de µATX variant kan ik 2 extra harde schijven kwijt.

#ProductPrijsSubtotaal
1Fractal Design Array R2 Mini ITX NAS Case€ 157,10€ 157,10
1Intel Core i3 2120T Boxed€ 112,90€ 112,90
1Corsair Vengeance CMZ16GX3M2A1600C10€ 124,16€ 124,16
1Asus P8H67-I€ 86,30€ 86,30
Bekijk collectie
Importeer producten
Totaal€ 480,46


#ProductPrijsSubtotaal
1Fractal Design Define Mini€ 83,-€ 83,-
1Kingston KVR1333D3N9HK4/16G€ 82,59€ 82,59
1Intel Core i5 2500K Boxed€ 193,-€ 193,-
1be quiet! Dark Power Pro P9 550W€ 113,26€ 113,26
1Gigabyte GA-Z68MX-UD2H-B3€ 124,99€ 124,99
Bekijk collectie
Importeer producten
Totaal€ 596,84

1x Intel X25-M SSDSA2MH120G2K5 120GB
4x Samsung EcoGreen F4EG HD204UI, 2TB

Alle disks zitten op de Z68 chipset aangesloten. Enkel bij de µATX variant met 6 2TB schijven zit de SSD op de Marvell 88SE9172 controller aangesloten.

De SSD zal dienen als bootschijf voor ZFSguru. De installatie van ZFSguru zal ook voorzien worden van VirtualBox met Windows Server 2008R2 of SBS 2011. Eventueel later wens ik de pool verder uit te breiden met nog 2x Samsung Ecogreen F4EG HD204UI, 2TB. Deze 4/6 schijven zouden met ZFSguru tot een RAID-Z pool omgevormd worden.
Graag zorg ik ervoor dat de ZFS pool enkel en alleen door VM met Windows Server bereikbaar is en dat de VM de share's met bijhorende rechten zal beheren voor alle clients.

Is dit haalbaar met deze config ? Of is het systeem te slap ? Ik heb gekozen voor tamelijk energiezuinige componenten (denk ik) daar deze server 24/7 zal draaien.

Acties:
  • 0 Henk 'm!

Verwijderd

fluppie007 schreef op maandag 16 januari 2012 @ 22:41:
Ik las ook wat zaken m.b.t. het gebruik van ECC RAM. Acht jij dit nodig ? Of denk jij dat de foutcorrectie van ZFS dat wel corrigeert ?
Vroeger was ik hier wat meer gepassioneerd in, maar het is nu duurder om voor ECC te gaan en toch een heel zuinig platform te hebben. ZFS kan inderdaad corruptie veroorzaakt door geheugen corrigeren, maar als een disk juist op dat block ook nog een bad sector heeft kun je al een corrupte file hebben. Het is maar hoe hoog niveau van bescherming je nodig hebt. Ik draai nu zonder ECC op mijn mini NAS en echt belangrijke dingen heb ik vierdubbel gebackkupped. :P

Doe wel een 24 uur lange MemTest86+ (memtest86.com ofzo of pak een Ubuntu livecd -> esc -> test memory) voordat je het systeem in gebruik neemt.
Is het een dom idee om de ZFS fileserver te linken aan de virtuele Windows Server en van daaruit de share's en bijhorende gebruikersaccounts aan te maken ? Of ga ik zo een enorm performance verlies realiseren ? Of kan ik zo (gemakkelijker) corrupties veroorzaken ?
Dat zou ik niet doen, ik zou de opslag zelf op ZFS houden en Samba gebruiken om te sharen. Die extra laag is juist waar het mis kan gaan.
fluppie007 schreef op dinsdag 17 januari 2012 @ 01:47:
Data source : /dev/random
Read throughput : 2.7 GB/s = 2.5 GiB/s
Write throughput: 68.3 MB/s = 65.1 MiB/s
Je read score is te hoog doordat je een kleine testsize gebruikt (64GiB is ideaal op een échte pool). Je write score is weer te laag omdat je /dev/random gebruikt, wat zwaar leunt op CPU-performance. Je kunt beter Zero selecteren ipv Random. Dan krijg je je echte write score.

Merk op dat hoe groter de test size des te lager de score. In de praktijk zijn korte writes met periodes daartussen dus sneller dan continu, iets wat met normale filesystems veelal niet het geval is.

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
En er is besteld :) :P ! ZFS here I come... Enkel nog een beetje tasten in het duister m.b.t. het beheren van shares & rechten.
Ik zou willen starten met 4x 2TB en als de HD prijzen gezakt zijn nog 2x 2TB bijsteken. Is het beter om alles in 1x te doen ? Of kan ik ze makkelijk nog later bijvoegen ?
Ben er ook nog niet uit of ik voor RAID-Z1 of RAID-Z2 ga :/... Maakt het eigenlijk uit dat die 6 schijven op een verschillende SATA controller ( 4 op de Z68 & 2 op de Marvell ) zitten, om 1 grote pool te maken van 6 disks ?

#ProductPrijsSubtotaal
1Fractal Design Define R3 Black Pearl USB 3.0€ 87,90€ 87,90
1Scythe Mugen 2 Rev. B€ 32,02€ 32,02
1Intel Core i5 2500K Boxed€ 193,-€ 193,-
1be quiet! Dark Power Pro P9 550W€ 113,26€ 113,26
1Corsair Vengeance Low Profile CML16GX3M4A1600C9€ 85,40€ 85,40
1Gigabyte GA-Z68X-UD3H-B3€ 117,90€ 117,90
Bekijk collectie
Importeer producten
Totaal€ 629,48

Acties:
  • 0 Henk 'm!

Verwijderd

Zo jij bent snel met bestellen! :P

Ik had namelijk nog wel wat tips, die ik in een ander topic met een ander ook al min of meer besproken had. Misschien wil je het volgende doornemen:
Verwijderd in "Het grote DIY RAID NAS topic deel 3"
Ik zou willen starten met 4x 2TB en als de HD prijzen gezakt zijn nog 2x 2TB bijsteken. Is het beter om alles in 1x te doen ? Of kan ik ze makkelijk nog later bijvoegen ?
Als je mirrors maakt kan dit heel makkelijk. RAID-Z en RAID-Z2 kun je niet uitbreiden zoals je dat gewend was. Je kunt wel een nieuwe RAID-Z aan je pool toevoegen, maar dan wil je dus met grote aantallen schijven per RAID-Z werken en niet een paar schijfjes erbij.

Wat je eventueel wel kunt doen is een degraded RAID-Z of RAID-Z2 maken. Stel je hebt nu 4 schijven en je maakt een 6-disk RAID-Z2 aan waarvan dus 2 nepschijven. Na het aanmaken verwijder je die gelijk zodat je een double degraded RAID-Z2 hebt. Heb je later een schijf erbij, maak je er een single degraded RAID-Z2 van (5 van de 6 schijven aanwezig) en weer later nog een schijf erbij.

Bedenk wel dat je iets lagere performance hebt zolang je degraded draait en je zolang natuurlijk ook geen bescherming hebt voor je bestanden!
Ben er ook nog niet uit of ik voor RAID-Z1 of RAID-Z2 ga :/... Maakt het eigenlijk uit dat die 6 schijven op een verschillende SATA controller ( 4 op de Z68 & 2 op de Marvell ) zitten, om 1 grote pool te maken van 6 disks ?
Ja dat maakt zeker uit. Marvell chips worden doorgaans niet zo goed ondersteunt op non-Windows OS. Soms werkt het prima, maar je kunt er problemen mee krijgen. Je kunt dus kiezen voor een ander mobo met een andere controller, of toch dat Gigabyte mobo en later wel zien of het werkt. Zo niet, kun je dan altijd een losse 2-port controller kopen zoals in bovenstaand topic vermeld.

Mocht je iets willen veranderen aan je bestelling, kan dat dan nog? Zo ja zou ik even je leverancier mailen dat je nog wat wilt wijzigen.

[ Voor 3% gewijzigd door Verwijderd op 18-01-2012 17:14 ]


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Verwijderd schreef op woensdag 18 januari 2012 @ 17:13:
...
Mocht je iets willen veranderen aan je bestelling, kan dat dan nog? Zo ja zou ik even je leverancier mailen dat je nog wat wilt wijzigen.
Kan vast, wat zou jij veranderen ? Behandel het maar even als jouw Storageserver >:) !

Acties:
  • 0 Henk 'm!

Verwijderd

Misschien kun je beter de i2500 nemen en niet de K versie. De gewone versie heeft namelijk wel vt-d en de K versie niet, ook zoiets vreemds. Hier een link:
http://ark.intel.com/prod...r-%286M-Cache-3_30-GHz%29

vt-d heb je nodig voor virtualizatie, zodat je een storageplatform heel stoer kunt virtualizen. Misschien ga je het nu niet gebruiken, maar het is zeker een pré als je het hebt. Dus als je nu nog kunt kiezen, zou dat mijn keuze zijn.

En qua geheugen kun je G.Skill Sniper SR2 overwegen. :)

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Verwijderd schreef op donderdag 19 januari 2012 @ 00:23:
Misschien kun je beter de i2500 nemen en niet de K versie. De gewone versie heeft namelijk wel vt-d en de K versie niet, ook zoiets vreemds. Hier een link:
http://ark.intel.com/prod...r-%286M-Cache-3_30-GHz%29

vt-d heb je nodig voor virtualizatie, zodat je een storageplatform heel stoer kunt virtualizen. Misschien ga je het nu niet gebruiken, maar het is zeker een pré als je het hebt. Dus als je nu nog kunt kiezen, zou dat mijn keuze zijn.

En qua geheugen kun je G.Skill Sniper SR2 overwegen. :)
Volgens de VMWare forums zou het met vt-x wel werken. Vt-d is optioneel. En ook Virtualbox ondersteund ook vt-x volgens Wikipedia: VirtualBox . Ik zal alles dan maar laten zoals het is, kan ik na een paar jaar serveren hem nog laten dienen als overclocked desktopcomputertje >:).

EDIT: Hmm bij het installeren van de nieuwe ZFSguru in een VM krijg ik geen IP adres. 0.0.0.0 en er staat iets van loop vermeld. Zowel bridge als NAT werken niet.

EDIT2: CiPHER, het lukt me niet om een account aan te maken op zfsguru.com. Krijg de mail met m'n wachtwoord niet aan.

[ Voor 12% gewijzigd door fluppie007 op 20-01-2012 11:00 ]


Acties:
  • 0 Henk 'm!

Verwijderd

vt-x is algemene virtualisatie-extensies, vt-d gaat over het doorgeven van een storage controller aan de VM, zodat de VM directe controle heeft over de schijven. Dit is cruciaal als je het OS wat ZFS gaat uitvoeren niet als host-OS maar als guest-OS draait. Je kunt echter niet per disk doorgeven; wel per controller. ESXi kun je dan via een andere disk op andere controller of USB stick laten booten.

Over dat je geen IP krijgt, wat voor netwerktype heb je geselecteerd in Virtualbox? Je hebt meestal Bridged nodig, Host-only zou ook kunnen, maar daarvoor moet je wel de netwerkadapter geïnstalleerd hebben. Bedenk ook dat een firewall op je host in de weg kan zitten.

En over je account; kan een spamfilter zijn. Wat je kunt proberen is het adres toevoegen aan je adresboek, als je weet van welk adres het mailtje komt (guru <at> zfsguru denk ik).

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Verwijderd schreef op vrijdag 20 januari 2012 @ 14:18:
vt-x is algemene virtualisatie-extensies, vt-d gaat over het doorgeven van een storage controller aan de VM, zodat de VM directe controle heeft over de schijven. Dit is cruciaal als je het OS wat ZFS gaat uitvoeren niet als host-OS maar als guest-OS draait. Je kunt echter niet per disk doorgeven; wel per controller. ESXi kun je dan via een andere disk op andere controller of USB stick laten booten.

Over dat je geen IP krijgt, wat voor netwerktype heb je geselecteerd in Virtualbox? Je hebt meestal Bridged nodig, Host-only zou ook kunnen, maar daarvoor moet je wel de netwerkadapter geïnstalleerd hebben. Bedenk ook dat een firewall op je host in de weg kan zitten.

En over je account; kan een spamfilter zijn. Wat je kunt proberen is het adres toevoegen aan je adresboek, als je weet van welk adres het mailtje komt (guru <at> zfsguru denk ik).
Volgens mij gaat het dan wel goed. Ik gebruik FreeBSD als 'main' OS met ZFSguru.
Dit OS staat dan geïnstalleerd op de 120GB Intel X25-M SSD ( op de Marvell 88SE9172 ). Op zijn beurt stuur FreeBSD/ZFSguru dan mijn 5 of 6 Samsung 2TB schijven aan ( op de Intel Z68 chipset ).
De shares zal ik dan allemaal beheren via Samba onder FreeBSD.

Onder FreeBSD draai ik dan m.b.v. VirtualBox een Windows Server 2k3 of 2k8 ( de virtual disk van de VM staat op de SSD ) waarmee ik dan mijn windows taken mee uitvoer. O.a. de recording software van mijn IP cams. Ook kan ik dan Sickbeard, Couchpotato & Headphones daarop laten draaien. Die recorden of downloaden dan naar de betreffende shares van de ZFS pool. Die laatste programma's kunnen weliswaar ook onder FreeBSD maar onder Windows heb ik het allemaal veel sneller ingesteld :+...

Mocht hetgeen ik hier in gedachten heb technisch onmogelijk zijn, dan hoor ik het graag. Dan moet ik inderdaad eventueel hardware wijzigingen doorvoeren :o.

Acties:
  • 0 Henk 'm!

Verwijderd

Behalve de hierboven genoemde punten kan ik niet zoveel verzinnen. Het hopen is natuurlijk wel dat die Marvell controller redelijk werkt. Zo ja dan heb je 6 onboard vrij voor je dataschijven wat natuurlijk fijn is. Verder vind ik wel dat je een erg dure voeding hebt, maar als je dat graag wilt.. hij ziet er wel stoer uit in elk geval. 8)

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 16:59
Persoonlijk zou ik voor een i5 2400 gaan (goedkoper), lichtere voeding (betere efficiëntie en goedkoper) en 2x 8GB modules (iets duurder dan wat je nu neemt; alleen uitbreiding naar 32GB ligt dan nog open).

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Verwijderd schreef op vrijdag 20 januari 2012 @ 15:33:
Behalve de hierboven genoemde punten kan ik niet zoveel verzinnen. Het hopen is natuurlijk wel dat die Marvell controller redelijk werkt. Zo ja dan heb je 6 onboard vrij voor je dataschijven wat natuurlijk fijn is. Verder vind ik wel dat je een erg dure voeding hebt, maar als je dat graag wilt.. hij ziet er wel stoer uit in elk geval. 8)
De dure voeding is omdat ik een 80+ Gold certificaat wilde en een modulaire voeding. Haat die berg kabels in de kast die ik niet nodig heb.
GioStyle schreef op vrijdag 20 januari 2012 @ 15:42:
Persoonlijk zou ik voor een i5 2400 gaan (goedkoper), lichtere voeding (betere efficiëntie en goedkoper) en 2x 8GB modules (iets duurder dan wat je nu neemt; alleen uitbreiding naar 32GB ligt dan nog open).
Ik denk dat 16GB voldoende is. Ik zal nooit meer dan 10TB opslag hebben in die server. Wat voor mij normaal ruim voldoende is. Met de regel van 1GB per TB zit ik nog met 6GB 'over'. Daarvan kan ik 4GB dedicaten aan mijn VM.
Lijkt prima, toch ?

Acties:
  • 0 Henk 'm!

Verwijderd

Hij heeft wel een punt. Als je duurder wilt kun je veel beter 32GiB RAM nemen, zeker nu de prijzen laag liggen. Al zou je dat nu niet doen, kun je zeker ook 2x 8GiB overwegen. Ik neem voor het gemak even aan dat je moederbord dat ondersteunt.

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Verwijderd schreef op vrijdag 20 januari 2012 @ 16:53:
Hij heeft wel een punt. Als je duurder wilt kun je veel beter 32GiB RAM nemen, zeker nu de prijzen laag liggen. Al zou je dat nu niet doen, kun je zeker ook 2x 8GiB overwegen. Ik neem voor het gemak even aan dat je moederbord dat ondersteunt.
Ik denk niet dat het die 120 euro extra waard is om 32GB RAM te hebben. Of heb ik dat echt wel mis ?
Als jullie denken dat het slim is, dan zal ik kijken of ik de RAM nog kan inwisselen voor 8GB latjes.

Lol, koop ik alles in 1x pricewatch: Corsair Vengeance CMZ32GX3M4A1600C10 kost het met +- 250 euro en is het moeilijk leverbaar
Koop ik het per latje pricewatch: Corsair Vengeance CMZ8GX3M1A1600C10 +- 60 euro = 240 euro... en ik kan het bij Alternate bestellen ( waar alle andere onderdelen besteld zijn ) ...

Heb ik voordelen aan zo'n 'Quad Channel' pakket of is het pure onzin ?

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 16:59
Dat is pure marketing. Mijn punt is dat wanneer je 2x 8GB koopt; je niet gelijk alle geheugensloten in gebruik heb. Mocht je later toch besluiten om bijvoorbeeld meer VM's te draaien, dan kan je makkelijk nog extra geheugen bijprikken zonder dat je iets eruit moet halen. Je bent dan meer future-proof.

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Eindelijk bericht van Afuture dat het pakket onderweg is... De 18e de bestelling gedaan, alles stond op levertijd 1-3 werkdagen...
Morgen of overmorgen dus post :). Heb toch maar gekozen om er gelijk 6x 2TB in te hangen en 32GB RAM :9.

Als het meezit maak ik er gelijk 8x 2TB van... Vraagje, kan ik met ZFSguru deze controller gebruiken: pricewatch: Highpoint Rocket 620. Ik zou er zo eventueel één willen aanschaffen.

Dan kunnen er:
-1x Intel X25-M 120GB SSD op de Z68 chipset
- 4x 2TB schijven op de Z68 chipset
- 2x 2TB op de onboard extra SATA controller ( Marvell 88SE9172 )
- 2x 2TB op de Highpoint Rocket 620 SATA controller ( Marvell 88SE9128 )

Will it work with ZFSguru >:) ?

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
http://rover.ebay.com/rov...ADME%3AB%3AEF%3AUS%3A1123

Hupsakee, zo'n IBM ServeRAID M1015 controller besteld, wordt standaard geleverd met 1 verloopkabel, 2e bijbesteld at $10 en ze flashen hem voor je in de firmware naar keuze. Dus wordt geleverd in IT-mode en getest op 8 drives. Hopelijk zijn die amerikanen een beetje snel :P :9...

Systeem is ge-assembleerd en heeft 2 passes van MemTest86 gelopen zonder errors :).
Nu de HD204UI drives checken op firmwareversie, om uit te sluiten dat er nog eentje met slechte firmware is.

Acties:
  • 0 Henk 'm!

Verwijderd

Spannend, en toch wel gaaf die 32GiB. Mooi systeempje heb je zo. 8)

Acties:
  • 0 Henk 'm!

  • Glashelder
  • Registratie: September 2002
  • Niet online

Glashelder

Anti Android

Ik vind het vervelend om spelbreker in dit hele verhaal te zijn maar ik mis iets eigenlijk. Backups.

ZFS mag dan betrouwbaar zijn (ik neem dat even aan); maar hardware hoeft dat niet te zijn. Bij een blikseminslag of spanningspiek ben je alsnog al je data kwijt. Je focus ligt als je het aan mij vraagt momenteel teveel op uptime en te weinig op de veiligheid van je data. Een RAID set doe je voor uptime (en snelheid), niet voor de veiligheid van je data.

Verder zou ik voor dit soort systemen altijd een OS kiezen waar je bekend mee bent want bij problemen ben je nergens.

Ik had gewoon voor Windows gegaan en de controller van Intel gebruikt.. Hoe complexer je het maakt hoe meer problemen je ook voor je kiezen gaat krijgen. KISS dus :)

PV 4915wp op oost, 2680 wp op west, 1900 wp op zuid. pvoutput - AUX 8 kW bi bloc


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Enkele fotootjes :) !

Langs opzij:
Afbeeldingslocatie: http://img10.imageshack.us/img10/4013/img9933h.jpg

In de kast:
Afbeeldingslocatie: http://img443.imageshack.us/img443/5299/img9934u.jpg

Firmwares flashen van de F4EG:
Afbeeldingslocatie: http://img713.imageshack.us/img713/633/img9937w.jpg
Pagina: 1