[discussie] gevirtualiseerde freeNAS?

Pagina: 1
Acties:

Onderwerpen


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ok, ik heb hier geen uitgebreide kennis van maar heb toch enige basis mee, dus ik wou jullie meningen even vragen.

Voor een hobbyproject ben ik een thuisserver aan het configureren. Dit is momenteel nog in de beginfase (research, er is dus nog niets aangekocht).

De rollen van deze server zouden oa zijn: NAS (sharing en centrale backup), XBMC, couchpotato, nagios (healthmonitoring), etc. Grofweg zijn hier dus twee grote rollen: de NAS en server rollen. Gezien ik vrij safe wil spelen en dit een dedicated machine zou worden, denk ik zeer sterk in de richting van ZFS.

Ik wil (voor oa esthetische, maar ook zuinigheid ed) redenen alles zo eenvoudig mogelijk, op één machine dus.

Mijn idee voor de set-up:
er is één SSD (128GB oid), met 4 partities: freeNAS, server rollen, cache en xen. Hierop gebeuren eigenlijk alle installaties. Verder hangen er ook nog een aantal schijven in het systeem, die toegevoegd worden aan de ZFS pool (maar waarover xen dus geen beschikking krijgt).

Wat is jullie mening? Is dit doenbaar, of ben ik ergens iets vergeten?
PS: ja, ik weet dat er de raspberry pi ed zijn als eventuele oplossingen voor xbmc, maar dat lijkt me zonde als ik een hele server ter beschikking zou hebben...

edit: uitbreiding PS :)

Acties:
  • 0 Henk 'm!

  • evolution536
  • Registratie: Maart 2009
  • Laatst online: 05-06-2024

evolution536

besh besh

Even kijken of ik het goed begrijp. Bedoel je dat je Xen / ESXi o.i.d. op je hardware installeert en een freeNAS als virtuele machine draait? Hiernaast heb je dan dus de ruimte over voor de andere rollen die je wilt gebruiken? Ik zie dit nergens duidelijk beschreven, alleen zie ik wel woorden in je topic die hierop zouden kunnen wijzen.

Acties:
  • 0 Henk 'm!

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

Ik weet niet of zuinigheid een factor is als je virtualiseert, blijkbaar kan je in sommige gevallen de power saving functies maar beter uitzetten (dat is hier toch gepasseerd in een of ander server-topic). Input van de specialisten is natuurlijk welkom :).

Los daarvan: je systemen opsplitsen kost natuurlijk netto ook meer (hardware), maar volgens mij kan je uiteindelijk qua verbruik beter af zijn. En je kan specialiseren. Wat je natuurlijk ook met virtualisatie kan, maar dan moet je wel zorgen dat je hardware berekend is op de zwaarste taak die het moet aankunnen :).

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
@evolution536
Klopt!

Xen zou op de ssd staan (1ste partitie). Als VMs draaien freenas en linux (xbmc ed), elk ook op een eigen partitie van dezelfde ssd. Er zou ook nog een vierde partitie voorzien zijn voor ZFS cache...

edit: @borromini

Ik zou een (vrij goedkope) low-power sandy bridge CPU gebruiken, en uiteraard ook gebruik maken van de IGP. De hd's zullen makkelijk 10W per stuk gebruiken, dat weet ik, maar dat heb je ook in andere NASjes natuurlijk.

Wat betreft zuinigheid: 20 watt is niet zoveel (mag al 50 uur aanstaan voor 1kWh, wat 20 cent is. op jaarbasis zou dit zo'n 30 euro verschil maken, en dan moet het systeem een volledig jaar draaien - dus niet in standby ed) als je relatief kijkt naar eventuele hardware kosten denk ik :)

Aanvulling over die IGP: veel power is er niet nodig, gezien gaming via DLNA zou verlopen vanaf mijn desktop.

[ Voor 62% gewijzigd door Verwijderd op 26-07-2012 22:44 ]


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 05-09 13:40
Ik weet niet hoe dat met Xen zit maar bij ESXi gaat het draaien van XBMC en dat soort mediacenterachtige toepassing niet echt samen. Je GPU wordt namelijk niet 1 op 1 doorgezet naar de virtuele machines waardoor je deze niet kunt gebruiker op je beeld te renderen. Ik geef je bij Xen daarom ook weinig kans van slagen ;)

Zelf heb ik een ESXi server met daarop o.a. FreeNAS geïnstalleerd, dat op zich werkt wel als een trein :)

Over het verbruik: ESXi (en ik verwacht dat Xen daar niet anders in is) is niet gemaakt om heel zuinig te zijn, daarom is het verbruik wel een stukje hoger als wanneer je Windows 7 zou draaien. Gewoon iets om even rekening mee te houden.

[ Voor 28% gewijzigd door Stefanovic45 op 27-07-2012 10:05 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ik had idd nog geen rekening gehouden met de degraded GPU in VMs, dus voor wat betreft XBMC (en vermoedelijk andere server roles) zal ik even een andere oplossing moeten zoeken :)

Acties:
  • 0 Henk 'm!

  • evolution536
  • Registratie: Maart 2009
  • Laatst online: 05-06-2024

evolution536

besh besh

Dit probleem kun je oplossen door een Linux OS te installeren met daarop VMware Server of Workstation o.i.d, hierop kun je je grafische kaart wel doorlinken naar je VM's. Dit geld natuurlijk ook voor Windows. Ik denk alleen niet dat je op Hyper-V je grafische kaart kunt doorlinken.

Stefan heeft gelijk. ESXi e.g. zijn gebouwd voor een full power bedrijfsserver. De meeste energiebesparingsfunctionaliteit zit niet in de kernel. Met het draaien van een Ubuntu, CentOS of Debian linux distro of Windows 2008 R2 is je server een stuk zuiniger, en ook minder lawaaierig lijkt me dan. ;)

Acties:
  • 0 Henk 'm!

  • Mike2k
  • Registratie: Mei 2002
  • Laatst online: 22-08 11:59

Mike2k

Zone grote vuurbal jonge! BAM!

evolution536 schreef op vrijdag 27 juli 2012 @ 15:10:
Dit probleem kun je oplossen door een Linux OS te installeren met daarop VMware Server of Workstation o.i.d, hierop kun je je grafische kaart wel doorlinken naar je VM's. Dit geld natuurlijk ook voor Windows. Ik denk alleen niet dat je op Hyper-V je grafische kaart kunt doorlinken.

Stefan heeft gelijk. ESXi e.g. zijn gebouwd voor een full power bedrijfsserver. De meeste energiebesparingsfunctionaliteit zit niet in de kernel. Met het draaien van een Ubuntu, CentOS of Debian linux distro of Windows 2008 R2 is je server een stuk zuiniger, en ook minder lawaaierig lijkt me dan. ;)
Inderdaad...ESXi en HyperV ondersteunen geen 3d virtualisatie...

Denk dat je het even anders aan moet pakken:
Sowieso zie ik het nut niet van een partitie per OS op je SSD...dat ontgaat me echt totaal...maak je eea alleen maar ingewikkelder mee...

Verder:
XBMC op something something (Linux of Windows) dedicated installeren op de machine.
Daarnaast virtualiseren van Nagios en FreeNAS ed...
Dus je draait je virtualisatie software (Xen, vmWare Server, MS Virtual PC, Virtualbox, whatever) naast XBMC

Het enige waar je dan even op moet letten is welke van de programma's het automatisch starten van VM's ondersteunt zodat je dit bij een reboot niet met de hand hoeft te doen...

You definitely rate about a 9.0 on my weird-shit-o-meter
Chuck Norris doesn't dial the wrong number. You answer the wrong phone.


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Houd er sowieso rekening mee dat als je je ZFS-nas virtuaiseert, je waarschijnlijk met VT-d de diskcontroller aan de VM wilt geven, maar dat moet je hypervisor en je hardware dan wel ondersteunen.
Ook wil je een partitie van de SSD voor ZFS-cache gebruiken, ik denk dat dat alleen gaat met ZFS op een freeBSD, linux weet ik niet, maar OpenSolaris/Nexenta/OpenIndiana kunnen alleen de hele SSD gebruiken.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dank voor de reacties!

Deze namiddag nog even lopen nadenken, en een VM naast XBMC draaien is inderdaad ook een optie. Ik zat dus te denken in de richting van evolution en mike.

Een 2e ssd als cache-disk is inderdaad ook een mogelijkheid. Met deze set-up zouden er (zfs niet meegerekend) eigenlijk maar 2 partities zijn: één voor linux met gevirtualiseerde freenas, en één voor de zfs cache.

Voor het gebruik hebben jullie ook helemaal gelijk :) maar ik ben wel al blij dat ik naar een oplossing kan met slechts één fysieke machine.

Ik had nog één vraag @mike: volgens wat ik begrijp zou je de overige server roles (dns, sickbeard, couchpotato, etc) op een aparte VM draaien en niet op de host van XBMC. Is hier een reden voor behalve best practice/logische opsplitsing? Gemak van migratie bij problemen oid?

Overige opmerkingen/tips zijn uiteraard ook welkom!
Pagina: 1