Even niets...
Aangezien ik bijna dezelfde config heb, heb ik onder mijn eigen to-do list om apscupd onder open indiana te draaien.DARKLORD schreef op zaterdag 10 november 2012 @ 18:38:
ook heb ik nog geen goede oplossing voor mijn apc ups via usb. deze heeft geen management card. hoe lossen jullie dat op? zit te denken om een aparte vm te gebruiken en hierop NUT of apcupsd zetten zodat deze een script kan uitvoeren welke alle vms afsluit...
Google voor open indiana apcupsd en je vindt een flink aantal hits. De tweede hit ziet er goed uit en ook op hardforum in de napp-it thread zijn er dacht ik mensen die dit succesvol gedaan hebben.
Dat scheelt weer die vmware onderhoud VM.
Even niets...
Na het lezen van dit topic (beetje diagonaal natuurlijk
So far so good, maar nu begreep ik hier dat het hele VM gebeuren gratis zou zijn, maar ik kom met de combinatie VMware ESXi en VSphere Client niet verder dan een 60 dage trial. Hoe zorgen jullie dat jet het geheel gratis draaiende houdt? Of moet ik dan toch naar KVM en bijbehorende beheertool?
Je kunt je bij VMWare registreren en dan een sleutel aanvragen (gratis). Deze sleutel kun je gebruiken om je 60 dagen trial om te zetten naar een volledig voor jouw bruikbaar systeem om te zetten ;-)Mystic Spirit schreef op donderdag 27 december 2012 @ 21:10:
Ik ben helemaal nieuw in het virtualisatie wereldje, maar vond het toch leuk om thuis eens te beginnen,
Na het lezen van dit topic (beetje diagonaal natuurlijk) heb ik dus wat ouode hardware uit de kast gehaald en ben ik aan de gang gegaan. Omdat ik in dit topic last dat de meeste tweakers VMware ESXi gebruiken, heb ik die ook gekozen. Liep even tegen NIC probleempje aan, maar een mede tweaker had nog een geschikte NIC voor mij en toen draaide de boel.
So far so good, maar nu begreep ik hier dat het hele VM gebeuren gratis zou zijn, maar ik kom met de combinatie VMware ESXi en VSphere Client niet verder dan een 60 dage trial. Hoe zorgen jullie dat jet het geheel gratis draaiende houdt? Of moet ik dan toch naar KVM en bijbehorende beheertool?
Beter kijken.... Staat de key gewoon op de download page
Nu ben ik weer klaar om verder te "spelen".
Hebben jullie nog suggesties voor handige VM's? Ben begonnen met een een paar pakketten "turnkey" installs. Ik heb een newznab en een NZBapp server gepakt en paar daar eens mee aan het testen geslagen en lijkt allemaal aardig te werken.
Ben benieuwd wat jullie goede VM's vinden om mee te beginnen en te proberen.
[ Voor 61% gewijzigd door Mystic Spirit op 27-12-2012 22:24 ]
Ik zou kijken waarvoor je je hypervisor wil gaan gebruiken. M.a.w. woorden : welke services zou je anders op verschillende hosts of op 1 host gezet hebben? Wil je je firewall/router virtualiseren, kijk dan naar een goede distro hiervoor, wil je een nas gaan maken? Kijk dan naar daarvoor geschikte distro's als ZFSGuru of FreeNas.Mystic Spirit schreef op donderdag 27 december 2012 @ 22:01:
Heb je nog pointers hoe dat moet? Ik ben namelijk geregistreerd, maar zie geen mogelijkheid voor een key langer dan de 60 dagen trial..
Beter kijken.... Staat de key gewoon op de download page![]()
Nu ben ik weer klaar om verder te "spelen".
Hebben jullie nog suggesties voor handige VM's? Ben begonnen met een een paar pakketten "turnkey" installs. Ik heb een newznab en een NZBapp server gepakt en paar daar eens mee aan het testen geslagen en lijkt allemaal aardig te werken.
Ben benieuwd wat jullie goede VM's vinden om mee te beginnen en te proberen.
Ga dus niet kijken naar kant en klare vm's die je kunt downloaden, maar gebruik wat je nodig hebt of denkt te hebben.
Ik ben maar eens begonnen met een webservertje met spotweb erop (op basis van Ubuntu 12.04 server). Die heb ik inmiddels draaiende. Dat ging op zich goed. Nu kan ik eens gan kijken hoe ik andere servies toe wil gaan voegen.
Nu ben ik wel benieuwd hoe jullie dat doen. Draaien jullie verschillende VM's met daarin een complete LAMP met de webservice die je draaien wil. Draaien jullie dan verschillende VM's met in iedere VM een deel van de LAMP of draaien jullie de verschillende services allemaal in één VM?
De laatste lijkt mij onwaarschijnlijk want waar heb je dan een VM voor nodig, maar hoor graag hoe jullie het opzet hebben en waarom.
Verwijderd
Zou ik een website draaien waarvan ik de content wil scheiden van de andere sites ivm bijv. risico, dan zou dat een losse VM worden.
't Is dus een beetje schipperen met wat nodig/nuttig is imho.
Waar ik over twijvel is of ik dan misschien wat snel tegen de limieten van het RAM aan loop. Als je voor iedere VM 500 mb geheuegen reserveerd, ga je vrij vlot door je geheuegen heen... Dit kun je neem ik aan niet thin provisionen net als je storage?
Ik ben een beetje aan het kijken met de statistieken of ik het geheugen gebruik per machine kan beperken tot wat er daad werkelijk in gebruik is met een kleine marge erop.
Iemand nog tips hoe je windows vm's wat minder cpu kan laten gebruiken als ze idle zijn ?
Linux (centos 6.3) vm's zitten idle netjes op 0% (met soms piekjes naar 0.3%)
Maar windows zit minimaal op 2% cpu en vaak zelfs nog wel paar procentjes meer.
(server zit een E5-2620 cpu in)
Heb zowel xp,7 en 8 geprobeerd.
linux vm config :
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
| <domain type='kvm'>
<name>mail</name>
<uuid>e23cd300-bec2-dfcf-6aff-8fce81b9520c</uuid>
<memory unit='KiB'>2097152</memory>
<currentMemory unit='KiB'>2097152</currentMemory>
<vcpu placement='static'>1</vcpu>
<os>
<type arch='x86_64' machine='rhel6.3.0'>hvm</type>
<boot dev='hd'/>
</os>
<features>
<acpi/>
<apic/>
<pae/>
</features>
<cpu mode='custom' match='minimum'>
<model fallback='allow'>Penryn</model>
<vendor>Intel</vendor>
</cpu>
<clock offset='utc'/>
<on_poweroff>destroy</on_poweroff>
<on_reboot>restart</on_reboot>
<on_crash>restart</on_crash>
<devices>
<emulator>/usr/libexec/qemu-kvm</emulator>
<disk type='file' device='disk'>
<driver name='qemu' type='raw' cache='none'/>
<source file='/var/vm/mail.raw'/>
<target dev='vda' bus='virtio'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/>
</disk>
<controller type='usb' index='0'>
<address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x2'/>
</controller>
<controller type='ide' index='0'>
<address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x1'/>
</controller>
<interface type='bridge'>
<mac address='52:54:00:6f:3c:e2'/>
<source bridge='br0'/>
<model type='virtio'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/>
</interface>
<serial type='pty'>
<target port='0'/>
</serial>
<console type='pty'>
<target type='serial' port='0'/>
</console>
<input type='tablet' bus='usb'/>
<input type='mouse' bus='ps2'/>
<graphics type='vnc' port='5920' autoport='no' listen='192.168.178.10'>
<listen type='address' address='192.168.178.10'/>
</graphics>
<video>
<model type='cirrus' vram='9216' heads='1'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0'/>
</video>
<memballoon model='virtio'>
<address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/>
</memballoon>
</devices>
</domain> |
Windows vm config :
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
| <domain type='kvm'>
<name>win7</name>
<uuid>02e5d570-02bc-867f-6e96-dc3914f002f1</uuid>
<memory unit='KiB'>2097152</memory>
<currentMemory unit='KiB'>2097152</currentMemory>
<vcpu placement='static'>1</vcpu>
<os>
<type arch='x86_64' machine='rhel6.3.0'>hvm</type>
<boot dev='hd'/>
</os>
<features>
<acpi/>
<apic/>
<pae/>
</features>
<clock offset='utc'/>
<on_poweroff>destroy</on_poweroff>
<on_reboot>restart</on_reboot>
<on_crash>restart</on_crash>
<devices>
<emulator>/usr/libexec/qemu-kvm</emulator>
<disk type='file' device='disk'>
<driver name='qemu' type='raw' cache='none'/>
<source file='/var/vm/win7.raw'/>
<target dev='vda' bus='virtio'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/>
</disk>
<controller type='ide' index='0'>
<address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x1'/>
</controller>
<controller type='usb' index='0'>
<address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x2'/>
</controller>
<interface type='bridge'>
<mac address='52:54:00:06:0f:84'/>
<source bridge='br0'/>
<model type='virtio'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/>
</interface>
<serial type='pty'>
<target port='0'/>
</serial>
<console type='pty'>
<target type='serial' port='0'/>
</console>
<input type='mouse' bus='ps2'/>
<graphics type='vnc' port='5940' autoport='no' listen='192.168.178.10'>
<listen type='address' address='192.168.178.10'/>
</graphics>
<video>
<model type='vga' vram='9216' heads='1'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0'/>
</video>
<memballoon model='virtio'>
<address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/>
</memballoon>
</devices>
</domain> |
cpu config zou nog verschil kunnen uitmaken, maar als ik dit bij windows 7 of 8 probeer krijg ik bluescreen :
1
2
3
4
| <cpu mode='custom' match='minimum'>
<model fallback='allow'>Penryn</model>
<vendor>Intel</vendor>
</cpu> |
Wil eigenlijk gewoon een windows vm draaien voor paar programma's maar wel dat server zelf zo idle mogelijk kan zijn. (windows aan of uit scheelt nu zo'n 5W in verbruik)
Je kan het achteraf wel wijzigen, maar dat is niet heel makkelijk.
Even niets...
En cpu van vm zelf staat eigenlijk continu op 0.
Even niets...
Als het 5% is dan zou ik denken dat je een aantal devices nog niet hebt uitgeschakeld. Met name de tablet emulatie kost veel zinloze CPU.B2 schreef op woensdag 02 januari 2013 @ 07:36:
Hetzelfde merk ik ook op mijn machine. Op de vm zelf staat de cpu 100% idle, maar op de host wordt toch 5% cpu verbruikt. En dat is geen eens een *BSD guest, maar Fedora op Fedora.
Ik heb hier nog een topic over geopend een tijd geleden en ging van 8% naar 1% belasting met Linux clients: KVM: host load met idle Linux guests
Windows clients blijven ook bij mij iets meer nemen.
Nou ja, ik gebruik een bluetooth usb device, doorgegeven vanaf de host. Dus vandaar zal het wel iets meer cpu zijn. Andere devices zoals tablets e.d. haal ik sowieso altijd al uit de config van een guest.Rukapul schreef op woensdag 02 januari 2013 @ 10:06:
[...]
Als het 5% is dan zou ik denken dat je een aantal devices nog niet hebt uitgeschakeld. Met name de tablet emulatie kost veel zinloze CPU.
Ik heb hier nog een topic over geopend een tijd geleden en ging van 8% naar 1% belasting met Linux clients: KVM: host load met idle Linux guests
Windows clients blijven ook bij mij iets meer nemen.
Volgens mij is dat gewoon een Windows probleem doordat het de processor niet lang genoeg kan laten slapen.DDX schreef op maandag 31 december 2012 @ 22:41:
Ik draai hier thuis een aantal vm's op qemu-kvm (op centos 6.3)
Iemand nog tips hoe je windows vm's wat minder cpu kan laten gebruiken als ze idle zijn ?
Linux (centos 6.3) vm's zitten idle netjes op 0% (met soms piekjes naar 0.3%)
Maar windows zit minimaal op 2% cpu en vaak zelfs nog wel paar procentjes meer.
(server zit een E5-2620 cpu in)
Heb zowel xp,7 en 8 geprobeerd.
Wil eigenlijk gewoon een windows vm draaien voor paar programma's maar wel dat server zelf zo idle mogelijk kan zijn. (windows aan of uit scheelt nu zo'n 5W in verbruik)
"Notice that Windows 7 can never idle the processor for longer than 15.6 milliseconds."
zie: http://arstechnica.com/in...-the-hood-of-windows-8/2/
Ik heb net even snel in Virtual Box Windows 7 met Windows 8 vergeleken en waar 7 constant cpu blijft verbruiken is dat bij 8 niet het geval.
Vraag me zelfs af hoe ik dat hele ESXi gebeuren ga moeten onderhouden, aangezien er geen client is voor OS X. (of toch niet dat ik kan vinden)
Download een gestripte tiny windows XP en installeer een vSphere client.
Even niets...
Op het internet een paar artikeltjes gevonden die mij misschien wel verder helpen maar ik ben op het moment aan het afwegen of het al die moeite wel waard is
Even niets...
Probleem is dat ik gisteren paar uurtjes ben bezig geweest om dat hele ESXi gebeuren via USB stick te booten om dan uiteindelijk het toch maar snel op een CD'tje te branden. Laat nu net lukken dat dat het laatste CD'tje was dat ik had
En dan heb ik nog niet eens de garantie dat het gaat werken
Als je virt-viewer hebt, kan je via View > Details > Overview > Machine Settings daar APIC en ACPI aanzetten.DDX schreef op maandag 31 december 2012 @ 22:41:
Ik draai hier thuis een aantal vm's op qemu-kvm (op centos 6.3)
Iemand nog tips hoe je windows vm's wat minder cpu kan laten gebruiken als ze idle zijn ?
Linux (centos 6.3) vm's zitten idle netjes op 0% (met soms piekjes naar 0.3%)
Maar windows zit minimaal op 2% cpu en vaak zelfs nog wel paar procentjes meer.
(server zit een E5-2620 cpu in)
Heb zowel xp,7 en 8 geprobeerd.
Zo, Server is onderweg, ik heb al vaak een paar ideëen gepost over hoe en wat.. misschien moet ik gewoon even aan jullie vragen hoe ik het beste dit aanpak..
allereerst mijn setup:
| # | Product | Prijs | Subtotaal |
| 1 | Intel Pentium G860 Boxed | € 54,95 | € 54,95 |
| 1 | ASRock B75 Pro3-M | € 56,90 | € 56,90 |
| 10 | Western Digital Green WD30EZRX, 3TB | € 117,67 | € 1.176,70 |
| 2 | Corsair Vengeance CMZ16GX3M2A1600C10 | € 77,95 | € 155,90 |
| 1 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 118,50 | € 118,50 |
| 1 | Intel Postville X25-M SSDSA2MH080G2C1 80GB | € 80,10 | € 80,10 |
| Bekijk collectie Importeer producten | Totaal | € 1.643,05 | |
hier komt een Crucial M500 in, zodra die beschikbaar/betaalbaar worden.
waarvoor ga ik het gebruiken?
- ZFS Datastorage
- Downloadstation (Sickbeard, Spotnet/spotweb, SabNZB, Torrents,...)
- FTP
- Mailing (toekomst)
- Backupserver
ZFS wil ik in FreeBSD doen maar ik had graag een normaal OS* daarnaast, waarom?
ik vind een dedicated FreeBSD zo beperkend, ik zou graag gewoon een normaal OS hebben op mijn server.. is dat zo absurd?
met 32GB moet ik toch makkelijk een VM-machine kunnen maken?
of moet ik nu een Corei5 gaan halen voor VT-d?
*Ubuntu/windows
\\ Baloo \\ Mijn iRacing profiel
Even niets...
heb ik dan nog een andere PCIe controller nodig? (ik heb nog een belking 2poorts en een 4 poorts controller uit een Qnap)
hoe moet het dan wel?
* ik wil niet opdringerig overkomen, maar ik zit een beetje met de handen in het haar, ik heb een dure server besteld, en ik hoop er het meeste uit te halen
[ Voor 18% gewijzigd door MikeVM op 05-02-2013 12:04 ]
\\ Baloo \\ Mijn iRacing profiel
Ik heb momenteel een virtuele Ubuntu server op WMware
Nou wil ik met deze server een FTP opzetten voor mijn bestanden op mijn Windows 7 PC ( fysiek zelfde PC )
Het is puur voor de hobby en ervaring, en ik wil graag weten of het uberhaupt mogelijk is voordat ik me suf ga googlen. Zelf lijkt het me wel, ben onbekend met ubuntu.
Samengevat : Een virtuele Ubuntu FTP server voor bestanden van mijn PC. Dit op het volledige internet.
Tips zijn welkom
Moet geen probleem zijn. Voor zover ik weet kan je VMWARE makkelijk de virtuele PC zo aansluiten alsof hij direct aan de router hangt. En kan dat niet, dan moet je even rommelen met NAT, geen probleem dus. Wel enkel voor de hobby, want Windows file aanbieden vanaf een virtuele PC op die Windows PC om het geheel vervolgens door te lussen naar internet is nogal omslachtig.Justout schreef op dinsdag 05 februari 2013 @ 15:21:
Vraagje :
Ik heb momenteel een virtuele Ubuntu server op WMware
Nou wil ik met deze server een FTP opzetten voor mijn bestanden op mijn Windows 7 PC ( fysiek zelfde PC )
Het is puur voor de hobby en ervaring, en ik wil graag weten of het uberhaupt mogelijk is voordat ik me suf ga googlen. Zelf lijkt het me wel, ben onbekend met ubuntu.
Samengevat : Een virtuele Ubuntu FTP server voor bestanden van mijn PC. Dit op het volledige internet.
Tips zijn welkom
Explorers in the further regions of experience...demons to some, angels to others.
Het is inderdaad puur voor de hobby en kennis op te nemen
Ik kan nu vanaf mijn PC een FTP connectie maken naar de ubuntu server, dus dat gaat goed.
En de server staat inderdaad rechtstreeks op de router ( bridged ).
Ik heb ook nog een NAS staan met FREENAS erop. Misschien ook leuk om hier een aantal directory's via FTP online te zetten.
Zoals hierboven gezegd, let goed op je beveiliging en pas in het begin op met belangrijke files. FTP servers zijn een gewild doelwit.Justout schreef op dinsdag 05 februari 2013 @ 15:52:
Dank voor je antwoord!
Het is inderdaad puur voor de hobby en kennis op te nemen
Ik kan nu vanaf mijn PC een FTP connectie maken naar de ubuntu server, dus dat gaat goed.
En de server staat inderdaad rechtstreeks op de router ( bridged ).
Ik heb ook nog een NAS staan met FREENAS erop. Misschien ook leuk om hier een aantal directory's via FTP online te zetten.
Explorers in the further regions of experience...demons to some, angels to others.
Stel ik wil het op een andere manier doen, hoe raad je het dan aan ? Dan bedoel ik bestanden online zetten om ergens anders te bekijken
[ Voor 26% gewijzigd door Justout op 05-02-2013 16:04 ]
Nee je kan de onboard controller niet zomaar doorgeven, tenzij je dus nog een andere controller hebt waar je datastore op staat.MikeVM schreef op dinsdag 05 februari 2013 @ 11:53:
op het moederbord zit toch ook een Intel controller? met 6 sata poorten? samen met de IBM heb ik dan 14 poorten? zonder de ASmedia controller? of kan ik die intel onboard niet doorgeven aan FreeBSD?
heb ik dan nog een andere PCIe controller nodig? (ik heb nog een belking 2poorts en een 4 poorts controller uit een Qnap)
hoe moet het dan wel?
* ik wil niet opdringerig overkomen, maar ik zit een beetje met de handen in het haar, ik heb een dure server besteld, en ik hoop er het meeste uit te halen
Bedenk het zo: Je VM MOET op een datastore staan, en deze datastore moet altijd van ESXi blijven.
Die datastore mag op elke controller staan, maar niet op USB. Zolang de controller door ESXi ondersteunt word, is het prima.
Daarna kan je een VM aanmaken met de onboard of addon controllers via VT-d doorgegeven.
Hoe je dus precies je server in moet richten weet ik niet, je moet zelf even kijken welke controllers wel en niet ondersteund worden.
Even niets...
sFTP misschien?Justout schreef op dinsdag 05 februari 2013 @ 16:00:
is goed dank je wel.
Stel ik wil het op een andere manier doen, hoe raad je het dan aan ? Dan bedoel ik bestanden online zetten om ergens anders te bekijken
Explorers in the further regions of experience...demons to some, angels to others.
ok, dan ga ik eerst FreeBSD solo draaiien, als ik dan een nieuwe processor koop en een extra raid controller, dan kan ik ESXi doen..FireDrunk schreef op dinsdag 05 februari 2013 @ 18:21:
[...]
Nee je kan de onboard controller niet zomaar doorgeven, tenzij je dus nog een andere controller hebt waar je datastore op staat.
Bedenk het zo: Je VM MOET op een datastore staan, en deze datastore moet altijd van ESXi blijven.
Die datastore mag op elke controller staan, maar niet op USB. Zolang de controller door ESXi ondersteunt word, is het prima.
Daarna kan je een VM aanmaken met de onboard of addon controllers via VT-d doorgegeven.
Hoe je dus precies je server in moet richten weet ik niet, je moet zelf even kijken welke controllers wel en niet ondersteund worden.
zonder VT-d kan ik geen gebruik maken van FreeBSD onder ESXi?
\\ Baloo \\ Mijn iRacing profiel
sftp of ftps en klaar.LiquidT_NL schreef op dinsdag 05 februari 2013 @ 15:54:
[...]
Zoals hierboven gezegd, let goed op je beveiliging en pas in het begin op met belangrijke files. FTP servers zijn een gewild doelwit.
Technisch gezien wel, je kunt disks aan een controller ook middels RDM doorgeven als je een CPU hebt zonder Vt-d (heb zelf mbv RDM 1 disks aan een Ubuntu VM en 2 disks aan een OpenIndiana VM gegeven)MikeVM schreef op dinsdag 05 februari 2013 @ 19:31:
[...]
ok, dan ga ik eerst FreeBSD solo draaiien, als ik dan een nieuwe processor koop en een extra raid controller, dan kan ik ESXi doen..
zonder VT-d kan ik geen gebruik maken van FreeBSD onder ESXi?
RDM wordt echter niet officieel ondersteund, dus bij problemen sta je er alleen voor. Dit laatste wil je voor een ZFS storage server natuurlijk liever niet en ga je voor een bekend werkende oplossing.
Ik had niet naar de HDD omvang gekeken.
In t geval van >2TiB drives zit je idd aan vt-d en passthrough vast
@FD ||
........\/
[ Voor 8% gewijzigd door Pantagruel op 06-02-2013 11:14 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
RDM gaat maar tot 2TB, en hij heeft 3TB schijven.
Dus JA je hebt persé VT-d nodig.
Even niets...
Als proxmox bevalt gaat wordt mijn esxi-openindiana, proxmox-openindiana vanwege opensm support op proxmox (en dus niet op de fileserver). Open-source IAAS stack -yay-. Op langere termijn zit openstack testen, kan ook leuk worden.
[ Voor 18% gewijzigd door analog_ op 28-03-2013 19:30 ]
Je mag dus hopen dat VT-d (als je dat gebruikt, waar ik maar even vanuit ga...) goed werkt.
[ Voor 22% gewijzigd door FireDrunk op 28-03-2013 19:43 ]
Even niets...
Quote van distrowatch bij de nieuwste ProxMox releasedd 4/3/2013:FireDrunk schreef op donderdag 28 maart 2013 @ 19:43:
Ik heb een hele poos terug ook Proxmox geinstalleerd, maar die gebruiken een kernel uit de prehistorie, of zelfs daarvoor. Ik geloof dat ik default 2.6.38 kreeg...
Je mag dus hopen dat VT-d (als je dat gebruikt, waar ik maar even vanuit ga...) goed werkt.
Tja Debian is nu eenmaal 'tried and tested' .Martin Maurer has announced the release of Proxmox 2.3 "Virtual Environment" edition, a Debian-based virtualisation platform for running virtual appliances and virtual machines: "We just released Proxmox VE 2.3, including countless improvements and a lot of exiting new features like the new KVM Backup/Restore - without the need of LVM. Changelog: update QEMU-KVM to 1.4.0; new KVM backup implementation; added RDB (ceph) support on GUI; update Linux kernel to vzkernel 2.6.32; include latest Broadcom bnx2/bnx2x drivers; include latest Adaptec aacraid driver; update e1000e to 2.2.14; update igb to 4.1.2; update ixgbe to 3.12.6; extend memory GUI to support ballooning; implement auto-ballooning; add HD resize feature to expand disks; updated network drivers; added omping binaries (for testing multicast between nodes); update to latest Debian version
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Er zitten 7 invidinduele stable kernel branches tussen...
Dat is niet meer tried and tested, dat is "I'm to fucking scared to upgrade to the next stable version..."
Beetje ik wil perse XP want dat is proven...
Even niets...
LOL, zo denk ict er bij mijn baas er in ieder geval wel overFireDrunk schreef op vrijdag 29 maart 2013 @ 11:28:
Tja, als je de Linux Kernel website bekijkt zie je dat het de Laatste supported longterm kernel is...
Er zitten 7 invidinduele stable kernel branches tussen...
Dat is niet meer tried and tested, dat is "I'm to fucking scared to upgrade to the next stable version..."
Beetje ik wil perse XP want dat is proven...
Mbt Debian, dat was sarcastisch bedoeld
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ben gisteren overigens er niet aan toegekomen heb nictool ontdekt om je DNS mee te beheren en dat is duidelijk een der betere tools. Voor powerdns is er nog een (visueel) mooiere tool maar het is duidelijk dat je met nictool zowel één als een paar honderd instances mee kan beheren. Enige vage is de licentie en hoe je eraan moet verkomen via een gratis product in een online shopping cart. Verder is de installatie ook brak en heb ik zelf wat perl scripting moeten doen maar het draait wel heerlijk nu.
ps. http://www.servethehome.c...r-consumption-comparison/ leuk.
[ Voor 4% gewijzigd door analog_ op 29-03-2013 15:00 ]
http://blog.cyberexplorer...m-network-throughput.html
-poke -> HyperBart
Even niets...
Omdat ik veel met linux bezig ben om zaken te tweaken, wil ik nog wel eens een installatie kapot maken. Het irritante is dan dat soms de gehele installatie niet meer werkt. Nu begin ik steeds meer het voordeel van een thuisserver in te zien, en om daar niet het risico te lopen dat ik de thuisserver verknal wil ik de taken virtualizeren. Dit om te voorkomen dat als ik iets fout doe, meteen de gehele server niet meer werkt.
Hypervisor
Momenteel Linux mint met Xen als hostHardware
Momenteel nog niet veel soeps. Een Intel Core2Duo E8400 op een DG45ID moederbord van intel. Zodra het virtualizeren bevalt komt er een i5 systeemVirtuele machines
| Omgeving | Functie | Status |
| Host (Dom0) | Fileserver (nfs, ftp) beheer xen hosts | Draait prima (linux mint) |
| Virtuele gast Download | Sabnzbd, sickbeard, couchpotato etc | Alles geinstalleerd |
| Virtuele gast Media | Subsonic, squeezebox server, | Alles geinstalleerd |
| Virtuele gast Streamer | XBMC via VTd | Zodra ik VTd hardware heb |
Motivatie
Zoals de zien is moeten eigenlijk beide virtuele gasten bij de zelfde bestanden kunnen. Nu heb ik op de host een NFS share aangemaakt en die in beide virtuele servers is gemount. Voordat ik met downloaden begon ging alles goed. Maar zodra veel bestanden geschreven worden, loopt de boel vast:Dmesg virtuele gast Download: (192.168.1.90 is het ip adres van de host)
1
| [ 58.184082] nfs: server 192.168.1.90 not responding, still trying |
Verdere meldingen virtuele gast Download (herhaalt zicht regelmatig):
1
2
| [ 1320.100110] INFO: task sabnzbdplus:1727 blocked for more than 120 seconds. [ 1320.100120] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message. |
Voor alle duidelijkheid: sabnzbd download dus richting een nfs mount
Ik vraag me dus af of het gebruik NFS wel de goede keus is. Misschien is GFS beter? Wat zijn hier de ervaringen? ZenFS lijkt qua idee precies te zijn wat ik zoek, maar is niet echt doorontwikkeld. Doel is dus uiteindelijk dat ik meerdere virtuele machines tegelijk bij de zelfde bestanden kan laten.
(eigenlijk begin ik me steeds meer af te vragen, behalve het tweak gehalte, of het virtualizeren wel echt nodig is)
Ik hoor graag jullie bevindingen.
Maar 1 ding heb ik nog niet geregeld, en dat zijn backups van de VM's. Data is wel geregeld (datadisk hangt aan server 2012, die via robocopy de data naar een externe locatie spuugt).
Maar hoe maak ik nou eenvoudig backups van de VM's zelf? Iemand hier die een beetje een makkelijke methode daarvoor heeft? Op internet wel wat handleidingen gevonden, maar dan moet je de helf van de shell commando's nog zelf bedenken, en dat is niet mijn sterkste punt. Ook gekeken naar Veaam, maar die ondersteunt natuurlijk weer geen gratis ESXi versie
Even niets...
Even niets...
Veeam ondersteunt wel gratis versie of het foutieve informatie is of een niet forcerende constraint, heb het zelf zo draaien bij MKBtje, punt is wel dat veeam backup&replication ook licenties vereist.ThinkPadd schreef op zaterdag 20 april 2013 @ 00:30:
Heb al een tijdje ESXi op m'n thuisserver draaien met enkele (stuk of 5) VM's. Werkt supergoed, superstabiel.
Maar 1 ding heb ik nog niet geregeld, en dat zijn backups van de VM's. Data is wel geregeld (datadisk hangt aan server 2012, die via robocopy de data naar een externe locatie spuugt).
Maar hoe maak ik nou eenvoudig backups van de VM's zelf? Iemand hier die een beetje een makkelijke methode daarvoor heeft? Op internet wel wat handleidingen gevonden, maar dan moet je de helf van de shell commando's nog zelf bedenken, en dat is niet mijn sterkste punt. Ook gekeken naar Veaam, maar die ondersteunt natuurlijk weer geen gratis ESXi versie
als het goed is niet?analog_ schreef op zaterdag 20 april 2013 @ 20:25:
[...]
Veeam ondersteunt wel gratis versie of het foutieve informatie is of een niet forcerende constraint, heb het zelf zo draaien bij MKBtje, punt is wel dat veeam backup&replication ook licenties vereist.
http://www.veeam.com/blog/veeam-and-free-esxi.html
Hypervisor
Heb gekozen voor Microsoft Hyper-V. Aantal jaren geleden ben ik begonnen met Hyper-V 2008 en verolgens een upgrade gedaan naar 2008 R2. Toen de Hyper-V 2012 uitkwam (RTM) heb ik alle Hyper-V 2008 R2 hosts geupgrade naar 2012.Toen ik begon met Hyper-V heb ik nog wel naar de mogelijkheid gekeken om ESX(i) te gebruiken maar omdat we bij een aantal zakelijke klanten destijds de plannen waren om Hyper-V te gaan gebruiken heb ik voor deze gekozen zodat ik een en het ander kan uitproberen.
Omdat alle virtuele servers stabiel en vlot draaien heb ik nooit meer naar ESX(i) omgekeken omdat naar mijn weten als je overstapt naar ESX(i) je huidige data stores moet gaan omzetten en dat vond ik teveel werk.
Hardware
Op dit moment draaien er in totaal 3 Hyper-V hosts en een Synology DS413j voor de backup van de Virtuele Machines, Databases en de belangrijkste data.Hyper-V Host 01
Intel Core i7 920
ASUS P6T
6x 4GB DDR3 1333MHz Corsair Memory
2x IBM M1015 Controller
1x INTEL NIC 1000GT
3x Western Digital 1TB Black (50% voor de virtuele machines en overige 50% voor storage)
1x Western Digital 1TB Black (Voor Exchange & SQL Databases)
1x 64GB SSD (Voor de pagefiles)
5x 2TB Western Digital Green (DATA)
2x 3TB Western Digital Green (DATA)
Hyper-V Host 02
Intel Core i7 920
GIGABYTE GA-X58A-UD5
1x INTEL NIC 1000GT
6x 4GB DDR3 1333MHz Corsair Memory
1x IBM M1015 Controller
1x LSI 9260 Controller
3x Western Digital 1TB Black (50% voor de OS + virtuele machines en overige 50% voor storage)
1x Western Digital 1TB Black (Voor Exchange & SQL Databases)
1x 64GB SSD (Voor de pagefiles)
5x 2TB Western Digital Green (DATA)
2x 3TB Western Digital Green (DATA)
Hyper-V Host 03
HP ML110 G6
Intel Pentium G6950
2x2GB en 2x4GB Geheugen
1x Western Digital 250GB (OS + Virtuele Machines)
1x Western Digital 1TB Black (Virtuele Machines)
1x Western Digital 2TB Green (DATA)
Omdat ik alles op Hyper-V heb draaien was ondersteuning van de hardware niet echt een probleem, voor de extra zaken als Raid controllers en de NIC kaart werden na het installeren van de juiste drivers meteen herkent.
Het energie verbruik van de apparaten zou ik eerlijk gezegd niet weten omdat ik hier niet echt naar heb gekeken maar dit zal niet misselijk zijn, vandaar dat ik er nooit naar heb gekeken.
Virtuele machines
| OS/Appliance | Functie |
| Windows Server 2008 R2 | Application Server 01 |
| Windows Server 2008 R2 | Domain Controller 01 |
| Windows Server 2008 R2 | Exchange Client Access Server 01 |
| Windows Server 2008 R2 | Exchange Mailbox Server 01 |
| Windows Server 2008 R2 | File Server 01 |
| Windows Server 2008 R2 | Terminal Server 01 |
| Windows Server 2008 R2 | Application Server 02 |
| Windows Server 2008 R2 | Domain Controller 02 |
| Windows Server 2008 R2 | Exchange Client Access Server 02 |
| Windows Server 2008 R2 | Exchange Mailbox Server 02 |
| Windows Server 2008 R2 | File Server 02 |
| Windows Server 2008 R2 | Terminal Server 02 |
| Windows Server 2008 R2 | File Server 03 |
| Windows Server 2008 R2 | Management Server 01 |
| Windows Server 2008 R2 | Sophos Enterprise 01 |
| Windows Server 2008 R2 | SQL Database 01 |
| Windows Server 2012 | Veeam Backup 01 |
Motivatie
Ik ben begonnen met één server om te kunnen testen maar dit is gedurende de jaren uitgegroeid naar meerdere servers omdat ik steeds meer wilde draaien en testen. Na de RTM versie van Hyper-V 2012 wilde ik ervoor zorgen dat wanneer als één server uitvalt de belangrijkste zaken door blijven draaien waaronder, dc, exchange, ts, enkele belangrijke zaken die op beide applicatie servers draaien. Hyper-V Host 03 is als laatste bijgeplaats, als deze zou uitvallen is er niet echt een probleem voor het functioneren van het netwerk.De exchange client acess servers maken gebruiken van een software matige loadbalancer die in windows 2008 r2 enterprise zit. Replicatie van de Exchange database word over een apparte switch gedaan die alleen voor deze replicatie is bedoeld.
File Server 01 en 02 zijn de belangrijkste maar heb op alle 3 de file servers 2 Virtuele schijven van 500GB geplaatst voor de belangrijkste data en deze worden doormiddel van DFS op alle 3 de file servers gerepliceerd. Heb hiervoor gekozen omdat als er één of 2 file servers uitvallen of dat er een harde schijf kapot gaat dat ik toch altijd bij mijn belangrijkste data kan.
De Overige 7 schijven voor de host 01 en 02 zijn als Disk Passtrough ingesteld naar de file servers. Deze worden gebruikt voor opslag van Films, series, muziek etc. Omdat ik ervoor wilde zorgen dat wanneer één server uitvalt ik toch bij mijn data kon heb ik ervoor gezorgd dat beide servers hetzelfde zijn uitgerust qua schijf configuraties. Ieder uur worden de schijven gerepliceerd d.m.v. een robocopy script. Iedere schijf beschikt over een eigen share en daar heb ik een namepsace voor aangemaakt via DFS, dit om ervoor te zorgen als ik inlog op het netwerk en één server werkt niet dat alles toch netjes doorloopt. Ook mijn Plex media server maakt gebruik van de DFS namespace zodat hij ten alle tijden de libraries kan bijwerken.
Er wordt dagelijks een backup gemaakt van de virtuele machines mijn belangrijkste data. Hiervoor maak ik gebruik van Veeam Backup & Replication. Er is een Synology DS413j met 3x1TB aangesloten op de backup server d.m.v. ISCSI. Iedere avond wordt er een backup gestart om 22.00 (increementeel) en iedere vrijdag avond een full backup. Data kan ongeveer 6 maanden worden opgeslagen.
Heb 2 terminal servers die in een server farm hangen incl een TS gateway (load balanced) om rdp verkeer over poort 443 te laten lopen. Omdat ik maar over één publieke ip adres beschik heb ik deze moeten installeren op beide Exchange Client Access Servers. Om in te loggen op de terminal server maak ik gebruik van SecurEnvoy softtoken (draait in failover mode), hiervoor is een applicatie geinstalleerd op mijn telefoon die mij iedere keer een unieke code geeft, ook is het mogelijk om deze code per sms of mail te ontvangen.
Op beide applicatie servers heb ik ook nog radius draaien voor mijn accesspoints. Ze kunnen hier alleen maar inloggen op het wireless als hij/zij een account op het netwerk heeft.
Toekomst
Qua hardware zal ik voorlopig niet gaan uitbreiden behalve extra harde schijven. Deze zal ik of in de huidige kasten gaan plaatsen of in een apparte storage enclousure met sas expanders.
In de toekomst wil ik nog wel gaan testen met NIC teaming in Server 2012 hier zal ik nog wel extra netwerkkaarten voor aan moeten schaffen (2 of 4 poorts), heeft iemand hier al ervaring mee en mij kan vertellen of het naar behoren functioneert zonder rare netwerkproblemen?
Verder wil ik nog VLANS gaan toepassen en het netwerk verder dichtzetten, inbound staat alleen poort 443 open maar wil outbound ook nog verder dichtzetten en monitoren. Ik maak al gebruik van HP procurves (managed) en een juniper SRX210H alleen moet nog de tijd vinden om de aanpassingen te kunnen doen.
[ Voor 12% gewijzigd door Phorcys op 21-04-2013 18:42 ]
VM van 31GB deed hij 14 minuten over. Gemiddeld 33 - 45MB/s.
Enige nadeel is dat je niks kan schedulen (dat zal wel door VMware opgelegd zijn). En je kan niet via SSH (SCP) backups maken. Tijdens het toevoegen van je ESXi host zegt het programma namelijk dat je voor betere performance SSH aan moet zetten, en de optie aan moet vinken "Try to use VMX Agent on ESXi". Maar die 2 opties kan je alleen in de betaalde versie gebruiken.
Veaam had ik ook best wat voor willen betalen, maar zag dat de goedkoopste licentie begint bij 500+ euro... beetje te gek voor thuisgebruik. Dan maar in m'n agenda inplannen en zelf handmatig wat klikken.
Helaas moet je voor Trilead VM Explorer ook aardig in de buidel tasten, de goedkoopste licentie daar is ook al 520 euro
@ hierboven, mooie setup heb je staan! Alleen in mijn ogen behoorlijk overdreven voor een thuis situatie... 3 hosts zal wel aardig wat slurpen qua stroom, dan zit je wel op honderden euro's stroom per jaar (elke Watt is 2 euro per jaar)
[ Voor 50% gewijzigd door ThinkPad op 22-04-2013 00:07 ]
En weet je zeker dat je niet met SCP kan kopieren?
[ Voor 36% gewijzigd door FireDrunk op 22-04-2013 08:46 ]
Even niets...
gettoVCB Backup
Hij draait in de ESXi SSH Shell, en werkt gewoon met 2 datastores. Hij maakt een nieuwe directory aan met de datum, en doet een cp van de normale files, en een vmkfstools disk clone van de VMDK files.
Volgens mij moeten de VM's ook uit, hoewel ik dat bij de laatste versie nog niet 100% getest heb.
Even niets...
Voor een thuis situatie is het inderdaad behoorlijk overdreven maar gebruik dit netwerkje voor zowel prive als zakelijk om te kunnen testen met Clusters en/of andere software. Vandaar dat ik de apparaten ook dubbel heb uitgevoerd.
Maar de extra hardware (juniper, procruves, accesspoints) en software (securenvoy, gfi) heb ik via mijn werkgever erg voordelig kunnen krijgen met als doel om het te kunnen uitzoeken & testen.
Storage gedeelte is uiteraard prive
[ Voor 12% gewijzigd door Phorcys op 22-04-2013 12:22 ]
SSH op ESXi staat default uit en unsupported. Maar hij is wel te enablen via de console, door daar 'unsupported' in te typen. Check deze stappen, zou moeten werken.
Wat veel mensen natuurlijk doen, is oefenen voor trainingen/examens die ze voor hun dagelijks werk nodig hebben. Door het doen van trainingen en zo krijg je vaak wat meer betaald (uiteindelijk...).ThinkPadd schreef op zondag 21 april 2013 @ 23:35:
***knip***
@ hierboven, mooie setup heb je staan! Alleen in mijn ogen behoorlijk overdreven voor een thuis situatie... 3 hosts zal wel aardig wat slurpen qua stroom, dan zit je wel op honderden euro's stroom per jaar (elke Watt is 2 euro per jaar)Tuurlijk is spelen leuk, maar heb je daadwerkelijk alles nodig om je thuisnetwerkje draaiend te houden? No flame intended hoor, ziet er verder keurig uit allemaal !
Dus qua kosten verdien je er wel weer wat op terug.
Even niets...
VM1: Ubuntu Server
- Spotweb
- Sickbeard
- Sabnzbd+
- Samba
- Firewall
- Mediastream software
- Crashplan backup software
- Adobe Creative Suite
- Office pakket
Ik vraag me eigenlijk af of dit een beetje een logische indeling is voor de servers. Ook de volgende vragen heb ik nog:
- Is het misschien logischer om de firewall op een aparte VM te configureren (lagere belasting, lager verbruik)?
- Moet ik antvirussoftware installeren op de Samba server omdat ik ook Windows machines in mijn netwerk heb staan?
- Hoe zouden jullie dit indelen?
Samba ligt er een beetje aan wat je bedoeling er mee is. Als je alleen je gedownloade meuk wilt kunnen benaderen dan zou je het ook door VM1 kunnen laten doen. Als het echter een volwaardige fileserver gaat worden dan zou ik het apart houden (en evt. een share maken waar de voltooide downloads in worden geplaatst).
Crashplan zou ik ook een aparte VM voor maken, lijkt me toch iets wat redelijk kritisch is en waar je geen gezeik mee wilt hebben.
Antivirussoftware... hmmm de kans dat je je linux vm's met een virus besmet lijkt mij erg klein. Ik heb het iig niet, heb op m'n clients wel een virusscanner draaien die zorgen dat het virus al niet eens op m'n fileserver terecht komt.
En verder zou je misschien nog Debian kunnen overwegen ipv Ubuntu. Is in mijn ogen wat stabieler, en ook minder log/groot.
Om je een beeld te geven hoe ik het bij mij thuis heb ingedeeld:
Resource Pool "Productie":
- iTunes streaming server (XP)
- Plex Mediaserver (Ubuntu, al gaat deze bij een reinstall waarschijnlijk over naar Debian)
- PRTG Monitoring (Win8)
- Fileserver (films, foto's, muziek) & Crashplan (Server 2012)
- vCenter Mobile Acces zodat ik met m'n iPad bij ESXi kan (is CentOS dacht ik)
- VPN server (Debian)
- Webserver (Debian)
- Debian testmachine om beetje te klooien met linux dingen
- XP met Navision legacy meuk wat ik ooit eens nodig had voor school
Daarnaast is Ubuntu veel recenter qua packages, en is VMware Tools fatsoenlijk supported
AntiVirus software kan je prima doen, ClamAV werkt prima onder Linux.
Zolang je er geen last van hebt, is 2 beter dan 1
Even niets...
VMWare tools zijn gebaseerd op open-vm-tools, die ook makkelijk te verkrijgen is voor Debian, daar zijn gewoon repositories voor. Anders is er ook een VMWare repository beschikbaar hiervoor. Met een simpele Google zoekopdracht vind je bij de eerste resultaten deze tutorial.FireDrunk schreef op woensdag 08 mei 2013 @ 15:41:
Daarnaast is Ubuntu veel recenter qua packages, en is VMware Tools fatsoenlijk supported
Even niets...
Het plan is om een waardige en flexibele opvolger voor mijn NAS (Synology DS509) te maken en voorbereid te zijn op de toekomst.
De VM's die erin moeten komen zijn:
- File server. Nas4Free met ZFS van 5 of meer disks en minimaal 8TB opslag (misschien andere distro moet nog even experimenteren)
- Download server. Linux based met SabNZBd, Sickbeard, Couchpotato, Headphones
- Media / TV server. Linux based met TV-headend voor het serveren van TV beelden naar mijn XBMC installaties en Marachino (marachino gaat misschien in de download server als het daar beter bij past)
- Web server. Hiervoor ben ik er nog niet uit of dit 1 webserver met meerdere pagina's moet worden of dat ik een server per doel wil. De doelen zijn minimaal een eigen mirror van musicbrainz (t.b.v. headphones), een eigen instance van een usenet indexer en een of meer Joomla / Wordpress installs
- SQL server. Deze wil ik los trekken van de webserver, omdat mijn gesharde library van XBMC erin moet komen en ook de andere toepassingen SQL gebruiken.
Nu is natuurlijk het grote dilemma. Welke hardware hiervoor aan te schaffen. Mijn oude C2D gaat dit niet redden en als hij dat wel zou doen, dan vertrouw ik hem er niet voldoende meer voor.
Mooie plek om te beginnen is de BBG van afgelopen januari. Daarmee heb ik dan ook een wenslijstje samengesteld.
| # | Product | Prijs | Subtotaal |
| 1 | Intel Core i5 3330 Boxed | € 157,80 | € 157,80 |
| 1 | ASRock B75 Pro3-M | € 56,90 | € 56,90 |
| 1 | Fractal Design Core 1000 | € 28,19 | € 28,19 |
| 2 | Corsair CMV8GX3M1A1333C9 | € 49,90 | € 99,80 |
| 1 | Seasonic G-Serie 360Watt | € 61,- | € 61,- |
| 1 | Samsung 840 series SSD 120GB | € 82,99 | € 82,99 |
| Bekijk collectie Importeer producten | Totaal | € 486,68 | |
Vrijwel alles is een ikoppertje (veel mem voor ZFS, ASRock bordje wegens VT-D ondersteuning en veel SATA porten en een SSD om de VM's op te installeren vanwege veel read/write acties). Twijfel heb ik voornamelijk over de processor. Met alles wat ik gepland heb staan lijkt het vertandig om te gaan voor een i5 met VT-D ondersteuning, maar die is wel vrij prijzig. In de BBG wordt ook verwezen naar een celeron processor (die is 1/3e van de prijs van de i5) en wie weet trek ik het daar ook wel mee. Hebben jullie hier suggesties voor in het licht van bovenstaand aantal servers en load? En heb ik echt performance technisch iets aan VT-D in deze situatie?
Daarnaast zoek ik nog naar een goede verdeling van de resources. In mijn huidige test opstelling valt er namelijk weinig te verdelen
ZFSGuru, Ubuntu Download (incl. maraschino), TvServer, XBMC/Mysql server
En dat werkte prima op een G620, onlangs heb ik een i5-3330 aangeschaft omdat ik VT-D wilde hebben voor het doorgeven van m'n onboard SATA controller aan m'n ZFSGuru VM.
Performance van je schijven is via passthrough mbv VT-D natuurlijk wel beter.
En als je ZFS wilt dan zou ik sowieso voor VT-D gaan. Schijven doorgeven via RDM aan ZFS is crap.
Voor het ZFS verhaal zou je hier nog kunnen kijken:
Het grote DIY RAID NAS topic deel 3
Het grote ZFS topic
[ Voor 18% gewijzigd door ThinkPad op 09-05-2013 13:44 ]
De opslagcapaciteit van de ssd is ook echt niet het probleem die jij er van maakt. Het e.e.a. ligt aan welk OS je gebruikt, wat je stript aan dat OS maar ook welk soort disk je kiest (je kunt een 20GB disk aanmaken en dan alles pre-allocaten wat betekent dat die vmdk gewoon 20GB groot is; je kunt ook sparse gebruiken waarbij alleen datgene wordt gebruikt wat ook daadwerkelijk data is). Er wordt hier Linux gebruikt en voor een aantal taken kun je die echt ultrakaal laten waardoor je een vm krijgt die maar 1 tot hooguit 4GB aan diskspace in beslag neemt. Dan is zo'n 120GB ssd ineens heel erg ruim. Kijk eens naar wat mensen met een Raspberry Pi uitvoeren en welke sd kaartjes ze gebruiken (4 en 8GB zijn de meest voorkomende).
Voor wat betreft het rarren en parren etc. van downloads weet ik nog niet waar ik dat wil doen. Ik denk dat ik dat inderdaad op de SSD ga doen, maar het opspinnen is niet te voorkomen omdat de downloads als ze klaar zijn automatisch weg geschreven gaan worden naar de ZFS pool.
Wat mij nog niet duidelijk is is hoeveel verschil VT-D gaat maken voor de disk performance. Wat ik mij afvraag is, is dit merkbaar in de situatie die ik beschrijf?
Als ik me een beetje aardig heb ingelezen, gaat VT-D vooral wat CPU power schelen omdat de CPU de omzetting niet meer hoeft te doen. Maar gaat dit ook daadwerkelijk schelen in bandbreedte of doorvoersnelheid? Misschien dat het de latency wat verhoogd als het via de CPU moet, maar daar merk je denk ik weinig van of heb ik het dan helemaal mis? Het kan natuurlijk zijn dat ik iets over het hoofd zie, maar ik kan ook zo geen benchmarks vinden die het geheel tegen elkaar afzetten.
Hij kan z'n storage verder wel gebruiken als NAS bijv. Ik vind het zelf persoonlijk zonde van de energie als je een uur aan het downloaden bent, en je pool dan iedere keer moet opspinnen.ppl schreef op donderdag 09 mei 2013 @ 16:53:
Een wat vreemde redenatie die je er op nahoudt. Iets kopen maar het dan niet inzetten waar je het voor gekocht hebt of dat zoveel mogelijk aan banden leggen...duurkoop.
[..]
Dat snap ik, maar stel je wilt een Blu-ray van 50GB downloaden, hoe ga je dat dan doen... dat past niet op je SSD. En dan staat (afhankelijk van je internetsnelheid) je pool wel een x aantal uur te draaien.De opslagcapaciteit van de ssd is ook echt niet het probleem die jij er van maakt. Het e.e.a. ligt aan welk OS je gebruikt, wat je stript aan dat OS maar ook welk soort disk je kiest
Als je een betrouwbare ZFS configuratie wil dan zul je wel aan de VT-D moeten. Zoals ik al eerder zei is het niet aan te raden om een ZFS configuratie op te zetten met virtuele schijven, of schijven doorgegeven via RDM. Het systeem kan dan niet goed de daadwerkelijke staat van de schijven opvragen.Maar dit is allemaal wel uitgelegd in de 2 topics die ik eerder heb vermeld hierbovenMystic Spirit schreef op donderdag 09 mei 2013 @ 19:24:
Wat mij nog niet duidelijk is is hoeveel verschil VT-D gaat maken voor de disk performance. Wat ik mij afvraag is, is dit merkbaar in de situatie die ik beschrijf?
[..]
[ Voor 72% gewijzigd door ThinkPad op 10-05-2013 10:25 ]
Dat klinkt voor mij als een erg klein een theoretisch risico. Is het niet veel waarschijnlijker dat de hardwre faalt? Moederborden en HDD's lijken mij vaker stuk te gaan (ook al vaker meegemaakt) dan het risico dat de virtualisatielaag je data verkeerd doorgeeft en het daardoor verkeerd op de schijf terecht zou komen. Of hebben jullie dat al meerdere malen meegemaakt?
(Maar dat heb ik nog niet bij anderen gezien)
Virtual RDMs werkten prima, maar ik had geen SMART (en m'n drives park'ten zich een ongeluk)
Dus ja, 't kan, het is goed te doen, zal allemaal best werken.
Maar eigenlijk moet je het niet willen.
Maargoed, ik heb nu een goedkoop PCI2SATA kaartje erin zitten voor m'n datastore, maar dat lijkt me voor een SSD niet zo handig.
Dus jij zal dan waarschijnlijk een M1015 willen aanschaffen oid? Dan wordt 't geheel nog 'ns 100 euro duurder.
Het is dus in ieder geval verstandig om toch voor een VT-d capable CPU te gaan ondanks dat die 3x zo duur is als een CPU zonder VT-d.
Nu is een quad core i5 natuurlijk ook tot meer in staat dan een dual core celeron, maar het voelt toch als overkill voor de taken die gedaan moeten worden.
En als je de controller doorgeeft naar je VM, dan kun je daar niet ook je ESXi datastore aanhangen.
Dus tenzij de ASRock B75 Pro3-M de onboard SATA poorten voor een deel kan doorgeven aan een VM, zodat je tenminste één poort overhoudt voor je datastore, heb je niet zoveel aan VT-D.
Vind ik persoonlijk onzinnig. Want als je downloads daadwerkelijk klaar zijn gaan ze toch alsnog naar je data pool? Of sorteer je al je data met de hand?ThinkPadd schreef op donderdag 09 mei 2013 @ 13:43:
Die SSD gaat al gauw te krap worden denk ik. Je hebt nu maar 24GB per VM beschikbaar, als je het gemiddeld genomen ziet (120 / 5 = 24). Waar laat je bijv. Sabnzbd z'n bestanden wegschrijven als hij aan het downloaden is? Dat wil je niet op je ZFS pool aangezien die dan elke keer moet opspinnen...
En als je ZFS wilt dan zou ik sowieso voor VT-D gaan. Schijven doorgeven via RDM aan ZFS is crap.
Voor het ZFS verhaal zou je hier nog kunnen kijken:
Het grote DIY RAID NAS topic deel 3
Het grote ZFS topic
Die 5 minuten dat je schijven even draaien als er een download binnen komt geven toch niet zo?
Over het RDM verhaal: VT-d is niet sneller dan RDM, wel stabieler en iets veiliger.
Bovendien zit je met RDM gelimiteerd aan 2TB schijven.
[ Voor 7% gewijzigd door FireDrunk op 11-05-2013 11:40 ]
Even niets...
De limiet va 2TB was mijn nog niet bekend en dat i een behoorlijk belangrijk aspect van de file server. Ik draai nu nog op 2TB schijfjes, maar dat worden op den duur zeker 3 of 4TB schijven.FireDrunk schreef op zaterdag 11 mei 2013 @ 11:38:
[...]
Vind ik persoonlijk onzinnig. Want als je downloads daadwerkelijk klaar zijn gaan ze toch alsnog naar je data pool? Of sorteer je al je data met de hand?
Die 5 minuten dat je schijven even draaien als er een download binnen komt geven toch niet zo?
Over het RDM verhaal: VT-d is niet sneller dan RDM, wel stabieler en iets veiliger.
Bovendien zit je met RDM gelimiteerd aan 2TB schijven.
Data met de hand sorteren, is natuurlijk niet meer van deze tijd
Even niets...
Dat klopt, maar passthrough van één van die twee gaat niet vlekkeloos.Robsta86 schreef op zaterdag 11 mei 2013 @ 11:36:
Dat Asrock bord heeft 2 sata controllers, is volgens mij in het zuinige server topic al een keer ter sprake gekomen....
Je kunt aleen de 2-poorts ASMedia controller doorgeven, en daar heb je niet zoveel aan.
Als je de 6-poorts Intel controller doorgeeft, gaat de ASMedia controller mee (en als daar je datastore aanhangt, heb je pech)
Zie:
Pantagruel in "Zuinige ESXi Server"
Pantagruel in "Zuinige ESXi Server"
Dat wil nog niet zeggen dat een ander die mening ook is toegedaanThinkPadd schreef op vrijdag 10 mei 2013 @ 10:23:
Hij kan z'n storage verder wel gebruiken als NAS bijv. Ik vind het zelf persoonlijk zonde van de energie als je een uur aan het downloaden bent, en je pool dan iedere keer moet opspinnen.
Dat is dan een keuze die je maakt. Er zijn nog zat mensen die met hdd's ipv ssd's werken. Die hoor je er ook niet zo over. Als je de boel toch allemaal geautomatiseerd laat doen en vaak ook 's nachts wanneer je er niet mee werkt zul je ook niet het verschil gaan merken.Dat snap ik, maar stel je wilt een Blu-ray van 50GB downloaden, hoe ga je dat dan doen... dat past niet op je SSD. En dan staat (afhankelijk van je internetsnelheid) je pool wel een x aantal uur te draaien.
Vrij simpel: RDM is geen betrouwbare implementatie. VMware garandeert dan ook geen enkele werking van disks die je via RDM aan een vm koppelt. Of je nou ZFS, UFS, EXT4, NTFS of eender welk ander filesystem gebruikt is dan ook totaal niet interessant. Het kan dus vriezen maar het kan ook dooien. Dat is een risico die je met data niet moet gaan lopen. Kun je wel backuppen maar als je datacorruptie hebt wordt dat ook vrolijk meegebackupt. Dan heb je een backup maar is die zinloos omdat de data stuk is.Mystic Spirit schreef op vrijdag 10 mei 2013 @ 13:15:
Ik heb de twee topics aardig door gespit en snap het risico nog niet zo goed van dat de gevirtualiseerde disks mee brengen voor ZFS.
Het doorgeven van de onboard controller van je moederbord levert vaak meer problemen dan voordelen op. Mensen vergeten vaak dat ze de schijf met de datastore hier ook aan hebben hangen. Als je de controller doorgeeft betekent dat je dus alle poorten met alle schijven incl. je datastore doorgeeft aan een vm. ESXi ziet dan geen datastore meer en kan dus ook geen vm's meer starten. Als je dit soort dingen wil doen zorg dan voor een 2e losse controller en geef die door aan een vm.
Als ik dit serieus aan wil pakken, moet ik dus sowieso ook nog losse SATA controler kopen en dat betekent weer 150 euro erbij tellen voor een beetje redelijke controler.
Begin ik me toch af te vragen of het wel zo handig is om de hele boel te virtualiseren. Eigenlijk is de enige logische conclusie die ik hieruit kan halen dat het verstandig is om je storage op een separaat systeem te doen en dit niet te virtualiseren.
Als ik de extra 100 euro reken die ik voor een processor neer moe tellen met VT-d plus de ca. 150 euro die ik neer moet tellen voor een fatsoenlijke SATA controler, dan kan ik voor datzelfde geld een 2e systeem kopen. Op een beetje verschil met de energierekening na ben ik dan het complete voordeel van de virtualisatie kwijt.
Even niets...
Als het allemaal serieus moet en er bedrijfskritische zaken mee wordt gedaan is het inderdaad verstandiger om een aparte dedicated machine te gebruiken voor je storage. Maar dan moet je ook niet met consumentenhardware gaan werken zoals een ASrock mobo.
Hoe dan ook, beide setups hebben nogal wat voeten in de aarde dus onverstandig is navraag niet
Dat iets niet aan de voorwaarden van een bedrijfskritische setup voldoet, wil toch niet zeggen dat het niet 'goed' en zinnig is?
Ik virtualiseer graag, scheelt een hoop gekloot met configs in operating systems die bepaalde software wel ondersteunen maar waar geen automatische installers voor zijn...
(CouchPotate/SickBeard op FreeBSD is gewoon kak, op Ubuntu is het 3 keer niezen en het staat er op...)
Het zinnige is dus: Ease of use...
Even niets...
Hmm daar was ik niet van op de hoogte... Goed puntRudolfR schreef op zaterdag 11 mei 2013 @ 14:27:
[...]
Dat klopt, maar passthrough van één van die twee gaat niet vlekkeloos.
Je kunt aleen de 2-poorts ASMedia controller doorgeven, en daar heb je niet zoveel aan.
Als je de 6-poorts Intel controller doorgeeft, gaat de ASMedia controller mee (en als daar je datastore aanhangt, heb je pech)
Zie:
Pantagruel in "Zuinige ESXi Server"
Pantagruel in "Zuinige ESXi Server"
Ik blijf het merkwaardig vinden dat voorwaarden voor een bedrijfskritische setup nooit en te nimmer zouden op mogen gaan voor thuisgebruikers. Alsof een thuisgebruiker niet graag zijn data op een makkelijke en veilige manier ergens gecentraliseerd wil hebben...FireDrunk schreef op zondag 12 mei 2013 @ 12:18:
Nou nou, dat is een stevig oordeel... Waarom zou het niet nuttig zijn?
Dat iets niet aan de voorwaarden van een bedrijfskritische setup voldoet, wil toch niet zeggen dat het niet 'goed' en zinnig is?
Het hele punt is dat de meesten hier knutselaars zijn en iets willen leren. Als je de vele topics hier (en dit topic in het bijzonder) doorbladert zul je ook zien dat men het vaak doet omdat het kan of omdat het het goedkoopst is, enz. Vrijwel nooit ligt de nadruk op een goede en zinnige setup. Als je zoiets wel zoekt om wat voor reden dan ook moet je naar een andere oplossing gaan zoeken.
Dat iets voor jou werkt betekent niet dat het meteen een goede en zinnige setup is en dat dit ook voor een ander zo zal zijn. In jouw geval kun je wel spreken van ease of use maar het is een heel kwetsbaar systeem. Die ease of use is heel snel weg als er iets omvalt. Is het dus een goede en zinnige setup? Nee. Is het een prima werkbare setup? Ja anders zou je het niet zo hebben opgezet en ingebruik hebben genomen. Het enige echte nut van een aantal setups hier is zelfstudie, het uitbreiden van je kennis. Ik heb niet het idee dat Mystic Spirit tot 1 van die groepen behoort en vooral op zoek is naar iets wat gewoon werkt. Dan valt bijna iedere setup hier al af.