Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

  • sloth
  • Registratie: januari 2010
  • Niet online
quote:
Jormungandr schreef op zondag 26 februari 2012 @ 23:24:

Foto's
Nog niets veel aan te zien aangezien hij in een oude Aopen H600B case zit. Binnekort bouw ik hem in een NorcoTek 2U rackmount in een 12U rack. Dit zou binnen een paar weken moeten gebeuren, zal dan pics maken en posten.
Welke behuizing is dit precies?
Ik ben op zoek naar een betaalbare 2U case, maar vaak kan je dan geen gewone ATX voeding plaatsen, en de bijgeleverde zijn erg onzuinig.
foto's zijn ook altijd welkom :P

  • ShadowBumble
  • Registratie: juni 2001
  • Nu online

ShadowBumble

Professioneel Prutser

Hypervisor
vSphere Hypervisor ( Free ) 5.0.0 Update 1, ik gebruik al jaren VMWare producten en vind deze erg fijn werken dit is dan ook de primaire reden geweest om voor vSphere te kiezen.


Hardware
Hardware is eigenlijk vrij simpel omdat ik puur het gebruik voor Home Lab en een paar productie machines maar aangezien deze productie omgeving niet veel eisen heeft heb ik deze lekker op een HP Microserver N40L gezet voornamelijk vanwege de sublieme prijs/kwaliteit/energie verbruik eigenschappen.

De 2GB geheugen die default in deze machine zat is gegaan naar de NAS Server en de default 250GB schijf word gebruikt in de vSphere 5 Hypervisor gebruikt.

#ProductPrijsSubtotaal
1Kingston HyperX KHX1333C9D3B1K2/8G€ 42,95€ 42,95
1HP Proliant Microserver N40L (658553-421)€ 212,22€ 212,22
Bekijk collectie
Importeer producten
Totaal€ 255,17


Natuurlijk is de default opslag vrij klein maar daarom heb ik ook een 2de HP Microserver N40L. die er zo uitziet :

#ProductPrijsSubtotaal
4Hitachi Deskstar 7K4000, 4TB€ 257,30€ 1.029,20
1HP Proliant Microserver N40L (658553-421)€ 212,22€ 212,22
Bekijk collectie
Importeer producten
Totaal€ 1.241,42


Bij de NAS is de default 2GB uitgebreid naar 4GB met het oorspronkelijke geheugen uit de vSphere server. Hierbij is de standaard 250GB schijf verwijderd uit de drive bay en geplaatst in het Top 5.25" Bay om ruimte te maken voor de 4x 4TB schijven in de sledes.


Virtuele machines
OS/ApplianceFunctie
Ubuntu 12.04 LTS ServerWebserver met Vhosts, draait o.a. spotweb en nog wat familie sites
Ubuntu 12.04 LTS ServerMailserver incl. Webmail,spam/antivirus
Ubuntu 12.04 LTS ServerPuur Monitor omgeving



Motivatie
Het begon allemaal met fysieke servers maar nadat ik hier een aardig stapeltje servers had opgebouwd, en ik Ereklant werd benoemt bij mijn Energie Leverancier, ben ik langzaam alles naar VPS Server gaan verhuizen. Helaas werd ik dit na een tijdje zat en vond ik de kosten voor alles te hoog oplopen wat ik per maand aan vaste lasten had door de VPS omgevingen. Dus alles weer inhouse opgenomen d.m.v. de Microservers.

Er draait nu nog relatief weinig op de Microserver maar nog niet alles is gevisualiseerd, er dienen minstens nog 2 a 3 VM's bij te komen, en dan kan ik alle VPS Servers opzeggen ( Behalve mijn Amerikaanse server, die ook ervoor zorgt dat ik bij netflix/hulu/pandora als klant kan uitkomen :D )

"Allow me to shatter your delusions of grandeur."


  • 26779
  • Registratie: november 2019
  • Niet online
Heeft iemand al eens met remotebox gespeeld? Het lijkt een leuke optie om remote een VBox VM te benaderen. (let niet op de domeinnaam, de eigenaar heeft blijkbaar humor)

  • GioStyle
  • Registratie: januari 2010
  • Laatst online: 22:05
Hypervisor
Ik ben altijd al van jongsaf aan met Windows opgegroeid. Natuurlijk heb ik ook met andere OS'sen gewerkt, maar ik kom toch telkens weer terug op Windows, omdat het voor mij het makkelijkst werkt. In het begin een server gebouwd met Windows Small Business Server 2003. Vervolgens naar 2008 versie geupgraded. Hardware is door de jaren heen ook telkens uitgebreid/vernieuwd. Op een gegeven moment na veel gedoe, foutmeldingen, storingen etc. besloten om maar een Hyper-V bak te maken, zodat wanneer er een storing optreedt, niet gelijk alle onderdelen plat liggen.


Hardware
#ProductPrijsSubtotaal
1Intel Core i5 3550 Boxed€ 190,95€ 190,95
1MSI H77MA-G43€ 77,61€ 77,61
2Corsair Vengeance CMZ16GX3M2A1600C10€ 96,50€ 193,-
2Crucial m4 CT256M4SSD2 256GB€ 189,90€ 379,80
2Samsung SpinPoint M8 HN-M500MBB, 500GB SATA-300, 8MB, 5400rpm€ 64,65€ 129,30
2Samsung SpinPoint M8 HN-M101MBB, 1TB SATA-300, 8MB, 5400rpm€ 89,10€ 178,20
2Intel PRO/1000 PT Dual Port Server Adapter (2x1000Mbps, PCI-e 4x)€ 159,-€ 318,-
1Seasonic S12II-Bronze 330W€ 0,-€ 0,-
1Sharkoon SATA QuickPort Intern 6-Bay€ 57,30€ 57,30
1Silverstone Grandia GD05B€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 1.524,16



Virtuele machines
OS/ApplianceFunctie
Windows Server 2008 R2 StandardActive Directory
Windows Server 2008 R2 StandardExchange 2010
Windows Server 2008 R2 StandardSharePoint 2010
Windows Server 2008 R2 StandardDownloads (nieuwsgroepen)
Windows Server 2008 R2 StandardMedia Server (Plex)
Windows Server 2008 R2 StandardMedia Server
Windows Server 7 Ultimate Testmachine
Windows Server 8 Release PreviewTestmachine



Foto's
Slechte foto gemaakt met telefoon, maar beter iets dan niets:




Motivatie
Echt diepgaande technische kennis van hardware heb ik niet (op de middelbare school geen natuur- en scheikunde gekozen), maar door veel te lezen, uit te proberen en op te zoeken wilde ik door de juiste componenten een energiezuinige, maar toch een erg krachtige Hyper-V bak maken. Dat is me wel redelijk gelukt. Bovenstaande setup verbruikt net iets meer dan 40 watt continu.

Er komen binnenkort nog wel enkele virtual machines bij. Ik zou graag een VM willen die het hele netwerk afspeurt op virussen, maar heb nog geen software gevonden wat aan mijn eisen voldoet.

Het enige mindere van mijn Hyper-V bak is opslag. Ik begin wel erg krap te zitten voor mijn films/series. Als de prijzen van harde schijven in mijn ogen weer op een normale prijsniveau zitten, dan wil ik graag 4x 3TB of 4TB schijven aanschaffen en deze in mijn workstation stoppen zodat deze toch niet altijd aan blijven staan, maar alleen als er gebruik van gemaakt wordt.

  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
Hypervisor
VMWare ESXi 4.1 free. Ik ben eerst gaan virtualiseren met VMWare Workstation. Ik was het telkens moeten rebooten van de windows host zat en zocht naar iets anders. Op aanraden van iemand kwam ik bij ESXi terecht. Omdat ik als Unix/Linux engineer werk, neig ik ernaar om RH KVM eens te gaan bekijken maar eigenlijk bevalt ESXi me zo goed. Daarnaast kom ik in het werk ook telkens tegen als DE gebruikte Hypervisor.
Ik gebruik het op 3 verschillende locaties prive dus hieronder volgen 3 systemen

Hardware
Op mijn woonadres heb ik het volgende systeem
#ProductPrijsSubtotaal
1HP NC360T PCI-E twee-poorts Gigabit serveradapter (412648-B21)€ 82,11€ 82,11
1Intel PRO/1000 GT Netwerk PCI Adapter low profile€ 27,-€ 27,-
1Samsung Spinpoint F4 EG HD204UI, 2TB€ 94,90€ 94,90
1MS-Tech LC-01€ 37,45€ 37,45
1Intel Core i5 2405S Boxed€ 196,30€ 196,30
1Corsair XMS3 CMX16GX3M2A1333C9€ 84,80€ 84,80
1Intel Desktop Board DH61WWB3€ 57,06€ 57,06
Bekijk collectie
Importeer producten
Totaal€ 579,62


In het thuis netwerk heb ik nog een FreeNAS met 6 x 1TB in raidz2 met een 40GB SSD cache. 1 vm heeft via USB toegang tot 2 usb disks (1 x 500GB en 1 x 3TB)

In amsterdam in een datacenter host ik mijn mail en een deel van mijn websites op mijn eigen 1u pizzadoos, het plan was om door middel van virtualisatie genoeg speelruimte te hebben om de webserver(s) te kunnen upgraden dan wel te vervangen door nieuwe vm's te maken. Dit systeem gaat deze maand echter vervangen worden, voornamelijk omdat het stroomverbruik elke maand tot extra kosten leid.

Specs zijn CPU Intel P4 @ 3,2Ghz, 4GB DDR2 ECC 533Mhz(4x1GB), 3 x 80GB Sata Disks in een
Intel SR1425BK1-E

Op de derde locatie draait de Hypervisor op;

#ProductPrijsSubtotaal
1MS-Tech LC-02€ 34,45€ 34,45
1Intel Gigabit CT Desktop Adapter€ 23,50€ 23,50
1Intel PRO/1000 GT Netwerk PCI Adapter low profile€ 27,-€ 27,-
1Samsung Spinpoint M7 HM161GI, 160GB€ 35,95€ 35,95
1Intel Core i3 2100T Boxed€ 122,80€ 122,80
1Transcend 8GB DDR3 Dual/Triple Channel Kit€ 35,77€ 35,77
1Gigabyte GA-H61M-D2H-USB3€ 55,20€ 55,20
Bekijk collectie
Importeer producten
Totaal€ 334,67

Op deze laatste locatie bevind zich ook een FreeNAS systeem, deze met 6 x 250GB in raidz2


Virtuele machines
OS/ApplianceFunctie
CentOS 5.8web, mail en database server
CentOS 5.8web, mail en database server
CentOS 5.8Tekkit/Minecraft server
CentOS 6.3web, mail en database server. Deze gaat 1 van bovengenoemde 5.8 vervangen
CentOS 6.3backup/secondary fileserver (elke 4 uur draait er een rsync pull van de FreeNAS. Cobbler (nog in setup fase)
pfsense 2.0firewall, router, ipsec vpn, internettoegang, dns, dhcp
pfsense 2.0firewall, router, ipsec vpn, internettoegang, dns, dhcp
pfsense 1.2firewall, router, ipsec vpn, internettoegang, dns
2003 serverlegacy AD server, staat uit
Win XPpro 32bitsmijn oude werkstation gevirtualiseerd, staat er eigenlijk als archief, lid van vorige AD
2008R2 32bitsnieuwe AD, dns (functie wordt uitgefaseerd)
Windows 7 Ultimate 32bitsmijn voornaamste VDI
Windows 7 Ultimate 32bitsdownload VDI
Windows 7 Ultimate 32bitsVDI
Windows 7 Ultimate 32bitsVDI
Windows 7 Ultimate 32bitsvsphere client omdat deze over de ipsec tunnel niet werkt


En nog diverse test vm's die komen en gaan


Foto's
Volgen nog asap.


Motivatie
Op de 'thuis' host wil ik de datastore gaan verplaatsen van lokaal naar NFS, maar dit ga ik pas doen zodra er nieuwe NAS komt. Deze krijgt oa PCIe SSD's voor L2ARC en aparte disks/volumes voor data en vm's

De 2de host had eigenlijk 16GB moeten hebben maar de 2 dimm-kits die ik had hiervoor werken niet samen. Het ligt nog wel in de planning om dit wel voor elkaar te krijgen. Ook hier gaat de lokale datastore vervangen worden door de NFS van de FreeNAS. Ik moet alleen even de tijd krijgen om de vm's te verplaatsen.
De host in het Datacenter gaat vervangen worden door het volgende;

#ProductPrijsSubtotaal
1Intel Pentium G630T Boxed€ 62,90€ 62,90
2Kingston DataTraveler 101 G2 4GB Cyaan€ 3,83€ 3,83
1Hitachi Travelstar Z5K320, 250GB SATA-300, 8MB, 5400rpm€ 44,95€ 44,95
1Supermicro SuperChassis 502L-200B€ 80,70€ 80,70
1Gelid Solutions Slim Silence i-Plus€ 17,-€ 17,-
1Team Elite 2 x 4 GB DDR3 1333 Mhz€ 37,-€ 37,-
1Eminent EM7033 USB 3.0 2.5" SATA Harde schijf behuizing met backupknop€ 14,79€ 14,79
1Gigabyte GA-H61M-D2H-USB3€ 55,20€ 55,20
Bekijk collectie
Importeer producten
Totaal€ 316,37


op 1 USB stick komt ESXi, op de ander komt FreeNAS. Deze laatste gaat als VM draaien en krijgt de disk via USB3.0 gekoppeld, waarop ESXi een NFS datastore krijgt. De reden hiervoor is oa. snapshots en (offsite) replicatie.

VorCha wijzigde deze reactie 08-08-2012 11:32 (100%)


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Waar zet je de FreeNAS VMX file op?

Even niets...


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
quote:
FireDrunk schreef op woensdag 08 augustus 2012 @ 10:23:
Waar zet je de FreeNAS VMX file op?
Op een USB stick

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Dat kan niet.

Even niets...


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
quote:
Ik had preciezer moeten zijn. Het wordt geen VMX op de USB maar FreeNAS zelf geinstalleerd op de stick.

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Ga je ESXi en FreeNAS niet naast elkaar draaien dan?

Even niets...


  • Dadona
  • Registratie: september 2007
  • Laatst online: 21:21
quote:
Khildin schreef op vrijdag 03 augustus 2012 @ 16:54:
Heeft iemand al eens met remotebox gespeeld? Het lijkt een leuke optie om remote een VBox VM te benaderen. (let niet op de domeinnaam, de eigenaar heeft blijkbaar humor)
Ik gebruik zelf phpvirtualbox

De CSL/OT kroeg !


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
quote:
FireDrunk schreef op woensdag 08 augustus 2012 @ 10:53:
Ga je ESXi en FreeNAS niet naast elkaar draaien dan?
Juist wel, waarom denk jij van niet?

  • 26779
  • Registratie: november 2019
  • Niet online
quote:
Dank je Dadona, ik kende deze optie nog niet. Ik ga hem zeker uitproberen!

  • Vuurvoske
  • Registratie: oktober 2003
  • Laatst online: 21-09 17:27

Vuurvoske

Nunquam cede!

Wat wijzen jullie nu als geheugen aan Windows 7 of Windows 2008 (R2) toe? Ook ben ik benieuwd naar de grote van de .vhd file.

Vuurvoske wijzigde deze reactie 08-08-2012 14:03 (26%)

Beroeps brabander


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
Ik heb windows 7 op 1GB en 2008R2 op 512MB

  • Vuurvoske
  • Registratie: oktober 2003
  • Laatst online: 21-09 17:27

Vuurvoske

Nunquam cede!

quote:
VorCha schreef op woensdag 08 augustus 2012 @ 14:08:
Ik heb windows 7 op 1GB en 2008R2 op 512MB
En je diskspace?

Beroeps brabander


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
quote:
En je diskspace?
Ik begin met 20GB, maar mijn main VDI heeft 40GB en de download heb ik een extra disk van 150GB gegeven. De server heeft nog steeds een 20GB disk.
Overigens wel thin-provisioned

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
quote:
VorCha schreef op woensdag 08 augustus 2012 @ 10:59:
[...]

Juist wel, waarom denk jij van niet?
Omdat je een VM altijd op een datastore moet staan, en je geen datastore kan maken op een USB stick.
Als je dus een VM maakt zonder disks met alleen de USB stick doorgegeven, komt daar nog steeds een .vmx file uit die op een datastore *moet* staan.

Wat jij wil kan dus niet.

Even niets...


  • AjDuLion
  • Registratie: april 2004
  • Laatst online: 07:24
Hypervisor
Parallels Desktop 7 For Mac

Ik heb ook Vmware gebruikt maar vanwege de voordelen van parallels ben ik toch overgestapt (remote overnemen vanuit je ipad/iphone van host en virtual machine's


Hardware
#ProductPrijsSubtotaal
1Asus Sabertooth X79€ 283,95€ 283,95
1Cooler Master CM Stacker CM Stacker ATX / BTX€ 0,-€ 0,-
1Scythe Mugen 3 PC Games Hardware Edition€ 37,-€ 37,-
1Intel Core i7 3930K Boxed€ 501,-€ 501,-
1OCZ Vertex 3 120GB€ 91,-€ 91,-
8Corsair Vengeance CMZ8GX3M2A1600C9€ 43,99€ 351,92
1Asus ENGTX560 Ti DCII TOP/2DI/2GD5€ 260,-€ 260,-
Bekijk collectie
Importeer producten
Totaal€ 1.524,87


op het moment hangt er tijdelijk een 1TB disk als storage in welke alle vm's huisvest in de toekomst (als de harde schijf prijzen zakken en ik er een paar 3TB disks in kan hangen.

op het moment draai ik onder Hackintosh omdat de hoofd taak van deze machine is om video en foto's te bewerken/renderen en ik gebruik hem ernaast gewoon voor test machine's en om nieuwe dingen te proberen.


Virtuele machines
Op het moment staan er de volgende vm's op

OS/applianceFunctie
Windows Server 2008Active directory service voor een test domein
Windows Server 2008Exchange
Windows Server 2008SCCM
Windows Server 2008Test (meerdere role's met een rollback functie naar het orgineel
Windows 7dit zijn in totaal 7 windows 7 machine's die in het test domein hangen in verschillende groepen om te kijken hoe alles reageert inclusief sccm deployment tests
Windows 8 RTMtest machine van windows 8
Backtrack 5 R2Penetration testing van het test domein op eventuele zwakheden



Foto's
Foto's komen nog zodra ik de coolermaster stacker heb vervangen voor een Cosmos II

Motivatie
Voor mij had ik meer power nodig voor mijn videobewerken en foto's exporteren en zat ik op mijn laptop op het limiet van vm's draaien (meer als 3 was gewoon niet doenbaar) nu kan ik alles proberen wat ik wil zonder dat het systeem er noemenswaardig trager door word.

Facebook - Twitter - Renderbeast- Twitch.tv - PSN


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
quote:
FireDrunk schreef op woensdag 08 augustus 2012 @ 14:28:
[...]


Omdat je een VM altijd op een datastore moet staan, en je geen datastore kan maken op een USB stick.
Als je dus een VM maakt zonder disks met alleen de USB stick doorgegeven, komt daar nog steeds een .vmx file uit die op een datastore *moet* staan.

Wat jij wil kan dus niet.
|:( |:( |:(
Ik had me bedacht daar omheen te komen door ESX een tijdelijke lokale datastore te geven, maar dat mond uiteindelijk uit op een 'catch22'.

voel me nu een :+

Ik ga me even bedenken of dat ik voor 1 grote lokale datastore ga of een combinatie van lokale data store + FreeNAS met USB disk.

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Je kan een SATA plugin module ofzo kopen van enkele gigabytes.

FireDrunk wijzigde deze reactie 08-08-2012 15:39 (26%)

Even niets...


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
quote:
FireDrunk schreef op woensdag 08 augustus 2012 @ 15:38:
Je kan een SATA plugin module ofzo kopen van enkele gigabytes.
Daarmee impliceer je dat je wel wat ziet in FreeNAS en ESX naast elkaar in 1 host? _/-\o_

  • ItsValium
  • Registratie: juni 2009
  • Laatst online: 25-03 23:00
quote:
VorCha schreef op woensdag 08 augustus 2012 @ 16:05:
[...]

Daarmee impliceer je dat je wel wat ziet in FreeNAS en ESX naast elkaar in 1 host? _/-\o_
Ik denk niet dat het naast elkaar is. Eerder ESX als host en FreeNAS als VM in ESX, tenminste zo begrijp ik het ;)

  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
quote:
ItsValium schreef op woensdag 08 augustus 2012 @ 16:07:
[...]


Ik denk niet dat het naast elkaar is. Eerder ESX als host en FreeNAS als VM in ESX, tenminste zo begrijp ik het ;)
Maar dan wel met FreeNAS als hoofd/NFS datastore voor de ESX host ;)

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Dat kan prima ja. Bedenk wel dat dat een tikkie performance kost.

Even niets...


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
De nieuwe host in elkaar gezet, wat uit moeten breken omdat de backpanel van de behuizing niet overeen matchte. Maar helaas het systeem wil niet starten. De USB disk krijgt wel stroom ik denk alleen dat de psu niet compatible is met het mainboard.

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Waarom verdenk je de voeding? Dat is volgens mij juist het generiekste onderdeel van een PC :)

Even niets...


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
quote:
FireDrunk schreef op woensdag 08 augustus 2012 @ 22:20:
Waarom verdenk je de voeding? Dat is volgens mij juist het generiekste onderdeel van een PC :)
Omdat ik ook de voeding kabels heb moeten aanpassen om op het moederboard te 'passen'.

Ik weet even geen termen dus ik probeer het gewoon uit te leggen. Ik ben gewend van ATX voedingen dat je een groot blok hebt en daar dan een klein stukje met 4 polen tegen aan zet en die tezamen in het moederbord steekt. Dan blijft er nog zo'n vierpolig stuk over en die gaat in z'n eigen aansluiting op het moederbord.
Die 2 vierpolige was eerst 1 8 polige aansluiting, die heb ik gesplits in de overtuiging dat het verder wel compatible zou zijn. Maar ik zie nu op de grote aansluiting dat er een aantal polen leeg zijn.

Weer iets nieuws te leren

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Dat zou allemaal niet uit moeten maken... Zolang de voeding aan de ATX standaard voldoet zou het gewoon moeten werken. En dat verhaal met die gesplitste P4 (P8) stekker, maakt ook niet uit. Dat is gewoon een stabiele 12V stekker, meer niet.

Even niets...


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
Pricewatch specs, website en de voeding zelf zeggen allemaal ATX. Als het iets anders is dan weet ik het even niet. Memory zou kunnen, CPU is gloednieuw, maar ook dat zou kunnen. Moederbord natuurlijk ook. Ik heb alleen niet net als vroeger van alles in huis om te wisselen. Ik ga er even rustig over nadenken.

  • GH45T
  • Registratie: november 2003
  • Laatst online: 20:25
Ook maar eens mijn systeem dan..
Hypervisor
Xenserver 5.6 SP2. Draait nu inmiddels enkele dagen meer dan een jaar. Ik heb voor Xenserver gekozen omdat VMware ESXi 5 nog niet uit was toen ik alles geïnstalleerd heb. Vanuit mijn werk heb ik veel meer ervaring met VMware vSphere omgevingen maar ESXi kon geen 3TB schijven aan. Xenserver ook niet, maar door de schijven rechtstreeks aan de VM te koppelen in plaats van te gebruiken voor Xenserver storage lukte dit wel. Tegenwoordig kan ESXi dit ook, maar ach, huidige setup werkt en voldoet voor thuis prima :)


Hardware
Poeh, moet even graven hoor..
- Intel G620 processor
- Gigabyte GA-H67MA-UD2H-B3 moederbord
- 4 x 4GB Kingston valueram 1333Mhz geheugen
- WD 320GB 2,5" harddisk (WD3200BEVT) voor vm's
- 2 x 3TB harddisks WD green
- Be quiet 300 watt voeding
- Oude HP towermodel behuizing


Virtuele machines
OS/ApplianceFunctie
Windows SBS 2011domain controller, exchange server, fileserver, ras server
Ubuntu server 11.04webserver, spamfilter
Windows XP professionalDownloadcomputer


Motivatie
Dat mijn hypervisor en ubuntu server achter lopen weet ik. Apache en Spamassasin heb ik wel geupdate. Voor veel dingen neem ik vaak simpelweg de tijd niet. Als je het dagelijks druk hebt met allerlei IT zaken dan doe je dit 's avonds thuis toch minder snel heb ik ervaren..

Voor de toekomst, ik wil de 320GB schijf een keer gaan vervangen door een SSD. Performance bij gebruik valt helemaal mee, maar bij beheer zaken voelt alles toch traag aan. Tevens hoop ik hiermee nog wat stroom te kunnen besparen. Hoewel ik niet echt weet wat het geheel nu verbruikt (3TB schijven gaan uit bij geen gebruik) hoop ik hiermee toch nog wat meer te besparen. Bij vervangen harddisk door SSD misschien ook direct overstappen op VMware ESXi, dan ben ik toch al aan het sleutelen.

  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
de 1U behuizing die ik gepland had voor het datacenter, Supermicro SuperChassis 502L-200B is niet compatible met standaard mini-ITX en micro-ATX moederborden.
Qua afmetingen past het wel, alleen de backplane is niet verwisselbaar en komt niet overeen. En de voeding is ook niet algemeen compatible.
Maar goed, dit is GoT, dus ik heb de backplane wat 'ruimer' gemaakt (foto's volgen in een uitgebreide review) en een nieuwe voeding is besteld.

  • X-DraGoN
  • Registratie: juli 2005
  • Laatst online: 07-09 22:15
quote:
Ben je tevreden over die processor?
Kan je zogezegd 4 aparte proc's zien in Xenserver? Of zie je er 'maar' 2 ?

  • Vuurvoske
  • Registratie: oktober 2003
  • Laatst online: 21-09 17:27

Vuurvoske

Nunquam cede!

sorry voor dubbelpost 8)7

Vuurvoske wijzigde deze reactie 24-08-2012 13:05 (99%)

Beroeps brabander


  • Vuurvoske
  • Registratie: oktober 2003
  • Laatst online: 21-09 17:27

Vuurvoske

Nunquam cede!

Hypervisor
Mijn keuze is gevallen op Microsoft Hyper-V op Server 2008 R2 standard. Dit komt voornamelijk doordat ik op het host OS XBMC wil draaien.


Hardware
#ProductPrijsSubtotaal
1Areca ARC-1220€ 0,-€ 0,-
1Intel Pentium G620 Boxed€ 53,45€ 53,45
1Intel Gigabit CT Desktop Adapter€ 25,14€ 25,14
1Samsung Spinpoint F4 EG HD204UI, 2TB€ 94,90€ 94,90
1Samsung SpinPoint T166 HD501LJ, 500GB€ 0,-€ 0,-
3Western Digital Green WD20EARS, 2TB€ 0,-€ 0,-
1Antec Three Hundred€ 45,35€ 45,35
1Cooler Master 4-in-3 Device Module€ 17,50€ 17,50
1Recom RC-PE0DB580€ 0,-€ 0,-
1Kingston ValueRAM KVR1333D3N9K2/8G€ 36,59€ 36,59
1Club3D GeForce GT 440€ 59,44€ 59,44
1Asus P8P67-M (3.0)€ 104,90€ 104,90
Bekijk collectie
Importeer producten
Totaal€ 437,27



Virtuele machines
VM NaamOS/ApplianceFunctie
PegasusUbuntu 12.04 LTS x64Download bak
AristotelesWindows server 2008 R2 x64 standardFileshare
PlatoWindows 7 x64 UltimateBeheer machine
IllidanWindows server 2003 R2 x64 standardWorld of Warcraft 1.12.1 test setup



Foto's





Motivatie
T.z.t. wordt de processor nog geupgrade. Toen ik met dit project begon wilde ik kunnen experimenteren met virtualisatie en 24/7 een download machine beschikbaar hebben.


Overig
Deze machine heeft twee actieve NIC's, ik wilde weten of het gewoon mogelijk zou zijn twee external networks (virtual switches) te creeëren. Dit ging zonder probleem. Nu draaien alle machines behalve Illidan op de CT Adapter. (Niet dat het veel nut heeft, maar het is wel leuk :+)

Beroeps brabander


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Voor XBMC heb je geen Windows nodig hoor. Het zit tegenwoordig ook gewoon in de repo's van Debian testing (testing is recent frozen) en Ubuntu 12.04.

Luctor et Emergo || specs


  • Vuurvoske
  • Registratie: oktober 2003
  • Laatst online: 21-09 17:27

Vuurvoske

Nunquam cede!

quote:
DutchNutcase schreef op vrijdag 24 augustus 2012 @ 13:22:
Voor XBMC heb je geen Windows nodig hoor. Het zit tegenwoordig ook gewoon in de repo's van Debian testing (testing is recent frozen) en Ubuntu 12.04.
Onder KVM is het alleen verrekte lastig om snapshots te maken |:( . En ik weet dat het via de commandline kan.

Beroeps brabander


  • sariel
  • Registratie: mei 2004
  • Laatst online: 25-09 08:56
Hypervisor
vserver: Linux vserver op Debian om snel makkelijk virtuele linuxen te draaien
virtualbox: Voor de omgevingen die niet onder Linux draaien


Hardware
- Tweedehands case
- AMD Athlon 64 X2 4600+
- 4Gb geheugen (slechts 3 beschikbaar door 32 bits)
- Stapel oude harddisks van tussen de 120 en 250Gb
- On-board NIC icm 3c905 kaartje

Kortom: Tweedehands goedkope oude meuk die perfect draait als server.


Virtuele machines
OS/ApplianceFunctie
DebianHost
Debian (vserver)NS
Debian (vserver)Web
Debian (vserver)Testing/developement
Windows 2003 (vbox)AD
Windows 2003 (vbox)Web
Windows 2003 (vbox)WSUS
Windows XP (vbox)Testing



Foto's
Geen foto's.


Motivatie
Deze setup draait ideaal: De Linux omgeving is gewoon bloedsnel omder er geen hardware virtualisatie is. Alles draait gewoon real-time op de hardware zonder enige translatie. Door capaciteit-limieten in te stellen is het mogelijk om de host niet al te zwaar te belasten als een van de vclients even alle capaciteit opeist (zelden).

De Virtualbox omgeving is eveneens gelimiteerd en draait de Windows omgeving. Windows en Linux werken samen voor NS en andere dingen zodat onderling makkelijk informatie gedeelt kan worden. De Virtualbox systemen zijn wel duidelijk trager dan wanneer ze direct op hardware draaien (+rdesktop over ssh) maar voldoende snel en responsive om goed werkbaar te zijn (alleen wel even de logon screensaver uit Windows slopen...nutteloos cpu vreten is echt nutteloos)

Copy.com


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Hypervisor
Ik gebruik KVM, omdat het in de linux kernel ingebakken zit en omdat ik hier al veel langer mee werk. Ben bovendien erg gecharmeerd van de CLI beheersinterface.


Hardware
#ProductPrijsSubtotaal
1Highpoint RocketRAID 2300€ 118,20€ 118,20
1Intel Gigabit CT Desktop Adapter€ 24,80€ 24,80
1Realtek RTL8139C (100Mbps, RJ-45, PCI)€ 4,95€ 4,95
4Samsung Spinpoint F1 HD103UJ, 1TB€ 0,-€ 0,-
2Samsung SpinPoint T166 HD501LJ, 500GB€ 0,-€ 0,-
1Antec Sonata III 500 Zwart€ 99,90€ 99,90
1AMD Athlon II X4 605e Boxed€ 0,-€ 0,-
2Kingston ValueRAM KVR1333D3E9SK2/8G€ 54,55€ 109,10
1Gigabyte GA-990FXA-UD3€ 119,90€ 119,90
1Sapphire HD 5450 512MB DDR3 PCIE HDMI€ 26,95€ 26,95
Bekijk collectie
Importeer producten
Totaal€ 503,80

Ik heb net de server geupgrade om met IOMMU aan de gang te kunnen gaan. Mijn vorige moederbord had dat niet ingebouwd zitten. Nu heb ik de Highpoint en de Intel NIC doorgezet naar de storage vm. Om deze hardware door te zetten moest ik wel wat kleine dingen oplossen, maar nu heb ik een scriptje opgezet om de boel automatisch op te starten.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
### BEGIN INIT INFO
# Provides:          vms
# Required-Start:    $all
# Required-Stop:     $all
# Default-Start:     2 3 4 5
# Default-Stop:      0 1 6
# Short-Description: starts virtual machines
# Description:       starts virtual machines
### END INIT INFO

function pre-start {
    rmmod snd_hda_intel e1000e sata_mv &> /dev/null
    virsh nodedev-detach pci_0000_02_00_0 &> /dev/null
    virsh nodedev-detach pci_0000_09_00_0 &> /dev/null
}

function start-vms {
    # Start primary and secondary domain controllers
    virsh start zeus &> /dev/null
    virsh start hera &> /dev/null

    # Allow for domain controllers (specifically DNS) to start
    sleep 30s

    # Start file server, database server and jumphost
    virsh start athena &> /dev/null
    virsh start artemis &> /dev/null
    virsh start hestia &> /dev/null

    # Allow for file server to start
    sleep 75s

    # Start file server dependant vms (mail, web and download server)
    virsh start hermes &> /dev/null
    virsh start apollo &> /dev/null
    virsh start hades &> /dev/null
}

function stop-vms {
    # Stop download, web and mail servers
    virsh shutdown hades &> /dev/null
    virsh shutdown apollo &> /dev/null
    virsh shutdown hermes &> /dev/null

    # Allow for file server dependant servers to shut down
    sleep 10s

    # Stop jumphost, database server and file server
    virsh shutdown athena &> /dev/null
    virsh shutdown artemis &> /dev/null
    virsh shutdown hestia &> /dev/null

    # Allow for athena to shut down
    sleep 10s

    # Stop domain controllers
    virsh shutdown zeus &> /dev/null
    virsh shutdown hera &> /dev/null
}

# script name
NAME="$0"

# app name
DESC="virtual machines"

case "$1" in
  start)
        echo "Starting $DESC"
        pre-start
        start-vms
        ;;
  stop)
        echo "Stopping $DESC"
        stop-vms
        ;;
  restart)
        echo "Restarting $DESC"
        stop-vms
        start-vms
        ;;
  *)
        N=/etc/init.d/$NAME
        echo "Usage: $N {start|stop|restart}" >&2
        exit 1
        ;;
esac

exit 0


Virtuele machines
NaamOSFunctieOpmerkingenvCPURAM
zeusDebian WheezyPrimary Domain Controller (slapd, samba, smbldap-tools)11GiB
heraDebian WheezySecondary Domain Controller (slapd, samba, smbldap-tools)11GiB
athenaDebian WheezyStorage VM (nfs, samba)PCI passthrough (RocketRAID, Intel NIC)22GiB
artemisDebian WheezyDatabase server (mysql)11GiB
hermesDebian WheezyMail server (postfix, dovecot, amavis, spamassasin, clamav)11GiB
hestiaDebian WheezyJumphost (ssh, fail2ban)11GiB
apolloDebian WheezyWeb server (apache2, php5)11GiB
hadesDebian WheezyDownload server (sabnzbd, sickbeard, couchpotato, headphones)Moet nog opgezet worden11GiB



Foto's
De volgende foto laat de grote server verbouwing zien.

Deze foto toont het trekken van een back-up voor de server verbouwing.



Motivatie
Waarom heb ik dit gedaan? Omdat het kan natuurlijk ten eerste. Mijn moederbord heb ik vervangen om meer performance uit mijn RAID kaart en netwerk te persen. Bij mijn RocketRAID is dat goed gelukt:
root@athena:/mnt/archive/common# time dd if=/dev/zero of=/mnt/archive/common/testfile.bin bs=1M count=16000
16000+0 records in
16000+0 records out
16777216000 bytes (17 GB) copied, 372.417 s, 45.0 MB/s

real    6m12.514s
user    0m0.280s
sys     1m13.889s
root@athena:/mnt/archive/common# time dd if=/dev/zero of=/mnt/archive/common/testfile2.bin bs=1M count=16000

16000+0 records in
16000+0 records out
16777216000 bytes (17 GB) copied, 376.388 s, 44.6 MB/s

real    6m19.449s
user    0m0.280s
sys     1m13.721s
root@athena:/mnt/archive/common# 
root@athena:/mnt/archive/common# time dd if=/mnt/archive/common/testfile.bin of=/dev/null
32768000+0 records in
32768000+0 records out
16777216000 bytes (17 GB) copied, 120.17 s, 140 MB/s

real    2m0.174s
user    0m13.793s
sys     1m13.473s
root@athena:/mnt/archive/common# time dd if=/mnt/archive/common/testfile2.bin of=/dev/null
32768000+0 records in
32768000+0 records out
16777216000 bytes (17 GB) copied, 120.065 s, 140 MB/s

real    2m0.074s
user    0m13.569s
sys     1m13.425s

De schrijfsnelheid was nog niet de helft en de leessnelheid was ongeveer een derde. Dus wat dat betreft ben ik er aardig op vooruit gegaan. Maar mijn doorgestuurde NIC is niet sneller te krijgen dan 30 MB/s, dus dat schiet nog niet echt op. Heeft iemand een idee waar die trage performance vandaan komt?

Luctor et Emergo || specs


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Watvoor emulatie gebruik je?

Even niets...


  • B2
  • Registratie: april 2000
  • Laatst online: 07:44

B2

wa' seggie?

quote:
Qemu waarschijnlijk?

  • Rukapul
  • Registratie: februari 2000
  • Laatst online: 23:17

Rukapul

Moderator General Chat
Als hij iommu gebruikt om z'n PCI devices direct door te geven dan lijkt KVM me waarschijnlijker.

  • HyperBart
  • Registratie: maart 2006
  • Nu online
quote:
VorCha schreef op woensdag 08 augustus 2012 @ 16:05:
[...]

Daarmee impliceer je dat je wel wat ziet in FreeNAS en ESX naast elkaar in 1 host? _/-\o_
Ik doe dat thuis bv... Ik virtualiseer mijn ZFS machine...

Trouwens, als je echt eens "batshit crazy alles in eens" wilt draaien, kan je volgend doen:

HyperBart in "Zuinige ESXi Server"

Vandaag even niets


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Als hij PCIe passthru gebruikt die daadwerkelijk gebruik maakt van de hardwarematige versnelling van IOMMU (VT-d dus) dan is 30 MB/s wel heel erg langzaam. Als hij softwarematige IOMMU gebruikt (XEN kan dat dmv een speciale PCI driver) dan is de snelheid al wat acceptabeler.

Even niets...


  • B2
  • Registratie: april 2000
  • Laatst online: 07:44

B2

wa' seggie?

quote:
Rukapul schreef op maandag 10 september 2012 @ 11:58:
Als hij iommu gebruikt om z'n PCI devices direct door te geven dan lijkt KVM me waarschijnlijker.
Ik bedoel dan ook qemu-kvm.

  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Ik gebruik kvm, met libvirt als virtualisatie voor al mijn vm's.

Luctor et Emergo || specs


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Dan zal het VT-d zijn. Watvoor netwerkkaart gaat het om?

Even niets...


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Ik zal de uitvoer van lspci even dumpen. Vanaf de host:
root@ouranos:~# lspci -s 0000:09:00.0 -vvv
09:00.0 Ethernet controller: Intel Corporation 82574L Gigabit Network Connection
        Subsystem: Intel Corporation Gigabit CT Desktop Adapter
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 17
        Region 0: Memory at fd1c0000 (32-bit, non-prefetchable) [size=128K]
        Region 1: Memory at fd100000 (32-bit, non-prefetchable) [size=512K]
        Region 2: I/O ports at 6f00 [size=32]
        Region 3: Memory at fd1fc000 (32-bit, non-prefetchable) [size=16K]
        Expansion ROM at fd000000 [disabled] [size=256K]
        Capabilities: [c8] Power Management version 2
                Flags: PMEClk- DSI+ D1- D2- AuxCurrent=0mA PME(D0+,D1-,D2-,D3hot+,D3cold+)
                Status: D0 NoSoftRst- PME-Enable- DSel=0 DScale=1 PME-
        Capabilities: [d0] MSI: Enable- Count=1/1 Maskable- 64bit+
                Address: 00000000fee0f00c  Data: 41c1
        Capabilities: [e0] Express (v1) Endpoint, MSI 00
                DevCap: MaxPayload 256 bytes, PhantFunc 0, Latency L0s <512ns, L1 <64us
                        ExtTag- AttnBtn- AttnInd- PwrInd- RBE+ FLReset-
                DevCtl: Report errors: Correctable- Non-Fatal- Fatal- Unsupported-
                        RlxdOrd+ ExtTag- PhantFunc- AuxPwr- NoSnoop+
                        MaxPayload 128 bytes, MaxReadReq 512 bytes
                DevSta: CorrErr- UncorrErr- FatalErr- UnsuppReq- AuxPwr+ TransPend-
                LnkCap: Port #3, Speed 2.5GT/s, Width x1, ASPM L0s L1, Latency L0 <128ns, L1 <64us
                        ClockPM- Surprise- LLActRep- BwNot-
                LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- Retrain- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 2.5GT/s, Width x1, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
        Capabilities: [a0] MSI-X: Enable+ Count=5 Masked-
                Vector table: BAR=3 offset=00000000
                PBA: BAR=3 offset=00002000
        Capabilities: [100 v1] Advanced Error Reporting
                UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UESvrt: DLP+ SDES- TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
                CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr+
                CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr+
                AERCap: First Error Pointer: 00, GenCap- CGenEn- ChkCap- ChkEn-
        Capabilities: [140 v1] Device Serial Number 00-1b-21-ff-ff-70-97-30
        Kernel driver in use: pci-stub

Vanaf de guest:
root@athena:/mnt/archive/common# lspci -s 0000:00:03.0 -vvv
00:03.0 Ethernet controller: Intel Corporation 82574L Gigabit Network Connection
        Subsystem: Intel Corporation Gigabit CT Desktop Adapter
        Physical Slot: 3
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 10
        Region 0: Memory at febc0000 (32-bit, non-prefetchable) [size=128K]
        Region 1: Memory at feb00000 (32-bit, non-prefetchable) [size=512K]
        Region 2: I/O ports at c160 [size=32]
        Region 3: Memory at febf0000 (32-bit, non-prefetchable) [size=16K]
        Expansion ROM at feb80000 [disabled] [size=256K]
        Capabilities: [e0] Express (v1) Endpoint, MSI 00
                DevCap: MaxPayload 256 bytes, PhantFunc 0, Latency L0s <512ns, L1 <64us
                        ExtTag- AttnBtn- AttnInd- PwrInd- RBE+ FLReset-
                DevCtl: Report errors: Correctable- Non-Fatal- Fatal- Unsupported-
                        RlxdOrd+ ExtTag- PhantFunc- AuxPwr- NoSnoop+
                        MaxPayload 128 bytes, MaxReadReq 512 bytes
                DevSta: CorrErr- UncorrErr- FatalErr- UnsuppReq- AuxPwr+ TransPend-
                LnkCap: Port #3, Speed 2.5GT/s, Width x1, ASPM L0s L1, Latency L0 <128ns, L1 <64us
                        ClockPM- Surprise- LLActRep- BwNot-
                LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- Retrain- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 2.5GT/s, Width x1, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
        Capabilities: [c8] Power Management version 2
                Flags: PMEClk- DSI+ D1- D2- AuxCurrent=0mA PME(D0+,D1-,D2-,D3hot+,D3cold+)
                Status: D0 NoSoftRst- PME-Enable- DSel=0 DScale=1 PME-
        Capabilities: [a0] MSI-X: Enable+ Count=5 Masked-
                Vector table: BAR=3 offset=00000000
                PBA: BAR=3 offset=00002000
        Capabilities: [d0] MSI: Enable- Count=1/1 Maskable- 64bit-
                Address: 00000000  Data: 0000
        Kernel driver in use: e1000e

En dat alles in samenwerking met AMD IOMMU.

Luctor et Emergo || specs


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Nieuwste IXGB drivers geinstalleerd? (en niet via repositories, maar via intel.com)

Even niets...


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

quote:
FireDrunk schreef op maandag 10 september 2012 @ 15:54:
Nieuwste IXGB drivers geinstalleerd? (en niet via repositories, maar via intel.com)
Ga ik proberen.

Edit: weet je zeker dat ik ixgb zou moeten hebben? e1000e wordt namelijk standaard geladen. Misschien dat een nieuwe versie e1000e werkt.

DutchNutcase wijzigde deze reactie 10-09-2012 18:07 (24%)

Luctor et Emergo || specs


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Andere naam voor zelfde driver :)

FireDrunk wijzigde deze reactie 10-09-2012 20:25 (3%)

Even niets...


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Het heeft niet veel effect gehad, helaas:
root@xbmc:~# iperf -c athena
------------------------------------------------------------
Client connecting to athena, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 10.0.1.9 port 50438 connected with 10.0.0.4 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.0 sec  79.0 MBytes  66.3 Mbits/sec
root@xbmc:~# iperf -c athena -d
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
------------------------------------------------------------
Client connecting to athena, TCP port 5001
TCP window size: 98.6 KByte (default)
------------------------------------------------------------
[  4] local 10.0.1.9 port 50439 connected with 10.0.0.4 port 5001
[  5] local 10.0.1.9 port 5001 connected with 10.0.0.4 port 56189
[ ID] Interval       Transfer     Bandwidth
[  4]  0.0-10.0 sec  39.1 MBytes  32.7 Mbits/sec
[  5]  0.0-10.0 sec  6.50 MBytes  5.43 Mbits/sec
root@xbmc:~# iperf -s
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
[  4] local 10.0.1.9 port 5001 connected with 10.0.0.4 port 56190
[ ID] Interval       Transfer     Bandwidth
[  4]  0.0-10.2 sec   476 MBytes   391 Mbits/sec
root@xbmc:~# iperf -c athena -w 1M -P 4 -t 60
------------------------------------------------------------
Client connecting to athena, TCP port 5001
TCP window size:  256 KByte (WARNING: requested 1.00 MByte)
------------------------------------------------------------
[  4] local 10.0.1.9 port 50443 connected with 10.0.0.4 port 5001
[  3] local 10.0.1.9 port 50440 connected with 10.0.0.4 port 5001
[  6] local 10.0.1.9 port 50441 connected with 10.0.0.4 port 5001
[  5] local 10.0.1.9 port 50442 connected with 10.0.0.4 port 5001

[ ID] Interval       Transfer     Bandwidth
[  4]  0.0-60.2 sec  40.9 MBytes  5.69 Mbits/sec
[  6]  0.0-60.2 sec  41.6 MBytes  5.80 Mbits/sec
[  3]  0.0-60.8 sec  32.2 MBytes  4.45 Mbits/sec
[  5]  0.0-60.8 sec  34.1 MBytes  4.71 Mbits/sec
[SUM]  0.0-60.8 sec   149 MBytes  20.5 Mbits/sec
root@xbmc:~# iperf -c athena -w 1M -t 60
------------------------------------------------------------
Client connecting to athena, TCP port 5001
TCP window size:  256 KByte (WARNING: requested 1.00 MByte)
------------------------------------------------------------
[  3] local 10.0.1.9 port 50444 connected with 10.0.0.4 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-60.1 sec   199 MBytes  27.8 Mbits/sec

Toch jammer. Ik zou graag dedicated 1Gbps willen halen, maar ik zit langzaam te denken om de NIC maar gewoon aan de host toe te wijzen en dan een bridge aan te maken en gebruiken.

edit: Vergeet dat een reboot na de installatie is misschien een beter idee dan een modprobe -r e1000e; modprobe e1000e:
root@xbmc:~# iperf -c athena -w 1M -t 60
------------------------------------------------------------
Client connecting to athena, TCP port 5001
TCP window size:  256 KByte (WARNING: requested 1.00 MByte)
------------------------------------------------------------
[  3] local 10.0.1.9 port 50445 connected with 10.0.0.4 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-60.0 sec  6.32 GBytes   905 Mbits/sec
root@xbmc:~# iperf -c athena -w 1M -t 60 -d
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size:  256 KByte (WARNING: requested 1.00 MByte)
------------------------------------------------------------
------------------------------------------------------------
Client connecting to athena, TCP port 5001
TCP window size:  256 KByte (WARNING: requested 1.00 MByte)
------------------------------------------------------------
[  5] local 10.0.1.9 port 50446 connected with 10.0.0.4 port 5001
[  4] local 10.0.1.9 port 5001 connected with 10.0.0.4 port 56818
[ ID] Interval       Transfer     Bandwidth
[  5]  0.0-60.0 sec  2.87 GBytes   411 Mbits/sec
[  4]  0.0-60.0 sec  6.51 GBytes   932 Mbits/sec
root@xbmc:~# iperf -c athena -w 1M -t 60 -P4 -d
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size:  256 KByte (WARNING: requested 1.00 MByte)
------------------------------------------------------------
------------------------------------------------------------
Client connecting to athena, TCP port 5001
TCP window size:  256 KByte (WARNING: requested 1.00 MByte)
------------------------------------------------------------
[  7] local 10.0.1.9 port 50450 connected with 10.0.0.4 port 5001
[  8] local 10.0.1.9 port 50448 connected with 10.0.0.4 port 5001
[  5] local 10.0.1.9 port 50447 connected with 10.0.0.4 port 5001
[  6] local 10.0.1.9 port 50449 connected with 10.0.0.4 port 5001
[  3] local 10.0.1.9 port 5001 connected with 10.0.0.4 port 56819
[  9] local 10.0.1.9 port 5001 connected with 10.0.0.4 port 56820
[ 10] local 10.0.1.9 port 5001 connected with 10.0.0.4 port 56821
[ 11] local 10.0.1.9 port 5001 connected with 10.0.0.4 port 56822
[ ID] Interval       Transfer     Bandwidth
[  7]  0.0-60.0 sec  1009 MBytes   141 Mbits/sec
[  8]  0.0-60.0 sec  1010 MBytes   141 Mbits/sec
[  5]  0.0-60.0 sec  1012 MBytes   142 Mbits/sec
[  6]  0.0-60.0 sec  1012 MBytes   141 Mbits/sec
[SUM]  0.0-60.0 sec  3.95 GBytes   565 Mbits/sec
[ 10]  0.0-60.0 sec  1.64 GBytes   234 Mbits/sec
[  9]  0.0-60.0 sec  1.63 GBytes   233 Mbits/sec
[  3]  0.0-60.0 sec  1.64 GBytes   235 Mbits/sec
[ 11]  0.0-60.0 sec  1.64 GBytes   235 Mbits/sec
[SUM]  0.0-60.0 sec  6.55 GBytes   937 Mbits/sec
root@xbmc:~# iperf -s
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
[  4] local 10.0.1.9 port 5001 connected with 10.0.0.4 port 56835
[ ID] Interval       Transfer     Bandwidth
[  4]  0.0-60.1 sec  1.02 GBytes   146 Mbits/sec
[  5] local 10.0.1.9 port 5001 connected with 10.0.0.4 port 56836
[  4] local 10.0.1.9 port 5001 connected with 10.0.0.4 port 56837
[  6] local 10.0.1.9 port 5001 connected with 10.0.0.4 port 56838
[  7] local 10.0.1.9 port 5001 connected with 10.0.0.4 port 56839
[  5]  0.0-60.5 sec   156 MBytes  21.6 Mbits/sec
[  6]  0.0-61.1 sec   195 MBytes  26.7 Mbits/sec
[  7]  0.0-61.1 sec   239 MBytes  32.8 Mbits/sec
[  4]  0.0-61.2 sec   237 MBytes  32.5 Mbits/sec
[SUM]  0.0-61.2 sec   826 MBytes   113 Mbits/sec

Dat is al een stuk beter. Nog steeds niet super, maar wel veel beter.

DutchNutcase wijzigde deze reactie 11-09-2012 08:32 (39%)

Luctor et Emergo || specs


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
935Mb is prima toch? Je moet nog even in de driver van je guest LRO (Large Recieve Offloading) uitzetten, scheelt ook volgens mij.

modprobe e1000e lro=off

volgens mij.

kan ook zijn dat ik in de war was met 10Gb, maar het zal vast helpen..

FireDrunk wijzigde deze reactie 11-09-2012 08:42 (19%)

Even niets...


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Dat ga ik ook nog proberen, maar de ene richting uit gaat het snel zat, maar met de htpc als server schiet het niet echt op (113Mbps).

Luctor et Emergo || specs


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Dat is erg vreemd, watvoor kaartje zit daar in? Heb je misschien jumbo frames op de ene plek wel aangezet, maar op de andere niet?

Even niets...


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Ik gebruik een Intel Corporation 82574L Gigabit Network Connection. Ik heb gewoon een standaard Debian config voor mijn netwerk. Ik snap er ook niets meer van.

edit: En nu is de snelheid weer ingezakt naar 20 Mbps. Crap, ik snap er echt geen klap van. MTU is op beide devices 1500. MTU naar 9000 helpt ook geen zier en modprobe e1000e lro=off heeft ook geen effect.

DutchNutcase wijzigde deze reactie 11-09-2012 16:29 (38%)

Luctor et Emergo || specs


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
Ik heb vorige week de host in het datacenter geplaatst/vervangen. Hierbij wat pics voor de beeldvorming.





  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Boot anders op beide systeem eens een Ubuntu live cd, en probeer iperf.
Dan weet je gelijk of het aan de software ligt.

out-of-the-box zouden ze minimaal 600-700Mbit moeten halen (of het nou Realtek is of Intel, maakt geen kont uit.)

@Hierboven

Betaal je per mA?

FireDrunk wijzigde deze reactie 11-09-2012 15:04 (6%)

Even niets...


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

quote:
FireDrunk schreef op dinsdag 11 september 2012 @ 14:52:
Boot anders op beide systeem eens een Ubuntu live cd, en probeer iperf.
Dan weet je gelijk of het aan de software ligt.

out-of-the-box zouden ze minimaal 600-700Mbit moeten halen (of het nou Realtek is of Intel, maakt geen kont uit.)
Zal ik vanavond doen als ik thuis ben.

Luctor et Emergo || specs


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
quote:
Nee, als ik de factuur correct interpreteer betaal ik per 100mA extra boven de 500mA die standaard in het contract zit. Want?

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Omdat ik het een tikkie vreemd vond dat ze het zo precies in kaart brachten :)
Als de minimale afnamehoeveelheid 500mA is, kan je er dus net zo goed een minder zuinige bak in hangen...

FireDrunk wijzigde deze reactie 11-09-2012 20:14 (40%)

Even niets...


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

quote:
DutchNutcase schreef op dinsdag 11 september 2012 @ 16:30:
[...]


Zal ik vanavond doen als ik thuis ben.
Met de Ubuntu live CD lijkt het prima te werken. Eens even die custom kernel eruit gooien.

edit: dat is ook niet het probleem. Ik denk dat ik dan maar nuclear ga. Ff back-upje trekken en herinstalleren.

DutchNutcase wijzigde deze reactie 11-09-2012 20:47 (17%)

Luctor et Emergo || specs


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
sysctl -a vergelijken?

Even niets...


  • VorCha
  • Registratie: november 2004
  • Laatst online: 11-11 13:59
quote:
FireDrunk schreef op dinsdag 11 september 2012 @ 20:14:
Als de minimale afnamehoeveelheid 500mA is, kan je er dus net zo goed een minder zuinige bak in hangen...
Klopt, maar dit is ook een beetje uitproberen voor mij. Toch een goed gegeven om een zo zuinig mogelijke server te hebben. Thuis zou het natuurlijk directer te merken zijn in €, dat wel.

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Je kan ze natuurlijk mailen, en zeggen dat je onder de 500mA zit, en dus minder wil betalen :+

Even niets...


  • Pantagruel
  • Registratie: februari 2000
  • Laatst online: 10-11 21:22

Pantagruel

Mijn 80486 was snel,....was!

Mijn duit in 't "Thuis virtualisatie" zakje doen:
Hypervisor
VMWare ESXi 5.0 (binnenkort upgrade richting ESXi 5.1).
Waarom: Bare metal hypervisor die je voor thuis gebruik gratis kunt gebruiken


Hardware
#ProductPrijsSubtotaal
1Intel Xeon E3-1230 Boxed€ 213,70€ 213,70
1Western Digital Blue WD3200AAKS, 320GB€ 65,58€ 65,58
2IBM ServeRAID M1015 SAS/SATA Controller for System x€ 116,62€ 233,24
1Intel Postville X25-M SSDSA2MH080G2C1 80GB€ 103,08€ 103,08
2Kingston ValueRAM KVR1333D3E9SK2/8G€ 53,55€ 107,10
1Mellanox MHEA28-2TC€ 100€ 100
1Supermicro X9SCM-F€ 182,60€ 182,60
Bekijk collectie
Importeer producten
Totaal€ 1005,3


De hardware wordt standaard uit de doos ondersteund en het doorsluizen van een PCIe adapter (M1015 of de MHEA28-2TC) is vanwege de Vt-D ondersteuning geen probleem.
Externe datastores zijn er niet. Alle VM's staan op de SSD en de 4 SATA drives zijn gezamelijk een ZFS array (tbv ZFSguru/OpenIndiana).

Op dit moment dient de ESXi install puur als test om te bepalen of het virtualiseren een haalbare optie is. Jammer genoeg is de ondersteuning van Infiniband (IB) onder ZFSguru (FreeBSD 9.x) zeer beperkt en is het toch vooral de bedoeling of ik de ZFS pool over een 20Gbit VMXNET3 verbinding aan een andere VM kan doorgeven (NFS/iSCSI) welke wel in staat is om SMB over IB te doen (linux/Windows Server 2012). Een andere optie is om via een Nexenta/Open Solaris 11/OpenIndiana VM de ZFS pool beschikbaar te maken, maar eerdere test mbv direct geïnstalleerde OS 11/OI installs liet een IB transfer plafond zien van ca. 500~600 MB/sec vanuit een RAM disk (SRP-target).

Energie verbruik kan ik op dit moment niets over zeggen aangezien de 3 kwartjes meter van de Gamma naar "genezijde" is gegaan.



Virtuele machines
OS/ApplianceFunctie
OpenIndiana 151aom SRP target doorvoer te testen
Ubuntu 12.04 LTSom SRP target doorvoer te testen
ZFSguruZFSguru v 0.2.0-beta5, ZFS test VM
ZFSguruZFSguru v 0.2.0-beta5, VMXNET3 test VM
Win2008-R2Win2008 test VM



Foto's
De foto's zijn niet helemaal in overeenstemming met hoe de bak er nu uit ziet, maar van de eerdere 10+ TiB ZFS server build.
De genoemde SSD en de 4x 320 GB SATA drives zijn erbij gekomen om de virtualisatie te huisvesten. Afhankelijk van wat ik met de bak wil start ik ESXi op of de bare-metal ZFSguru installatie.

FrontZij aanzichtClose up moboDisks



Motivatie
Waarom, omdat het kan ;) en ik op dit moment de goed draaiende ZFSguru installatie niet zomaar over wilde hevelen naar een VM omgeving en het risico lopen dat de ca. 16 TiB data pool het slachtoffer zou worden.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Ik heb sysctl -a vergeleken tussen de debian installatie en de ubuntu live omgeving. Zie de diff op pastebin. '<' is debian en '>' is de ubuntu live omgeving.
net.ipv4.neigh.default.retrans_time = 100
net.ipv4.neigh.default.base_reachable_time = 30

is een van de dingen die tot de mogelijkheden, samen met
net.ipv6.neigh.default.retrans_time = 250
net.ipv6.neigh.default.base_reachable_time = 30

Of zijn er andere dingen die jou opvallen die tot het gewenste resultaat zouden kunnen leiden.

edit: Ik heb in de tussentijd wel uitgevonden dat op het moment dat ik een iperf sessie start naar die storage VM, dat iperf -s gelijk 200% cpu inneemt en de host schakelt 1 core van 800 MHz naar 2300MHz. En dat alles levert een performance van nog geen 50Mbps.

Doe ik ditzelfde bij een andere vm (ook debian wheezy) met bridged networking (virtio) en slechts 1 vCPU en 1 GiB RAM dan gaat het CPU gebruik van iperf -s naar 74%, maar schakelt de host geen enkele core op. en het resultaat is:
root@xbmc:~# iperf -c 10.0.0.2 -w 1M -t 120
------------------------------------------------------------
Client connecting to 10.0.0.2, TCP port 5001
TCP window size:  256 KByte (WARNING: requested 1.00 MByte)
------------------------------------------------------------
[  3] local 10.0.1.9 port 33585 connected with 10.0.0.2 port 5001

[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-120.0 sec  11.9 GBytes   850 Mbits/sec

Even ter vergelijking: iperf op de client gebruikt 1-2% cpu.

DutchNutcase wijzigde deze reactie 12-09-2012 21:08 (47%)
Reden: Nieuwe informatie

Luctor et Emergo || specs


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

* Bump *

Heeft iemand nog een idee voor mijn probleem met bovenstaande nieuwe info, voordat ik besluit om mijn storage vm in ubuntu smaak op te zetten?

Luctor et Emergo || specs


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Heb je iperf uit de repositories geinstaleerd? Of vanaf source?
Misschien is de ene wel veel ouder dan de andere...

Even niets...


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 06:51

ThinkPad

Moderator Duurzame Energie & Domotica

L460

Interessant topic! Ik ga binnenkort eens aan het pielen met ESXi. Eerst alle hardware even netjes in m'n nieuwe 2U behuizing zetten (ipv normale tower).

Gas besparen door CV-tuning | Elektriciteit besparen
Geen (Domoticz) vragen via privébericht die ook via het forum kunnen a.u.b.


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

quote:
FireDrunk schreef op donderdag 13 september 2012 @ 14:35:
Heb je iperf uit de repositories geinstaleerd? Of vanaf source?
Misschien is de ene wel veel ouder dan de andere...
Ik heb iperf uit de repo's gehaald, maar de iperf resultaten zijn representatief (beide debian VM's dezelfde versie), want een dd test op de nfs mount geeft een max van 10 MB/s. Ik vind het vooral raar dat die cpu usage zo verschilt.

Ik ga nu eens een ubuntu-server vm installeren en testen.

Luctor et Emergo || specs


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 06:51

ThinkPad

Moderator Duurzame Energie & Domotica

L460

Voor de mensen die nog een makkelijke webserver appliance (=kant en klare virtuele machine) kunnen gebruiken is Turnkey LAMP misschien interessant. Kant en klare linux server met lamp (apache) erop geinstalleerd.

http://www.turnkeylinux.org/lampstack

Gas besparen door CV-tuning | Elektriciteit besparen
Geen (Domoticz) vragen via privébericht die ook via het forum kunnen a.u.b.


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Ik heb helaas niet meer uit kunnen vinden wat het probleem was met Debian Wheezy en heb nu mijn storage VM uitgerust met ubuntu server 12.04. Dat draait prima met een fatsoenlijke snelheid van makkelijk boven de 950Mbps.

Heb verder nog wel iets bijzonders moeten doen om de onboard Realtek RTL8111/8168B stabiel te laten werken. Deze klapte er uit als ik veel netwerk load genereerde (>200 Mbps) op een bridges vm óf op de host. En dan had ik de foutmelding:
Sep 15 09:49:46 ouranos kernel: [  269.694068] AMD-Vi: Event logged [IO_PAGE_FAULT device=06:00.0 domain=0x001e address=0x0000000000003000 flags=0x0050]

En dan was het host netwerk in het geheel niet meer bruikbaar en ook niet meer op te krijgen. Na veel gegoogle kwam ik uit op dit bugreport bij Red Hat. Op basis daarvan heb ik nu op mijn Debian Wheezy host kernel 3.5 uit de siduction repo's geïnstalleerd. En dat is stiekem mooi stabiel nu.
root@ouranos:~# uname -a
Linux ouranos 3.5-3.towo-siduction-amd64 #1 SMP PREEMPT Thu Aug 30 17:56:55 UTC 2012 x86_64 GNU/Linux

Luctor et Emergo || specs


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
AMD-Vi? Gebruik je dat voor het doormappen van de NIC? Ik heb AMD-Vi nog niet echt veel in de praktijk gezien! Ik ben wel benieuwd naar de functionaliteit!

Even niets...


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Ja, AMD-Vi is nu de officiële naam voor AMD IOMMU en ik gebruik het voor het doormappen van mijn Highpoint RocketRAID adapter en mijn Intel GB NIC. En dat werkt heel erg goed. Alleen blijkbaar kon de Realtek driver die in kernel 3.2 zit niet heel goed opschieten met AMD-Vi en daar werd deze NIC, die ik gebruik als bridge voor de minder netwerk performance intensieve VM's, instabiel van. En dit heb ik opgelost met het installeren van kernel 3.5. De hoge netwerk load komt door mijn download VM, die op een gegeven moment de gedownloade dingen naar de RAID array van de storage VM verplaatst (>40 MB/s).

Ben je misschien geïnteresseerd in een paar performance benchmarkjes van de AMD-Vi implementatie, zoals ik die nu opgezet heb? Dat zal dan alleen later worden, omdat ik dan thuis een tweede fysieke machine aan moet slingeren.

Luctor et Emergo || specs


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Benchmarks zijn altijd goed, hoe meer hoe beter.

Waarom voeg je niet een 2e (virtuele) NIC toe aan je VM?
Dan heeft het ding intern snel netwerk naar je storage VM :)

Even niets...


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Dat heeft op zich relatief weinig zin, omdat de schrijfsnelheid van mijn RAID5-array niet boven de maximum verbindingssnelheid uitkomt. De netwerksnelheid van mijn downloadbak naar mijn storage VM is ongeveer 850 Mbps, dus dat is vrij netjes voor virtio. En de schrijfsnelheid van mijn RAID array is ongeveer 40-45 MB/s, dus 320-360 Mbps. Daarnaast is dat de enige andere VM die veel netwerkverkeer genereert, dus de pijp is eigenlijk altijd vrij.

DutchNutcase wijzigde deze reactie 17-09-2012 11:03 (10%)

Luctor et Emergo || specs


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Vanwaar de trage RAID array? :+

Even niets...


  • GH45T
  • Registratie: november 2003
  • Laatst online: 20:25
quote:
X-DraGoN schreef op donderdag 23 augustus 2012 @ 10:54:
[...]


Ben je tevreden over die processor?
Kan je zogezegd 4 aparte proc's zien in Xenserver? Of zie je er 'maar' 2 ?
Lees je bericht nu pas. Je ziet "maar" 2 processoren inderdaad. Maar het is natuurlijk ook gewoon een dualcore zonder hyperthreading dus dat is logisch.

Processor bevalt eigenlijk goed. Maar ik heb nog altijd niet de tijd genomen om een stroommeter aan te sluiten. Volgens mij moet het geheel redelijk zuinig zijn, daar is het ook op samengesteld maar dat weet ik dus niet zeker. Performance vind ik in ieder geval prima voor mijn situatie.

  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

quote:
Waarschijnlijk is de linux driver niet sneller, want ik heb wel Windows benchmarks gezien met dezelfde controller die dik boven de 100 MB/s uitkwamen, maar vooruit. Deze controller heb ik ondertussen al 4 jaar en doet het nog steeds en ik heb op het moment even geen geld (en zin/tijd) om hem te vervangen voor iets anders. Uiteindelijk ga ik hem nog wel vervangen door iets anders, vooral omdat ik 4 poorten langzaamaan te weinig begin te vinden en misschien ga ik dan nog naar ZFS/BTRFS (afhankelijk van de stand der techniek), maar dan moeten deze filesystems tegen die tijd wel online capacity expansion/online raid level migration ondersteunen, omdat dan niet gelijk 8 nieuwe HDD's ga kopen, maar eerst vier nieuwe in RAID5 en dan later uitbreiden naar 8 in RAID6.

Luctor et Emergo || specs


  • Unflux
  • Registratie: november 2009
  • Laatst online: 09-10 22:54

Unflux

mv crisis > /dev/null

Ik ga een QNAP bestellen, en ik twijfel of ik hem standaard laat of dat ik er VMware ESXi op installeer. Wat is jullie advies? Ik ga op de QNAP een websevertje, fileserver, download server op installeren.

"But we are hackers and hackers have black terminals with green font colors!" - John Nunemaker


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Ik ken eerlijk gezegd geen filesystem meer wat dat niet kan...

XFS kan het, EXT4 kan het, NTFS kan het, BTRFS kan het...

@hierboven
Uh wat? ESXi op een QNAP???

FireDrunk wijzigde deze reactie 17-09-2012 12:50 (14%)

Even niets...


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Misschien moet ik er dan bij zeggen dat ik nog even wil wachten tot BTRFS wat stabieler is. En ZFS speelt sowieso niet zo lief met mijn huidige controller. Alleen voorzover ik weet kan ik in ieder geval ZFS niet rechtstreeks uitbreiden van een RAIDz naar een RAIDz2 array zonder downtime. Ik dacht wel dat er aan gewerkt word, maar dat het nog niet beschikbaar was.

Ik weet zeker dat BTRFS het binnenkort gaat kunnen. De patches waren geschreven, maar ik weet niet of dat al gemerged is (niet meer gevolgd), maar BTRFS moet nog iets stabieler worden naar mijn idee, maar dat zou ik een keer met een VM moeten proberen (is nog niet nodig, omdat de controller gewoon voldoet). Maar waarschijnlijk gaan de ontwikkelingen van BTRFS een stuk sneller als Ubuntu en andere distro's het als standaard FS gaan gebruiken.

De controller voldoet verder gewoon, omdat ik met het lezen van data gewoon mijn gigabit netwerk helemaal vol kan trekken, dus voor streaming video is alles snel genoeg.

Luctor et Emergo || specs


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Toch jammer... Heb je een mooie server, haal je geen Gbit :)

Ik ben persoonlijk ook wel benieuwd naar BTRFS, laten we hopen dat de ontwikkeling snel gaat!

Even niets...


  • DutchNutcase
  • Registratie: augustus 2005
  • Niet online

DutchNutcase

E = mc^2

Ja, daar heb je gelijk in, maar dat lossen we in de toekomst wel een keertje op. Of met een dik brute Areca (of iets anders dat dikke write speeds haalt onder Linux en minstens 8 S-ATA poorten heeft) óf met een HBA die goed werkt met ZFS of BTRFS. Ik heb zelf de voorkeur voor BTRFS, omdat dit geïntegreerd is in de Linux kernel en mijn Linux kennis een stuk groter is dan mijn freeBSD kennis, maar ik denk dat op dit moment ZFS veel volwassener is.

Eén blijvertje heb ik in ieder geval al wel gevonden en dat is AMD-Vi icm met 16GiB RAM. Bovendien ben ik wel heel erg tevreden over de leessnelheden, dus ik ben voor nu content.

DutchNutcase wijzigde deze reactie 17-09-2012 13:30 (7%)

Luctor et Emergo || specs


  • B2
  • Registratie: april 2000
  • Laatst online: 07:44

B2

wa' seggie?

Heb weer zin om het e.e.a. met virtualisatie te gaan spelen. Heb een tijd lang een setup gehad die ik hier ook wel gepost heb, maar ben om de een of andere reden weer naar een single host gegaan die zowel m'n Nat router is, als m'n NAS.

Dat wil ik weer uit elkaar gaan trekken, maar nu op een andere manier. Voorheen had ik alles Linux based, overal een Centos 6 installatie en elke host handmatig ingericht.
Nu wil ik wat meer standaard oplossingen gaan gebruiken. Dus bijvoorbeeld pfSense als router, Nas4Free voor het NAS gedeelte (wil namelijk ook wat met ZFS gaan spelen). Daarbij komt nog wel een aantal CentOS vm's voor Dansguardian transparant proxy, Mysql en Plex Media Server.

Ik heb nu de volgende configuratie :

#ProductPrijsSubtotaal
1Samsung SpinPoint M8 HN-M101MBB, 1TB€ 83,45€ 83,45
2Western Digital Green WD20EARX, 2TB€ 92,-€ 184,-
1Fractal Design Define Mini€ 82,90€ 82,90
1Scythe Samurai ZZ€ 21,99€ 21,99
1Noctua NF-B9, 92mm€ 13,90€ 13,90
1Mini-box picoPSU 150-XT + 84W Adapter Power Kit€ 63,15€ 63,15
1Crucial m4 CT064M4SSD3 64GB€ 61,25€ 61,25
2Kingston ValueRAM KVR1333D3N9K2/8G€ 32,73€ 65,46
1Intel DH77EB€ 87,95€ 87,95
Bekijk collectie
Importeer producten
Totaal€ 664,05


Ik wil eigenlijk dan ZFS direct toegang tot de controller geven, niet nog een extra laag er tussen. Vraag me af of als ik disk als raw device doorgeef (dus niet via VT-d) de hypervisor een disk dan wel in standby zet als de VM er niets mee doet.

Ik zit er dus aan te denken om bovenstaande set te upgraden zodat VT-d mogelijk is met een M1015 kaart in IT mode oid, zodat de NAS4Free vm dit allemaal zelf kan regelen.

  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 06:51

ThinkPad

Moderator Duurzame Energie & Domotica

L460

Hoe zorg ik ervoor dat een van mijn ESXi VM's alleen toegang tot m'n interne netwerk heeft, en niet tot het internet?

Heb een XP VM, en ik vertrouw het niet zo als die zonder antivirus 24/7 aan het internet hangt, en bovendien heeft de VM ook geen internet nodig.

Hoe regelen jullie dit soort dingen?

Gas besparen door CV-tuning | Elektriciteit besparen
Geen (Domoticz) vragen via privébericht die ook via het forum kunnen a.u.b.


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Default gateway leeglaten.

Even niets...


  • de echte flush
  • Registratie: september 2007
  • Laatst online: 02-11 22:19
Na jullie leuke hardware mijn amateuristisch servertje ;)
Hypervisor
Vandaag een update gedaan van 4 naar ESXi 5.1 en 8GB ram (dank aan rscheper) : de hypervisor is gratis ;-) maar eigenlijk ook gekozen omwille van een korte professionele ervaring met ESXi 4.1


Hardware
(prijzen kloppen natuurlijk niet)
#ProductPrijsSubtotaal
1Kingston DataTraveler G3 8GB Geel€ 4,67€ 4,67
1Seagate Barracuda 7200.9 ST3160812AS, 160GB€ 111,86€ 111,86
2Western Digital Blue WD2500AAJS, 250GB€ 0,-€ 0,-
4Kingston KTM4982/2G€ 25,95€ 103,80
1Intel Core 2 Duo E6550 Boxed€ 0,-€ 0,-
1HP Compaq dc5800 (KK377ET)€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 220,33

ESXi is geïnstalleerd op de (toekomstgerichte) 8GB usb stick, om hiervan te booten moest ik ESXi instellen de stick te gebruiken met een MBR table (kan niet booten vanaf GPT)
Verbruikt momenteel z'n 66W, met 2 actieve vm's.
RAM geheugen is het maximum van het bordje, ik had natuurlijk liever meer ;-)
Ik kom van een AMD athlon X2/4GB RAM met ESXi 4, maar daar was ESXi 5.1 niet meer compatibel mee. Voordeel van dit hp bordje is dat alles out of the box werkt. (op die GPT boot na).


Virtuele machines
OS/ApplianceFunctie
FreenasFreenas 8.2 (2*250GB: RDM ging niet, dus als .vdmk gekoppeld en als ZFS mirror opgezet (testje)
UbuntuVPNMoet fysieke openVPN server vervangen, nog op te zetten
W2008R2DC (rechten etc ooit nog op te zetten)
W2008R2experiment WSUS server, ook nog steeds niet opgezet
Win7Test machine, vooral voor bovenstaande machines te testen



Foto's

let niet op de rommel, de stick heb ik vanonder gewoon in de kast geplakt.




Motivatie
Vooral opgezet om wat te spelen met wsus, domein controller, etc En om te testen of ik men oude freenas server kan vervangen als vm (nu nog een AMD sempron 3100+ met 2GB RAM :p met een idle verbruik van bijna 80W) maar momenteel gaat dat nog niet gebeuren ;) Desnoods hou ik die apart voor een iSCSI volume... (met ooit nieuwe HW) Had hiervoor een iSCSI gekoppeld aan de ESXi 4 server.
Wensen
- eventueel een upgrade naar een Quad core (Q6600 eventueel Q9xxx) goede upgrade voor prestaties lijkt me.
- prestaties ZFS zien te verbeteren (zonder al te veel upgrades ;) ), als dit lukt en het budget er is twee keer 2 of 3TB steken als ZFS mirror.

momentele prestaties ZFS mirror:
oude freenas (amd sempron):
-> max z'n 232Mbps op het ZFS volume
-> max z'n 500Mbps op een gewoon UFS volume
freenas op de VMware ESXi server:
-> max z'n 185Mbps op het ZFS volume: E1000 nic, de VMXnet3 werkt (nog) niet

  • Jeroen V
  • Registratie: februari 2004
  • Laatst online: 07:15

Jeroen V

yadda yadda yadda

Ook mijn bijdrage maar eens leveren aan dit topic.
Hypervisor
Ik heb gekozen voor VMWare ESXi 5.1 aangezien ik dit met grote regelmaat tegenkom op het werk. VMWare heeft naar mijn mening het meeste ervaring met bare metal hypervisors en voor mij het meest geschikt. Ook het feit dat ESXi memory overcommitment heeft maakt de keuze erg eenvoudig. (ik zit op dit moment op zo'n 30% overcommitment zonder dat ik daarvan iets merk)

Hardware
Ik had nog een aantal onderdelen die gebruikt zijn voor de setup. (eigenlijk alleen netwerkkaart en de 400GB schijven (oeps, zie nu dat het 1 x 250GB en 1 x 400GB is)) Verder een nieuwe computer aangeschaft voor de server. Het moederbord heeft een on-board netwerkkaart die ik op dit moment niet gebruik. Ik was oorspronkelijk van plan om deze voor de VPN server te gebruiken, maar daar ben ik vanaf gestapt aangezien L2TP erg gemakkelijk door mijn router door te sturen is. Voordeel is dat ik nu geen Windows server 'naakt' aan het internet heb hangen. Verder heb ik meer dan genoeg aan de 4 NIC's die er nu inzitten.

Ik wilde er graag zoveel mogelijk geheugen in zonder direct aan heel erg dure hardware te moeten, dus ik heb gekozen voor een i5 quadcode op 3.3 GHz met 32GB geheugen. Voor mij meer dan zat, alleen beetje jammer dat er niet meer geheugen bijgeprikt kan worden in de toekomst.

Ik heb een Dell PowerConnect 2724 24 poort GBit switch waarmee de server aan de rest van het netwerk geknoopt wordt. Voor opslag heb ik een Synology 1010+ (5 x 1.5TB) waar de nodige iSCSI targets op staan.

De ESX server heeft vier netwerkkaarten die op de volgende manier worden gebruikt:
1. VM Network
2. iSCSI Network
3. Servers Network
4. Clients Network

De Synology heeft 2 GBit NIC's waarvan er eentje gebruikt wordt voor iSCSI targets, en de andere voor het overige verkeer.

Prestaties zijn op deze manier erg prettig, ik heb wat snelheid op het netwerk niets te klagen.

#ProductPrijsSubtotaal
1Cooler Master CM 690 II Advanced (USB 3.0 version)€ 101,48€ 101,48
2Intel Gigabit CT Desktop Adapter€ 25,39€ 50,78
1Intel PRO/1000 PT Dual Port Server Adapter (2x1000Mbps, PCI-e 4x)€ 154,50€ 154,50
2Samsung SpinPoint T133 HD401LJ, 400GB€ 0,-€ 0,-
1Western Digital Green WD20EARX, 2TB€ 89,90€ 89,90
1Samsung SH-222BB Zwart€ 13,24€ 13,24
2GeIL Evo Corsa GOC316GB2133C10AQC€ 114,20€ 228,40
1Intel Core i5 3550 Boxed€ 180,-€ 180,-
1OCZ ModXStream Pro 500W€ 56,-€ 56,-
1Intel 330 120GB€ 77,-€ 77,-
1MSI Z77A-GD55€ 119,-€ 119,-
Bekijk collectie
Importeer producten
Totaal€ 1.070,30


Virtuele machines
De meeste VM's zijn Windows servers die ik gebruik om ervaring met de produkten op te doen. (Licenties zijn overigens netjes gedekt door het MSDN abonnement dat ik zelf heb, handig, geen gezeur met activatie >:) ) Alle VM's opnoemen is wat saai, dus ik zal me beperken tot de 'belangrijke' VM's die erop draaien.

OS/ApplianceFunctie
Windows 2008R2 EnterpriseDomain Controller 1, DHCP, DNS, NPS
Windows 2008R2 EnterpriseDomain Controller 2, DHCP, DNS
Windows 2008R2 DatacenterCluster Node 1, SQL, DTC
Windows 2008R2 DatacenterCluster Node 2, SQL, DTC
Windows 2008R2 EnterpriseSQL Server 2012
Windows 2008R2 EnterpriseTFS Server 2012
Windows 2008R2 EnterpriseManagement tools, WSUS, backup
Windows 2008R2 EnterpriseRRAS, standalone
Windows 2012 StandardTerminal Server
Windows 7 UltimateDownload machine, algemene client
Debian LinuxSquid, Nagios


Foto's
Binnenkant van de kast, ben geen modder maar toch redelijk netjes dacht ik :)


De printer, ESX server en NAS (let niet op het stof)


En een screenshot van de client....



Overig
Ik heb gekozen voor het MSI moederbord omdat dit VT-d zou ondersteunen. Helaas lijkt dat niet helemaal lekker te gaan... Nadat ik passthrough voor de onboard netwerkkaart had eengezet liep de machine snoeihard vast. Geen idee of dat ook de directe oorzaak is, maar ik heb VT-d in de BIOS uitgezet en gebruik het dus niet. De onboard netwerkkaart is niet echt nodig (zie boven) dus ik vind het wel best zo en ik heb niet verder gezocht wat het probleem precies is. Een stabiele machine vind ik belangrijker dan het gebruik van een goedkoop netwerkkaartje.

ESX is zelf geinstalleerd op de SSD die erin zit en dat draait prettig. Misschien dat ik dat ooit nog op een USB stick zet maar voor nu is het prima. Verder staat de Windows 7 client, SQL Database en de swap files op de SSD dus de prestaties daarvan zijn prima. Ik heb nog niet veel gemerkt van degradatie van performance (vziw ondersteunt ESXi geen trim commando) Ik ben wel benieuwd of dat zo blijft, maar dat ga ik meemaken :)

Grootste bottleneck in deze machine zijn de harddisks. Ik merk dat de VM op de SSD altijd ontzettend snel is, maar zodra er meerdere machines vanaf de SATA schijven druk bezig zijn er een behoorlijke degradatie is in performance. (wat ik uiteraard niet vreemd vind) Op het werk ligt nog een 'sloop' server met 6 x 15K SAS schijven die ik op het oog heb. Als ik toestemming krijg dan zou ik die graag in deze machine inbouwen, alleen een goede controller aanschaffen en dan denk ik dat ik redelijk van de SATA bottleneck af ben :)

Maar voor nu ben ik erg tevreden over deze setup...

Edit: foto's toegevoegd...

  • B2
  • Registratie: april 2000
  • Laatst online: 07:44

B2

wa' seggie?

Welke SSD zouden jullie voor de VM's nemen? Een tweedehands Intel X25-E, Intel 320 of een nieuwe Crucial M4 of Samsung 830?

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Ligt aan het gebruik, test of productie?

Even niets...


  • B2
  • Registratie: april 2000
  • Laatst online: 07:44

B2

wa' seggie?

quote:
FireDrunk schreef op maandag 05 november 2012 @ 11:34:
Ligt aan het gebruik, test of productie?
Eigen prive gebruik.

  • CAPSLOCK2000
  • Registratie: februari 2003
  • Laatst online: 01:06

CAPSLOCK2000

zie teletekst pagina 888

Dan zou ik beginnen met wat ik al heb en pas als ik tegen beperkingen oplop iets nieuws kopen.
Tenzij je denkt dat die SSDs al zo ver zijn gesleten dat ze binnen de kortste keren omvallen, dan is het de moeite misschien niet waard. Uiteraard heb je backups om op terug te vallen als die SSD sneuvelt....

This post is warranted for the full amount you paid me for it.


  • B2
  • Registratie: april 2000
  • Laatst online: 07:44

B2

wa' seggie?

Nou het feit is dat ik nog niks heb :) Ik ben een compleet nieuwe virtualisatie server aan het opbouwen (fedora+KVM)

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
Mits je een recente kernel hebt, heb je TRIM ondersteuning, dat is wel handig. Dan kan je eigenlijk elke SSD gebruiken.

Wel backups maken uiteraard.

Even niets...


  • B2
  • Registratie: april 2000
  • Laatst online: 07:44

B2

wa' seggie?

Denk zelfs dat ik de hypervisor en vm's op raid 1 wil gaan zetten. (Even los van backups natuurlijk). Het is namelijk wel van belang dat alles blijft draaien als een ssd uitvalt. Een van de vm's draait pfsense voor het routeren van mijn internet connectie.

De Samsung 830's en Crucial M4's zijn tegenwoordig goed genoeg om alle writes van de vm's op te vangen? Daar heb je geen X25-E voor nodig?

Ah, ik lees net dat TRIM niet werkt op raid-1.. So far mijn leuke ideeen ;w

B2 wijzigde deze reactie 06-11-2012 10:45 (9%)


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 22:07
TRIM werkt wel met software RAID onder linux. De RAID implementatie van linux is onafhankelijk van de drivers, waardoor TRIM gewoon werkt.

Zolang je niet 1000-den GiB's naar die VM's schrijft, kan je gerust Samsung 830's of Crucial M4's gebruiken.

FireDrunk wijzigde deze reactie 06-11-2012 11:05 (28%)

Even niets...


  • DARKLORD
  • Registratie: december 2000
  • Laatst online: 08-11 20:14
Hypervisor
Vmware esxi 5.1


Hardware
Begonnen met gewone hardware icm FreeNAS. Geen virtualisatie dus. Hierin transmission en sab met moeite aan de praat gekregen, net zoals openvpn. maar updaten hiervan was altijd een drama. Voor storage gebruikte ik een Areca 8poort sata raid5 kaart.

Maar je wilt meer. Voor ZFS de Areca kaart verkocht en alsnog gebruik gemaakt van FreeNAS.
Freenas was niet altijd even stabiel. Op zoek naar een vervanging ZFSguru geprobeerd maar dit beviel ook niet. (ontwikkelaar die maanden opeens kwijt was , niet echt stabiel dus) Nu maak ik gebruik van OpenIndiana met Nappit. werkt fantastisch. Maar je zit met solaris..

Daarom virtualisatie om meerdere servers te kunnen draaien naast openindiana.

naar zfs moet wel direct toegang krijgen tot de harde schijven, dus vt-d noodzakelijk! pci passthrough

pricewatch: Supermicro X9SCM-F
pricewatch: Intel Xeon E3-1220 Boxed
pricewatch: Supermicro AOC-USAS-L8i
pricewatch: Hitachi Deskstar 7K3000 HDS723020BLA642, 2TB
pricewatch: Kingston ValueRAM KVR1333D3E9SK2/8G
pricewatch: Seasonic M12II 520W
pricewatch: Antec Twelve Hundred

voor pfsense router firewall :
pricewatch: D-Link DWA-556
pricewatch: Intel PWLA8492MT PRO/1000 MT Dual Port



Virtuele machines
  • iRedmail emailserver met openvpn via ldap
  • openindiana met nappit - NAS & storage van vm's via NFS
  • subsonic, transmission, sabnzbd
  • tvheadend & oscam - tv server voor ziggo (nog aan het opzetten)
  • pfsense - firewall/router
  • win 7 test pc - management pc om ACLs in te stellen + dvds omzetten naar mkv

Overig
De vm's worden opgeslagen op de NAS via NFS. alleen openindiana zelf is op dezelfde aparte schijf geinstalleerd met esxi.

het geweldige aan de supermicro x9scm-f is het ipmi gebeuren. zodat je op afstand kan inloggen op een aparte netwerk interface en je monitor output ziet, plus het mounten van iso's en het hard resetten van je server of aan en uit schakelen.

Het grote probleem dat ik nu nog heb is dat ik de wireless nic kaart niet via pci passthrough naar pfsense kan doorzetten. als ik dit doe slaat esxi VOLLEDIG vast. alle vm's stoppen. een hard reset is dan nodig om de boel weer werkend te krijgen. momenteel gebruik ik pfsense dus nog niet. alle servers hebben hun eigen vaste ip adres gekregen. als pfsense niet werkt ligt nog niet gelijk alles eruit

deze of volgende week spullen bestellen voor tvheadend server... maar weet nog niet welke. als de dvb-c kaart niet via pci passthrough kan worden doorgegeven net zoals die wireless nic ben ik weer het haasje...
Ik ga sowieso wat extra geheugen bijprikken..

ook heb ik nog geen goede oplossing voor mijn apc ups via usb. deze heeft geen management card. hoe lossen jullie dat op? zit te denken om een aparte vm te gebruiken en hierop NUT of apcupsd zetten zodat deze een script kan uitvoeren welke alle vms afsluit...

  • HyperBart
  • Registratie: maart 2006
  • Nu online
Zo ga je idd moeten werken (ivm die UPS), een mgmt VM die een script laat lopen als hij detecteert dat de stroom uitgevallen is...

Wel opletten: storage VM als laatste afsluiten dus :) .


Weet je eigenlijk wat jouw verbruik is?

HyperBart wijzigde deze reactie 10-11-2012 20:28 (10%)

Vandaag even niets

Pagina: 1 2 3 ... 6 Laatste


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Tesla

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True