Juist die heb ik geinstalleerd inderdaad.
Ik ging er niet van uit dat dit op de HCL zou staan. Kan het dan ook niet vinden.FREAKJAM schreef op woensdag 30 september 2015 @ 10:30:
HCL al doorgenomen? Anders even kijken welke nics er in je mobo zitten en kijken of die in ieder geval ondersteund worden. Bij ESXi 5.5 moest er nog het een en ander geinjecteerd worden qua drivers (had ik ook met mijn Supermicro mobo) maar bij ESXi 6 hoefde dit al niet meer.
Is je voeding trouwens niet te zwaar? Ik heb een Xeon 1230v3 cpu met 32GB ram en een Supermicro met 360watt voeding en dat is meer dan voldoende (6 VM's).
Verder betreft de NIC, omdat te vermijden schakel ik de onboard uit en plaats ik een aparte intel adapter welke out of the box moet werken.
Voeding kan ik idd nog aanpassen, maar misschien voor eventuele extra hdd's in de toekomst.
Hoeveel schijven ga je nemen? Ik heb er nu 7. (6x WD RED en een SSD voor de datastore). De NIC in je mobo wordt waarschijnlijk wel ondersteund. Wellicht een beter idee om een mobo te nemen die 2 nics heeft? (ga je pfSense draaien?). Ga je trouwens met ZFS of iets anders werken waarmee je via vt-d schijven gaat doorgeven aan een VM?sharkzor schreef op woensdag 30 september 2015 @ 10:49:
[...]
Ik ging er niet van uit dat dit op de HCL zou staan. Kan het dan ook niet vinden.
Verder betreft de NIC, omdat te vermijden schakel ik de onboard uit en plaats ik een aparte intel adapter welke out of the box moet werken.
Voeding kan ik idd nog aanpassen, maar misschien voor eventuele extra hdd's in de toekomst.
[ Voor 10% gewijzigd door FREAKJAM op 30-09-2015 11:08 ]
is everything cool?
initieel 1, in de toekomst meer. Maar aan jouw specs te zien hoeft dat dus nietFREAKJAM schreef op woensdag 30 september 2015 @ 11:06:
[...]
Hoeveel schijven ga je nemen? Ik heb er nu 7. (6x WD RED en een SSD voor de datastore). De NIC in je mobo wordt waarschijnlijk wel ondersteund.
Er moeten 2 nic's in komen en die mobo's zijn schaars en veel duurder. Zo vond ik er 1, maar die was full ATX. Ik las ergens dat iemand geprobeerd had de driver te injecteren, maar dat de boel alsnog crashte.
Zo omzeil ik dat probleem
Het is voor een lab omgeving, dus het kan van alles zijn. Niet perse ZFS, maar dat zal ook de revue gaan passeren.
VT-D zou ondersteund moeten worden.
[ Voor 18% gewijzigd door sharkzor op 30-09-2015 11:13 ]
Mwah. Je betaalt nu ~275 euro voor een moederbord plus een losse kaart met 2 nics. Voor datzelfde geld had ik destijds een Supermicro board met 2 nics en een onboard sas-controller (voor als je schijven wil doorgeven). Ik gok dat er in die prijsklasse ook wel een mobo gaat komen met een 1151 socket.sharkzor schreef op woensdag 30 september 2015 @ 11:10:
[...]
initieel 1, in de toekomst meer. Maar aan jouw specs te zien hoeft dat dus niet![]()
Er moeten 2 nic's in komen en die mobo's zijn schaars en veel duurder. Zo omzeil ik dat probleem
Ik zie nu alleen de Supermicro X11SSZ-QF:
pricewatch: Supermicro X11SSZ-QF
Maar deze beschikt niet over een onboard sas-controller. Ik denk dat 1151 bordjes met 2 nics nog inderdaad zeldzaam zijn op dit moment. Ik weet niet hoe geduldig je bent
is everything cool?
Dit gaf in mijn ESXi bak een flinke terugval in idle verbruik van bijna 30%.FREAKJAM schreef op woensdag 30 september 2015 @ 10:41:
6.0u1 is vrij recent ook uitgebracht. Die patch ook al geïnstalleerd? Misschien heeft die nog wat verbeteringen.
Wel werkt de optie tot automatisch opstarten van VM's niet helemaal lekker meer?
As you may already have guessed, following the instructions may break your system and you are on your own to fix it again.
Ik ben aan het kijken naar een Gigabyte BRIX Pro (GB-BXi5-4570R), maar is hier ook ongeveer een beeld van hoeveel deze aan kan op het gebied van aantal VM's en processing power?
Ik heb momenteel al een ESXi server, maar deze BRIX wordt dan de 2e voor bij mijn ouders (komt in de meterkast).
Plannen die ik heb voor dit doosje zijn onder andere:
- pfSense als firewall / router (met hierachter switch met vlan ondersteuning)
- Windows Server voor oa. Active Directory, print server, enz.
- Linux hosting server (ISPConfig)
- file sharing van een externe USB 3 schijf.
- transcoding (Plex)
- vast nog wel meer pruts dingen
Ik heb momenteel al een ESXi server, maar deze BRIX wordt dan de 2e voor bij mijn ouders (komt in de meterkast).
Plannen die ik heb voor dit doosje zijn onder andere:
- pfSense als firewall / router (met hierachter switch met vlan ondersteuning)
- Windows Server voor oa. Active Directory, print server, enz.
- Linux hosting server (ISPConfig)
- file sharing van een externe USB 3 schijf.
- transcoding (Plex)
- vast nog wel meer pruts dingen
[ Voor 0% gewijzigd door Chrisiesmit93 op 07-10-2015 15:41 . Reden: Typo ]
Ik heb op een vergelijkbare CPU met 32GB RAM;Chrisiesmit93 schreef op woensdag 07 oktober 2015 @ 15:41:
Ik ben aan het kijken naar een Gigabyte BRIX Pro (GB-BXi5-4570R), maar is hier ook ongeveer een beeld van hoeveel deze aan kan op het gebied van aantal VM's en processing power?
Ik heb momenteel al een ESXi server, maar deze BRIX wordt dan de 2e voor bij mijn ouders (komt in de meterkast).
Plannen die ik heb voor dit doosje zijn onder andere:
- pfSense als firewall / router (met hierachter switch met vlan ondersteuning)
- Windows Server voor oa. Active Directory, print server, enz.
- Linux hosting server (ISPConfig)
- file sharing van een externe USB 3 schijf.
- transcoding (Plex)
- vast nog wel meer pruts dingen
- 5 productie Linux servers
- 2 Linux Desktops
- 2 Windows Desktop (Win 7 en Win 10)
- 1 pfSense
- en doorgaans 4 tot 8 test linux systemen actief.
CPU load is meestal rond de 25%, de RAM load 50-75%.
dus ja, als je er genoeg schijfruimte en genoeg RAM in stopt gaat het prima lukken.
Wel opletten dat de onboard nic waarschijnlijk niet default door ESXi ondersteund wordt, maar zoek even op een custom ESXi installer branden, dan kom je er wel uit.
Bedankt voor het bericht, CPU ziet er inderdaad wel capabel uit!VorCha schreef op woensdag 07 oktober 2015 @ 18:49:
[...]
Ik heb op een vergelijkbare CPU met 32GB RAM;
- 5 productie Linux servers
- 2 Linux Desktops
- 2 Windows Desktop (Win 7 en Win 10)
- 1 pfSense
- en doorgaans 4 tot 8 test linux systemen actief.
CPU load is meestal rond de 25%, de RAM load 50-75%.
dus ja, als je er genoeg schijfruimte en genoeg RAM in stopt gaat het prima lukken.
Wel opletten dat de onboard nic waarschijnlijk niet default door ESXi ondersteund wordt, maar zoek even op een custom ESXi installer branden, dan kom je er wel uit.
De Brix krijgt 16GB RAM dus dit moet inderdaad geen problemen opleveren lijkt mij.
Custom ESXi installatie's ben ik al bekend mee door mijn huidige ESXi server, scheelt weer
Kan jij mij vertellen wat jouw idle verbruik is en hoe veel disks je daarmee gebruikt?FREAKJAM schreef op woensdag 30 september 2015 @ 10:30:
HCL al doorgenomen? Anders even kijken welke nics er in je mobo zitten en kijken of die in ieder geval ondersteund worden. Bij ESXi 5.5 moest er nog het een en ander geinjecteerd worden qua drivers (had ik ook met mijn Supermicro mobo) maar bij ESXi 6 hoefde dit al niet meer.
Is je voeding trouwens niet te zwaar? Ik heb een Xeon 1230v3 cpu met 32GB ram en een Supermicro met 360watt voeding en dat is meer dan voldoende (6 VM's).
Edit:
Nevermind de disks vraag:
FREAKJAM schreef op woensdag 30 september 2015 @ 11:06:
[...]
(6x WD RED en een SSD voor de datastore)
[ Voor 12% gewijzigd door renedis op 15-10-2015 15:31 ]
iemand die hier toevallig een HP Z820 voor virtualisatie gebruikt?
hoe zijn de ervaringen?
hoe zijn de ervaringen?
Na het lezen van dit topic heb ik twee vragen .
Kunnen er meer worden, maar wilde het eerst hierbij laten
Wat ik wil gaan doen is een OpenVPN, PFsense en Raspbian server plaatsen in mijn meterkast.
Zodat ik vie onveilige hotspots gewoon veilig een verbinding kan maken met mijn netwerk.
PFsense als router en Raspbian voor het uitlezen van de slimme meter.
Echter hier heb ik geen ruimte voor in de kast
Wellicht dat exsi een oplossing biedt.
Nu de 2 vragen.
Werkt exsi met 1 harddisk of moet je er minimaal 2 hebben.
Ik heb nu een trail versie van exsi draaien, echter ik kan niet vinden wat de kosten na deze 90 dagen zijn,
Wellicht lees ik eroverheen maar wie heeft er informatie over ?
Kunnen er meer worden, maar wilde het eerst hierbij laten
Wat ik wil gaan doen is een OpenVPN, PFsense en Raspbian server plaatsen in mijn meterkast.
Zodat ik vie onveilige hotspots gewoon veilig een verbinding kan maken met mijn netwerk.
PFsense als router en Raspbian voor het uitlezen van de slimme meter.
Echter hier heb ik geen ruimte voor in de kast
Wellicht dat exsi een oplossing biedt.
Nu de 2 vragen.
Werkt exsi met 1 harddisk of moet je er minimaal 2 hebben.
Ik heb nu een trail versie van exsi draaien, echter ik kan niet vinden wat de kosten na deze 90 dagen zijn,
Wellicht lees ik eroverheen maar wie heeft er informatie over ?
2250 WP Zuid PVoutput
Je kunt ESXi draaien vanaf USB stick en één schijf als datastore voor je VMs gebruiken.
ESXi installeren op de schijf en deze ook inzetten als datastore moet ook kunnen.
Je kunt een gratis key aanvragen zodat je ESXi ook na die 90 dagen kunt blijven gebruiken.
ESXi installeren op de schijf en deze ook inzetten als datastore moet ook kunnen.
Je kunt een gratis key aanvragen zodat je ESXi ook na die 90 dagen kunt blijven gebruiken.
Kan dat gewoon via my.vmware ?RudolfR schreef op donderdag 15 oktober 2015 @ 20:24:
Je kunt een gratis key aanvragen zodat je ESXi ook na die 90 dagen kunt blijven gebruiken.
Wellicht had ik het verkeerd gedaan.
Ik heb nu een evaluatie van VMware vSphere Enterprise Plus .
Zie dat het overigens 60 dagen is.
2250 WP Zuid PVoutput
Het gratis product heet "vSphere Hypervisor" en niet ESXi. Zie http://www.vmware.com/nl/products/vsphere-hypervisorMdO82 schreef op donderdag 15 oktober 2015 @ 20:33:
[...]
Kan dat gewoon via my.vmware ?
Wellicht had ik het verkeerd gedaan.
Ik heb nu een evaluatie van VMware vSphere Enterprise Plus .
Zie dat het overigens 60 dagen is.
What's in a name...
Waarschijnlijk helemaal dikke prima. Ik zou er graag één willen! Staat hij op de HCL?pitchdown schreef op donderdag 15 oktober 2015 @ 17:03:
iemand die hier toevallig een HP Z820 voor virtualisatie gebruikt?
hoe zijn de ervaringen?
De mogelijke onderdelen zien er in elk geval goed uit. Natuurlijk sterk afhankelijk van wat je precies kiest. Aan welke specs zit je te denken?
[ Voor 32% gewijzigd door hans_lenze op 16-10-2015 14:05 ]
while (! ( succeed = try ()));
Even ongegeneerd spammen hier, mijn 12 maand oude ESXI machine op basis van een I3 4160 staat te koop ivm afronden project. Draait nog altijd zonder problemen;
V&A aangeboden: ESXi Thuis Server - i3-4160
V&A aangeboden: ESXi Thuis Server - i3-4160
Niet dat ik hem wil kopen maar aangezien je in het zuinige .. topic zit... Wat verbruikt ie in idle? (Nieuwsgierig)mdrop schreef op vrijdag 16 oktober 2015 @ 19:34:
Even ongegeneerd spammen hier, mijn 12 maand oude ESXI machine op basis van een I3 4160 staat te koop ivm afronden project. Draait nog altijd zonder problemen;
V&A aangeboden: ESXi Thuis Server - i3-4160
Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Zojuist eens getest met NFS v4.1 Multipathing.
Dat valt zeker niet tegen
Host met 4 * 1Gb

Guest VM op een ESXi node met 2 * 1Gb

268MB/s over 2 * 1Gb
Dat valt zeker niet tegen
Host met 4 * 1Gb

Guest VM op een ESXi node met 2 * 1Gb

268MB/s over 2 * 1Gb
[ Voor 9% gewijzigd door FireDrunk op 18-10-2015 15:12 ]
Even niets...
Ik heb eerlijk gezegd geen idee, aangezien ik geen meter heb op dit moment.renedis schreef op donderdag 15 oktober 2015 @ 15:29:
[...]
Kan jij mij vertellen wat jouw idle verbruik is en hoe veel disks je daarmee gebruikt?
[...]
Nice!FireDrunk schreef op zondag 18 oktober 2015 @ 15:10:
Zojuist eens getest met NFS v4.1 Multipathing.
Dat valt zeker niet tegen
268MB/s over 2 * 1Gb
is everything cool?
Ik heb tegenwoordig een HP Z620 met 56 GB Memory.
Uit te breiden naar 64 GB.
Wanneer je een extra cpu plaatst is uitbreiding naar 96 GB mogelijk.
Loopt als een trein :-)
Uit te breiden naar 64 GB.
Wanneer je een extra cpu plaatst is uitbreiding naar 96 GB mogelijk.
Loopt als een trein :-)
Doet je WiFi ook mee ofzo?FireDrunk schreef op zondag 18 oktober 2015 @ 15:10:
Zojuist eens getest met NFS v4.1 Multipathing.
Dat valt zeker niet tegen
Host met 4 * 1Gb
[afbeelding]
Guest VM op een ESXi node met 2 * 1Gb
[afbeelding]
268MB/s over 2 * 1Gb
Ik heb momenteel een nuc met i3 4010u processor, qua snelheid is dit voldoende. Echter loop ik tegen de limieten van het RAM geheugen aan.
Zijn er systemen die een vergelijkbaar laag stroom verbruik hebben die meer geheugen aankan? Nuc verbruikt 10watt ik wil iets hebben wat onder zeer licht gebruik maximaal 25 watt uit het stopcontact trek.
Nu kan ik er een 2de nuc naast zetten maar ook dan zal ik een keer tegen mijn limieten aanlopen gok ik.
Zijn er systemen die een vergelijkbaar laag stroom verbruik hebben die meer geheugen aankan? Nuc verbruikt 10watt ik wil iets hebben wat onder zeer licht gebruik maximaal 25 watt uit het stopcontact trek.
Nu kan ik er een 2de nuc naast zetten maar ook dan zal ik een keer tegen mijn limieten aanlopen gok ik.
Sub 20W moet vrij simpel te doen zijn met elke moderne CPU icm een PicoPSU. Moederbord is wel even goed zoeken dan. Maar het moet zeker kunnen.
Deze bijvoorbeeld gaat wel sub 20W gok ik.
pricewatch: ASRock H170M-ITX/DL
Prachtig bordje overigens
32GB RAM, 2 * Intel NIC's.. habba habba
Deze bijvoorbeeld gaat wel sub 20W gok ik.
pricewatch: ASRock H170M-ITX/DL
Prachtig bordje overigens
32GB RAM, 2 * Intel NIC's.. habba habba
[ Voor 45% gewijzigd door FireDrunk op 19-10-2015 16:56 ]
Even niets...
Ja veel standaard benchmarks gaan ruim over de 30 watt heen (zonder videokaart natuurlijk).
Ik zoek iets waar ik 4 ram sloten in heb en als ut even kan een msata of m2 aansluiting (nog zuiniger natuurlijk).
Stom vraag misschien maar waar kan ik ergens het verbruik van een moederbord vinden? In veel specssheets of benchmarks vind ik hier niets over terug.
Ik zoek iets waar ik 4 ram sloten in heb en als ut even kan een msata of m2 aansluiting (nog zuiniger natuurlijk).
Stom vraag misschien maar waar kan ik ergens het verbruik van een moederbord vinden? In veel specssheets of benchmarks vind ik hier niets over terug.
hans_lenze schreef op vrijdag 16 oktober 2015 @ 14:01:
[...]
Het gratis product heet "vSphere Hypervisor" en niet ESXi. Zie http://www.vmware.com/nl/products/vsphere-hypervisor
What's in a name...
2250 WP Zuid PVoutput
32 GB zou al mogelijk zijn :-)prekz schreef op maandag 19 oktober 2015 @ 15:55:
Ik heb momenteel een nuc met i3 4010u processor, qua snelheid is dit voldoende. Echter loop ik tegen de limieten van het RAM geheugen aan.
Zijn er systemen die een vergelijkbaar laag stroom verbruik hebben die meer geheugen aankan? Nuc verbruikt 10watt ik wil iets hebben wat onder zeer licht gebruik maximaal 25 watt uit het stopcontact trek.
Nu kan ik er een 2de nuc naast zetten maar ook dan zal ik een keer tegen mijn limieten aanlopen gok ik.
http://www.pcworld.com/ar...ou-can-finally-do-it.html
Kost wel wat denk ik 2 x 16 GB.
Graag wil ik jullie mening ten aanzien van het systeem dat ik heb samengesteld, horen.
Het systeem wil ik gaan gebruiken om kennis en ervaring op te doen met omgevingen waarmee ik in m’n dagelijks werk te maken heb. Met name betreft het dan implementaties en beheerwerkzaamheden. Primaire focus is Citrix XenApp/XenDesktop met wat daar min of meer bij hoort (StoreFront, NetScaler, PVS, MCS (i.c.m. VMware & Hyper-V). Daarnaast wil ik de machine (tijdelijk) gebruiken om zaken zoals bijv. vSAN te testen i.v.m. VMware certificeringen bijv. Tenslotte wil ik i.v.m. Microsoft certificeringen ook een volledige Hyper-V omgeving met VMM enz. kunnen draaien. Uiteraard niet allemaal tegelijkertijd. Ik ben voornemens om op de hardware ESXi te installeren en daarop een Citrix XenApp/XenDesktop implemetatie. D.m.v. nested ESXi wil ik kunnen spelen met bijv. vSAN.
Qua Hyper-V twijfel ik nog tussen dual boot naast ESXi of Hyper-V bovenop ESXi.
‘k Heb nog even getwijfeld aan een setup met 2 of 3 hosts, maar qua kosten en benodigde ruimte kies ik er bij voorkeur toch voor om alles op 1 ‘zware’ host te draaien.
De machine zal niet 7x24u draaien. Alleen als ik ‘m nodig heb (naar schatting hooguit 1 of 2 avonden per week), zal ‘ie aanstaan.
Het scherm zal voornamelijk worden gebruikt i.c.m. met m'n laptop.
Genoeg ‘gepraat’. Nu het ijzer:
Omdat ik de machine de komende jaren wil gaan gebruiken en ik graag een beetje performance wil, heb ik gekozen voor een i7 en een NVME SSD. I.v.m. nested ESXi 64GB geheugen (al is het nog erg lastig op dit moment compatible 16GB DDR4 reepjes te vinden; de hierboven genoemde staan volgens mij niet op de QVL; hier moet ik nog even verder in duiken).
Het systeem wil ik gaan gebruiken om kennis en ervaring op te doen met omgevingen waarmee ik in m’n dagelijks werk te maken heb. Met name betreft het dan implementaties en beheerwerkzaamheden. Primaire focus is Citrix XenApp/XenDesktop met wat daar min of meer bij hoort (StoreFront, NetScaler, PVS, MCS (i.c.m. VMware & Hyper-V). Daarnaast wil ik de machine (tijdelijk) gebruiken om zaken zoals bijv. vSAN te testen i.v.m. VMware certificeringen bijv. Tenslotte wil ik i.v.m. Microsoft certificeringen ook een volledige Hyper-V omgeving met VMM enz. kunnen draaien. Uiteraard niet allemaal tegelijkertijd. Ik ben voornemens om op de hardware ESXi te installeren en daarop een Citrix XenApp/XenDesktop implemetatie. D.m.v. nested ESXi wil ik kunnen spelen met bijv. vSAN.
Qua Hyper-V twijfel ik nog tussen dual boot naast ESXi of Hyper-V bovenop ESXi.
‘k Heb nog even getwijfeld aan een setup met 2 of 3 hosts, maar qua kosten en benodigde ruimte kies ik er bij voorkeur toch voor om alles op 1 ‘zware’ host te draaien.
De machine zal niet 7x24u draaien. Alleen als ik ‘m nodig heb (naar schatting hooguit 1 of 2 avonden per week), zal ‘ie aanstaan.
Het scherm zal voornamelijk worden gebruikt i.c.m. met m'n laptop.
Genoeg ‘gepraat’. Nu het ijzer:
# | Product | Prijs | Subtotaal |
1 | Intel Core i7-6700 Boxed | € 322,95 | € 322,95 |
1 | ASRock B150M Pro4 | € 84,- | € 84,- |
1 | WD Green HDD, 3TB | € 96,95 | € 96,95 |
1 | Fractal Design Arc Mini R2 | € 75,95 | € 75,95 |
1 | Dell Ultrasharp U2515H Zwart | € 306,95 | € 306,95 |
2 | Corsair Vengeance LPX CMK32GX4M2A2400C14 | € 262,50 | € 525,- |
1 | be quiet! System Power 7 300W | € 32,95 | € 32,95 |
1 | Samsung 950 Pro 512GB | € 320,50 | € 320,50 |
Bekijk collectie Importeer producten | Totaal | € 1.765,25 |
Omdat ik de machine de komende jaren wil gaan gebruiken en ik graag een beetje performance wil, heb ik gekozen voor een i7 en een NVME SSD. I.v.m. nested ESXi 64GB geheugen (al is het nog erg lastig op dit moment compatible 16GB DDR4 reepjes te vinden; de hierboven genoemde staan volgens mij niet op de QVL; hier moet ik nog even verder in duiken).
Als je dan toch voor zo'n dure SSD gaat, is de nieuwe Intel NVME PCIe SSD dan niet iets?
Verder een prima setje! Die i7 is wel zwaar overkill, HyperThreading heb je niet super veel aan onder ESXi. Je kan net zo goed een hoog geklokte i5 nemen (hoewel ik niet zeker weet of alle Skylake modellen al leverbaar zijn).
Bedenk ook dat je voor het installeren van ESXi tijdelijk een andere NIC moet hebben, of zelf een ISO moet fabriceren
Verder een prima setje! Die i7 is wel zwaar overkill, HyperThreading heb je niet super veel aan onder ESXi. Je kan net zo goed een hoog geklokte i5 nemen (hoewel ik niet zeker weet of alle Skylake modellen al leverbaar zijn).
Bedenk ook dat je voor het installeren van ESXi tijdelijk een andere NIC moet hebben, of zelf een ISO moet fabriceren
Even niets...
Met FireDrunk.
Gezien je budget kan je ook betere voeding aanschaffen zoals de Seasonic G-series 360W
Gezien je budget kan je ook betere voeding aanschaffen zoals de Seasonic G-series 360W
Grote kans dat je voor ESXi 6 geen custom ISO meer hoeft te genereren. Ik hoefde dat voor mijn Supermicro bordje (X10SL7) in ieder geval niet meer. Qua voeding sluit ik me weer aan bij Zenix (ik heb hem zelf ook).
Wat is de reden dat je hem niet 24x7 aan laat staan? Lijkt me best vervelend om de boel telkens weer op te starten en ook weer af te sluiten.
Wat is de reden dat je hem niet 24x7 aan laat staan? Lijkt me best vervelend om de boel telkens weer op te starten en ook weer af te sluiten.
[ Voor 45% gewijzigd door FREAKJAM op 20-10-2015 10:10 ]
is everything cool?
Hyperthreading is zeker wel nuttig en zorgt ervoor dat de CPU lekker druk blijft, juist in een VM omgeving waar heel veel verschillende processen lopen.FireDrunk schreef op dinsdag 20 oktober 2015 @ 09:46:
Verder een prima setje! Die i7 is wel zwaar overkill, HyperThreading heb je niet super veel aan onder ESXi. Je kan net zo goed een hoog geklokte i5 nemen (hoewel ik niet zeker weet of alle Skylake modellen al leverbaar zijn).
Meer info: https://vmxp.wordpress.co...and-does-it-benefit-esxi/
Ook VMware zelf adviseert om het aan te zetten: http://www.vmware.com/fil...-Practices-vSphere6-0.pdf (pagina 21)
Me Tarzan, U nix!
Oh het heeft zeker zin, dat bedoelde ik niet. Het heeft weinig zin bij thuisgebruikers. De kans dat hij namelijk CPU contention krijgt is vrij klein 
HT is pas het geld waard als je genoeg VM's draait dat je je CPU echt op zijn staart gaat trappen. Ik gok niet dat 5 of 10 VM's die hij gaat draaien, de CPU gaan stressen...
Dan zit je eerder aan 25> Test VM's gok ik zo.
Maar je hebt zeker gelijk, HT is zeker nuttig
Ook ben ik het eens met Zenix, de Seasonic G-360 is een betere keuze inderdaad.
HT is pas het geld waard als je genoeg VM's draait dat je je CPU echt op zijn staart gaat trappen. Ik gok niet dat 5 of 10 VM's die hij gaat draaien, de CPU gaan stressen...
Dan zit je eerder aan 25> Test VM's gok ik zo.
Maar je hebt zeker gelijk, HT is zeker nuttig
Ook ben ik het eens met Zenix, de Seasonic G-360 is een betere keuze inderdaad.
[ Voor 10% gewijzigd door FireDrunk op 20-10-2015 10:16 ]
Even niets...
Thx! Welke voordeel zou de intel NVME CPIe SSD hebben? Volgens mij is 'ie een stukje kleiner en hoger geprijsd.FireDrunk schreef op dinsdag 20 oktober 2015 @ 09:46:
Als je dan toch voor zo'n dure SSD gaat, is de nieuwe Intel NVME PCIe SSD dan niet iets?
Verder een prima setje! Die i7 is wel zwaar overkill, HyperThreading heb je niet super veel aan onder ESXi. Je kan net zo goed een hoog geklokte i5 nemen (hoewel ik niet zeker weet of alle Skylake modellen al leverbaar zijn).
Het klopt dat een i5 waarschijnlijk ook wel volstaat. Omdat ik de server echter langer ga gebruiken en af en toe ook nog wel wat ssl offloading moet gaan plaatsvinden, ben ik geneigd toch maar voor een i7 te kiezen. Het prijsverschil met een hooggeklokte i5 is dan niet zo heel groot.
Thx, neem ik mee!Zenix schreef op dinsdag 20 oktober 2015 @ 09:56:
Gezien je budget kan je ook betere voeding aanschaffen zoals de Seasonic G-series 360W
Klopt, ik zal dan ff moeten wachten voordat alles draait. Aangezien ik de machine toch niet zo heel veel gebruik, heb ik dat wachten er wel voor over. Als 'ie 7x24 zou draaien, moet ik ook veel meer gaan letten op een energiezuinige setup. Wellicht zou ik dan voor 2 of meer Mac Mini's of NUC's kiezen.FREAKJAM schreef op dinsdag 20 oktober 2015 @ 10:00:
Wat is de reden dat je hem niet 24x7 aan laat staan? Lijkt me best vervelend om de boel telkens weer op te starten en ook weer af te sluiten.
De Intel is volgens mij nog een tikje sneller dan de Samsung 
EDIT: even opgezocht, de Intel wint qua IOPS, de Samsung qua ruwe doorvoersnelheid.
Omdat het hier over ESXi gaat, zou ik zeggen, pak de Intel
EDIT: even opgezocht, de Intel wint qua IOPS, de Samsung qua ruwe doorvoersnelheid.
Omdat het hier over ESXi gaat, zou ik zeggen, pak de Intel
[ Voor 54% gewijzigd door FireDrunk op 20-10-2015 12:19 ]
Even niets...
Geheugen is zover ik weet niet onderheven aan de QVL van ESX, omdat ESX dit niet aan hoeft te sturen, alleen moet het natuurlijk compatibel zijn met je moederbord. Ik heb iniedergeval nog NOOIT problemen gehad met welk merk of type geheugen dan ook in welke esx machine dan ook (ook mixed modules, geen probleem).Cranberry schreef op maandag 19 oktober 2015 @ 23:16:
(al is het nog erg lastig op dit moment compatible 16GB DDR4 reepjes te vinden; de hierboven genoemde staan volgens mij niet op de QVL; hier moet ik nog even verder in duiken).
Klopt dat wist ik
'k Ben onvolledig geweest. Ik bedoelde dat het geheugen niet op de QVL van het bewuste moederbordje staat.
Al een tijdje aan het meelezen in dit topic en afgelopen week zelf een systeem samengesteld om als ESXi server te fungeren. Ik heb nu een HP workstation draaien met ESXi 5.5, maar die verbruikt aardig wat stroom en heeft nog een aantal andere beperkingen.
Ik zal de server gebruiken voor ik denk maximaal een tiental VM's, en zal gebruik maken van iSCSI vanaf mijn Synology 1512+ NAS voor de storage.
Daarom graag jullie mening over deze lijst!
Ik zal de server gebruiken voor ik denk maximaal een tiental VM's, en zal gebruik maken van iSCSI vanaf mijn Synology 1512+ NAS voor de storage.
Daarom graag jullie mening over deze lijst!
# | Product | Prijs | Subtotaal |
1 | Intel Core i3 i3-6100T Boxed | € 121,- | € 121,- |
1 | ASRock H170M-ITX/DL | € 98,49 | € 98,49 |
1 | Cooler Master Elite 110 | € 36,95 | € 36,95 |
1 | Kingston HyperX Fury HX421C14FBK2/16 | € 97,- | € 97,- |
1 | Seasonic M12II Evo 520W | € 62,95 | € 62,95 |
Bekijk collectie Importeer producten | Totaal | € 416,39 |
[ Voor 3% gewijzigd door Meauses op 27-10-2015 09:02 ]
Solaredge SE8K - 8830Wp - 15 x Jinko Solar N-type 420Wp - 2x Jinko Solar 405Wp - 4x Jinko Solar N-type 430 & Hoymiles HMS800 + 2x JASolar 375Wp
Ben je een sterke voorkeur voor deze voeding? 520W is nl. heel erg veel voor het door jou samengestelde systeem. Volgens mij gaat jouw systeem nooit meer dan 150W verstoken.
Nee geen sterke voorkeur, maar zag deze vaker in het topic langskomen. Ik zoek in ieder geval modulair, want veel kabels heb ik niet nodig. Maar ik kan zo snel geen modulaire rond de 200-300W vinden in de pricewatch. Dan kom je al zo gauw rond de 400-450W uit en dat maakt dan weinig verschil.Cranberry schreef op dinsdag 27 oktober 2015 @ 09:23:
Ben je een sterke voorkeur voor deze voeding? 520W is nl. heel erg veel voor het door jou samengestelde systeem. Volgens mij gaat jouw systeem nooit meer dan 150W verstoken.
Solaredge SE8K - 8830Wp - 15 x Jinko Solar N-type 420Wp - 2x Jinko Solar 405Wp - 4x Jinko Solar N-type 430 & Hoymiles HMS800 + 2x JASolar 375Wp
Neem gewoon 300W of 350/360W voeding, aangezien daar maar weinig kabels aan zitten, omdat het maar 300W is.Meauses schreef op dinsdag 27 oktober 2015 @ 09:30:
[...]
Nee geen sterke voorkeur, maar zag deze vaker in het topic langskomen. Ik zoek in ieder geval modulair, want veel kabels heb ik niet nodig. Maar ik kan zo snel geen modulaire rond de 200-300W vinden in de pricewatch. Dan kom je al zo gauw rond de 400-450W uit en dat maakt dan weinig verschil.
Ik ben eentje aan het samenstellen voor een Oracle server op ESXI
Ben er nog niet helemaal uit maar heb tot nu toe dit
Ik weet dat het een beetje een gokje is met de X99, maar ziet iemand iets waardoor het sowieso niet gaat werken?
Ben er nog niet helemaal uit maar heb tot nu toe dit
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E5-1650 v3 Boxed | € 607,05 | € 607,05 |
1 | ASRock X99 Extreme6 | € 241,- | € 241,- |
1 | Kingston ValueRAM KVR21R15D4K4/64 | € 466,50 | € 466,50 |
1 | Samsung 850 Pro 2TB | € 903,94 | € 903,94 |
Bekijk collectie Importeer producten | Totaal | € 2.218,49 |
Ik weet dat het een beetje een gokje is met de X99, maar ziet iemand iets waardoor het sowieso niet gaat werken?
Lekker op de bank
Waarom wil je een Xeon op een X99 bord? Pak dan een i7 op een X99 bord, of een Xeon op een Cxx Server bord...
Bovendien kan je Registered geheugen vergeten op een X99 bord.
Bovendien kan je Registered geheugen vergeten op een X99 bord.
[ Voor 24% gewijzigd door FireDrunk op 27-10-2015 13:01 ]
Even niets...
Vanwege mogelijkheid om te gaan naar 128GB en dan heb je dus ECC RAM nodig en daarmee dus ook meteen vast aan Xeon.
Maar als het mainboard niet handig is (waarom eigenlijk niet?) dan ga ik effe zoeken naar een Cxx Server bord, hoewel ik nog geen idee heb wat dat is
Maar als het mainboard niet handig is (waarom eigenlijk niet?) dan ga ik effe zoeken naar een Cxx Server bord, hoewel ik nog geen idee heb wat dat is
edit:
Deze support registered geheugen volgens de specs?
Deze support registered geheugen volgens de specs?
[ Voor 34% gewijzigd door ZaZ op 27-10-2015 12:35 ]
Lekker op de bank
X99 doet simpelweg gewoon geen ECC... Je kan er wel UDIMM in doen, maar de ECC functionaliteit werkt niet.
De moderne Xeon's werken ook met non-ECC geheugen volgens mij, maar waarom je dat zou willen...
Een Xeon is alleen maar leuk met ECC geheugen dat ook daadwerkelijk werkt.
En als je dan toch Socket 2011-3 neemt, kan je inderdaad beter voor Registered geheugen gaan, maar dan heb je een server chipset nodig.
EDIT:
Ok, vaag. ASRock stelt dat X99 wel RDIMM slikt mits je het met een Xeon combineert. Dat is nieuw voor mij. Ik vraag me af of het ook daadwerkelijk werkt, want volgens mij steekt Intel hier normaal gezien een stokje voor keihard in het chipset
Persoonlijk zou ik echt voor een Supermicro plankje gaan. Als je toch al voor een CPU van 600+ euro gaat, is 50 euro meer uitgeven voor een SuperMicro plankje ook wel te behappen...
Heb net ook even in het manual gekeken, ik zie verder geen caveats om RDIMM te gebruiken. Het zou dus wel kunnen
(in tegenstelling tot wat ik eerder beweerde).
De moderne Xeon's werken ook met non-ECC geheugen volgens mij, maar waarom je dat zou willen...
Een Xeon is alleen maar leuk met ECC geheugen dat ook daadwerkelijk werkt.
En als je dan toch Socket 2011-3 neemt, kan je inderdaad beter voor Registered geheugen gaan, maar dan heb je een server chipset nodig.
EDIT:
Ok, vaag. ASRock stelt dat X99 wel RDIMM slikt mits je het met een Xeon combineert. Dat is nieuw voor mij. Ik vraag me af of het ook daadwerkelijk werkt, want volgens mij steekt Intel hier normaal gezien een stokje voor keihard in het chipset
Persoonlijk zou ik echt voor een Supermicro plankje gaan. Als je toch al voor een CPU van 600+ euro gaat, is 50 euro meer uitgeven voor een SuperMicro plankje ook wel te behappen...
Heb net ook even in het manual gekeken, ik zie verder geen caveats om RDIMM te gebruiken. Het zou dus wel kunnen
[ Voor 43% gewijzigd door FireDrunk op 27-10-2015 13:01 ]
Even niets...
Ok thanks voor de info 
Dan is dit mijn lijstje denk ik:
Alleen nog effe voeding en kast uitzoeken
Dan is dit mijn lijstje denk ik:
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E5-1650 v3 Boxed | € 607,50 | € 607,50 |
1 | Supermicro X10SRL-F (Retail Pack) | € 305,25 | € 305,25 |
1 | Kingston ValueRAM KVR21R15D4K4/64 | € 466,50 | € 466,50 |
1 | Samsung 850 Pro 2TB | € 901,80 | € 901,80 |
Bekijk collectie Importeer producten | Totaal | € 2.281,05 |
Alleen nog effe voeding en kast uitzoeken
Lekker op de bank
Op basis van jullie reacties tot het volgende gekomen. Een voeding met kleinere capaciteit gekozen en met een goede energie efficiency rating. Veel lager ga ik denk ik niet uit kunnen komen, tenzij ik voor een PicoPSU ga, maar daar heb ik totaal geen ervaring me. En hiermee kan ik het systeem in de toekomst altijd nog ergens anders voor inzetten.
# | Product | Prijs | Subtotaal |
1 | Intel Core i3 i3-6100T Boxed | € 119,95 | € 119,95 |
1 | ASRock H170M-ITX/DL | € 98,49 | € 98,49 |
1 | Cooler Master Elite 110 | € 36,95 | € 36,95 |
1 | Kingston HyperX Fury HX421C14FBK2/16 | € 98,- | € 98,- |
1 | Seasonic G-series 360 watt | € 57,95 | € 57,95 |
Bekijk collectie Importeer producten | Totaal | € 411,34 |
Solaredge SE8K - 8830Wp - 15 x Jinko Solar N-type 420Wp - 2x Jinko Solar 405Wp - 4x Jinko Solar N-type 430 & Hoymiles HMS800 + 2x JASolar 375Wp
Versie 3.0 van ESXi Embedded Host Client is gereleased.
Ik gebruik dit nu ipv vSphere Center. Scheelt het draaien van een VM en ik kan nu zelfs mijn VM's managen in Linux en nog belangrijker; het is gratis
Ik gebruik dit nu ipv vSphere Center. Scheelt het draaien van een VM en ik kan nu zelfs mijn VM's managen in Linux en nog belangrijker; het is gratis
is everything cool?
@Zaz
Als ik je eerdere berichten bekijken in deze thread uit 2011 wil je de server waarschijnlijk zakelijk gaan gebruiken.
Is een Samsung 950 Pro niet een optie voor database gebruik? Kijk met name naar de 4k lees/schrijfacties. Dit model heeft een maximum van 512 GB, dus het is voor erbij.
Een goede voeding zou je systeem zuiniger kunnen maken. Daar heb je geluk, want die zijn er momenteel veel beschikbaar op dit verbruiksniveau. Een 80 plus gold of platinum kun je waarschijnlijk wel terugverdienen ten opzichte van een normale voeding. Ik zou niet teveel vermogen kiezen als er verder geen stroomslurpers aan de server hangen, ik denk dat 500-600W al ruim voldoende is, bijvoorbeeld een Cooler Master V550. Idle zal het systeem toch wel ver onder de 100W zitten (afhankelijk van het moederbord), dus op dat punt moet de voeding goed presteren.
Als ik je eerdere berichten bekijken in deze thread uit 2011 wil je de server waarschijnlijk zakelijk gaan gebruiken.
Is een Samsung 950 Pro niet een optie voor database gebruik? Kijk met name naar de 4k lees/schrijfacties. Dit model heeft een maximum van 512 GB, dus het is voor erbij.
Een goede voeding zou je systeem zuiniger kunnen maken. Daar heb je geluk, want die zijn er momenteel veel beschikbaar op dit verbruiksniveau. Een 80 plus gold of platinum kun je waarschijnlijk wel terugverdienen ten opzichte van een normale voeding. Ik zou niet teveel vermogen kiezen als er verder geen stroomslurpers aan de server hangen, ik denk dat 500-600W al ruim voldoende is, bijvoorbeeld een Cooler Master V550. Idle zal het systeem toch wel ver onder de 100W zitten (afhankelijk van het moederbord), dus op dat punt moet de voeding goed presteren.
Die uit 2011 zit inmiddels wel tegen zijn plafond, tijd voor wat nieuws dus. Er gaat in eerste instantie alleen 1 Oracle op draaien die redelijk wat storage nodig heeft.
De Samsung 950 Pro had ik ook al langs zien komen, maar met 1 machine is dat dus niet praktisch.
Het is een database voor intern gebruik, dus hij krijgt geen honderden requests tegelijk. Wanneer er wat grotere varianten komen prik ik er misschien eentje bij en migreer ik de boel.
Voor de kast heb ik deze uitgekozen. Zit een 80 plus gold voeding bij, dus zou goed moeten zijn zo.
Ik ga 'm morgenochtend maar bestellen denk ik en dan zien we wel waar het schip strandt.
De Samsung 950 Pro had ik ook al langs zien komen, maar met 1 machine is dat dus niet praktisch.
Het is een database voor intern gebruik, dus hij krijgt geen honderden requests tegelijk. Wanneer er wat grotere varianten komen prik ik er misschien eentje bij en migreer ik de boel.
Voor de kast heb ik deze uitgekozen. Zit een 80 plus gold voeding bij, dus zou goed moeten zijn zo.
Ik ga 'm morgenochtend maar bestellen denk ik en dan zien we wel waar het schip strandt.
Lekker op de bank
Tof ding! Werkt lekker snel ook! Helaas nog wat bugjes maar dat mag de pret niet drukken.FREAKJAM schreef op dinsdag 27 oktober 2015 @ 15:30:
Versie 3.0 van ESXi Embedded Host Client is gereleased.
Ik gebruik dit nu ipv vSphere Center. Scheelt het draaien van een VM en ik kan nu zelfs mijn VM's managen in Linux en nog belangrijker; het is gratis
Je kan overigens toch gewoon de officiele vCenter Web interface gebruiken onder Linux? Doe ik al tijden...
Even niets...
Klopt, maar dan moet je wel vSphere draaien en nu hoeft dat niet meer
is everything cool?
wat is het verschil tussen de vsphere client en deze esxi host client: als ik zo de introductie pagina lees niet veel? Maar wellicht zie ik iets over het hoofd?
De ESXi host client is een simpel vib bestand van 2.4mb welke je op je ESXi host installeert en deze is gratis. vSphere Center is niet gratis en hiervoor moet je een VM appliance installeren. De ESXi host client is handig voor als je geen vSphere client tot je beschikking hebt (net als ik, omdat ik Arch Linux draai).
is everything cool?
Klinkt goed!FREAKJAM schreef op dinsdag 27 oktober 2015 @ 19:50:
De ESXi host client is een simpel vib bestand van 2.4mb welke je op je ESXi host installeert en deze is gratis. vSphere Center is niet gratis en hiervoor moet je een VM appliance installeren. De ESXi host client is handig voor als je geen vSphere client tot je beschikking hebt (net als ik, omdat ik Arch Linux draai).
Hoe feature-compleet is het? Kun je er alles mee wat je ook met de vSphere Client kunt, of valt dat tegen?
EDIT:
Ah, kut. Nog steeds onbruikbaar voor ons zonder vCenter dus.On ESXi hosts which are assigned a VMware vSphere Hypervisor license, all modification operations will fail silently. We are working on a solution to this issue.
[ Voor 18% gewijzigd door Compizfox op 27-10-2015 22:45 ]
Gewoon een heel grote verzameling snoertjes
Ik gebruik hier op het werk esxi5.1 met vsphere.FREAKJAM schreef op dinsdag 27 oktober 2015 @ 19:50:
De ESXi host client is een simpel vib bestand van 2.4mb welke je op je ESXi host installeert en deze is gratis. vSphere Center is niet gratis en hiervoor moet je een VM appliance installeren. De ESXi host client is handig voor als je geen vSphere client tot je beschikking hebt (net als ik, omdat ik Arch Linux draai).
Ik dacht dat bij esxi6 een focus lag op de webclient. Dus ik ging ervanuit dat elke single esxi6 machine standaard een webserver had draaien ?
Met de native vsphere client kan je ook een stand alone esxi beheren.
Ben ik nu verkeerd ?
Ik kom er niet helemaal uit.. Ik lees op veel plekken dat NFS in samenwerking met ZFS, en dan voornamelijk het terugdelen naar ESXi langzaam is, maar zo langzaam als het bij mij is... Reden dat ik alles in 1 pc heb gehangen is om zo zuinig en relatief goedkoop te blijven.
Gaat om de volgende build:
Ik heb hierop op het moment 2 VM's.
- Freenas 9.3 - 1 core, 12GB ram
- Ubuntu 14.04 2 cores, 2GB ram
Ik geef de complete HBA door naar Freenas. Hier heb ik vervolgens een RAIDZ pool aangemaakt van de 3 schijven. Deze pool deelt Freenas vervolgens via NFS terug naar ESXi, waar voor de ubuntu-bak dan weer een (thin provisioned) vmdk op staat.
Op Ubuntu draait onder andere Sabnzbd, hier haal ik echter verre van m'n maximale downloadsnelheid. Theoretisch zou die rond de 15MB/s moeten liggen, en haal ik in de praktijk normaal 11. Op deze build komt ie echter niet boven de 6 uit, en ligt 'ie nog vaker onder de 1MB/s. Ik heb zelfs al geprobeerd om een hele nieuwe VM neer te zetten en hier een kale versie van Ubuntu (Server in dit geval) neer te zetten, maar ook daar de enorme drops in snelheid.
Speedtest gedraaid, hier komt gemiddeld ±110Mb/s uit, 13,75MB/s dus.
Wat ik zelf het raarste vind is dat de snelheid als ik naar SSD download ook niet omhoog gaat. Dit doet me toch het netwerk verdenken, terwijl als ik op de bewuste VM een 1000mb.bin binnentrek ik de 14MB/s aantik.
Iemand nog suggesties?
Gaat om de volgende build:
# | Product | Prijs | Subtotaal |
1 | AMD FX-6300 Black Edition | € 104,- | € 104,- |
1 | Asus M5A97 R2.0 | € 84,95 | € 84,95 |
3 | Samsung HD204UI, 2TB | € 0,- | € 0,- |
2 | Kingston KVR16LE11/8 | € 59,- | € 118,- |
1 | Sandisk ReadyCache Solid State Drive 32GB | € 34,- | € 34,- |
Bekijk collectie Importeer producten | Totaal | € 340,95 |
Ik heb hierop op het moment 2 VM's.
- Freenas 9.3 - 1 core, 12GB ram
- Ubuntu 14.04 2 cores, 2GB ram
Ik geef de complete HBA door naar Freenas. Hier heb ik vervolgens een RAIDZ pool aangemaakt van de 3 schijven. Deze pool deelt Freenas vervolgens via NFS terug naar ESXi, waar voor de ubuntu-bak dan weer een (thin provisioned) vmdk op staat.
Op Ubuntu draait onder andere Sabnzbd, hier haal ik echter verre van m'n maximale downloadsnelheid. Theoretisch zou die rond de 15MB/s moeten liggen, en haal ik in de praktijk normaal 11. Op deze build komt ie echter niet boven de 6 uit, en ligt 'ie nog vaker onder de 1MB/s. Ik heb zelfs al geprobeerd om een hele nieuwe VM neer te zetten en hier een kale versie van Ubuntu (Server in dit geval) neer te zetten, maar ook daar de enorme drops in snelheid.
Speedtest gedraaid, hier komt gemiddeld ±110Mb/s uit, 13,75MB/s dus.
Wat ik zelf het raarste vind is dat de snelheid als ik naar SSD download ook niet omhoog gaat. Dit doet me toch het netwerk verdenken, terwijl als ik op de bewuste VM een 1000mb.bin binnentrek ik de 14MB/s aantik.
Iemand nog suggesties?
Welke versie van ESXi heb je?
Even niets...
Ik draai 6.0.. Ik zal eens kijken of ik ergens nog een USB-stickje heb, en daar 5.5 op zetten.
Ik heb trouwens de onboard NIC als eerste geprobeerd, daarna van een vriend een esxi-ondersteunde Dual NIC kaart van HP gebruikt. De drivers voor de onboard Realtek zitten echter nog wel in m'n installatie, maar dat is geen probleem lijkt me?
Ik heb trouwens de onboard NIC als eerste geprobeerd, daarna van een vriend een esxi-ondersteunde Dual NIC kaart van HP gebruikt. De drivers voor de onboard Realtek zitten echter nog wel in m'n installatie, maar dat is geen probleem lijkt me?
nieuws: Zotac komt met twee nieuwe Zbox-mini-pc's
Dual LAN
Intel Celeron N3150 quad-core 1.6 GHz (TurboBoost up to 2.08 GHz)
2 x DDR3L-1600 slots (up to 8GB)
1 x 2.5" SATA HDD/SSD bay
2 x 10/100/1000Mbps (merk & type kan ik zo niet vinden)
802.11ac + Bluetooth 4.0
Volgens mij kun je nog steeds beter een NUC pakken. Een Celeron is wel karig.
Dual LAN
Intel Celeron N3150 quad-core 1.6 GHz (TurboBoost up to 2.08 GHz)
2 x DDR3L-1600 slots (up to 8GB)
1 x 2.5" SATA HDD/SSD bay
2 x 10/100/1000Mbps (merk & type kan ik zo niet vinden)
802.11ac + Bluetooth 4.0
Volgens mij kun je nog steeds beter een NUC pakken. Een Celeron is wel karig.
[ Voor 62% gewijzigd door ThinkPad op 28-10-2015 13:00 ]
Enig idee of die ook gaan werken met esxi?
Probeer eens NFS 4.1endness schreef op woensdag 28 oktober 2015 @ 09:13:
Ik draai 6.0.. Ik zal eens kijken of ik ergens nog een USB-stickje heb, en daar 5.5 op zetten.
Ik heb trouwens de onboard NIC als eerste geprobeerd, daarna van een vriend een esxi-ondersteunde Dual NIC kaart van HP gebruikt. De drivers voor de onboard Realtek zitten echter nog wel in m'n installatie, maar dat is geen probleem lijkt me?
Even niets...
Het rare is dus dat ik zelfs als ik geen datastore via NFS koppel, en gewoon alleen de ssd waar de VM op staat gebruik, de snelheid beneden peil is. Ik ben ondertussen bezig om een VM met Ubuntu 15.10 op te zetten, even kijken of dat soelaas biedt..
Keer een secure erase van de SSD doen? Is ie weer lekker fris en fruitig
Even niets...
Alleen heb je dan weer geen twee netwerkkaarten, al zijn daar ook wel wat hobby oplossingen voor geloof ik.ThinkPadd schreef op woensdag 28 oktober 2015 @ 12:51:
...
Volgens mij kun je nog steeds beter een NUC pakken. Een Celeron is wel karig.
Voor mijn gebruik zou een quad core celeron niet zo'n issue zijn. Ik zou eerder aan lopen tegen de max 8gb geheugen, zou zo'n ding nou echt geen 16gb slikken?
[ Voor 8% gewijzigd door Duskwither op 28-10-2015 14:58 ]
Ik zie daar toch "VT-x" staan ondersteund. Zou wel mooi zijn en goedkoop :-).
NUC's doen toch prima 16GB? Zou niet weten waarom niet?
Leuk aan nieuwe Skylake platform: DDR4 gaat (nu) tot 16GB per module. Je kan dus op een ITX plankje met maar 2 DIMM sloten, toch 32GB per plankje kwijt.
2 ITX bakjes in een clustertje levert je dus al 64GB geheugen op
Leuk aan nieuwe Skylake platform: DDR4 gaat (nu) tot 16GB per module. Je kan dus op een ITX plankje met maar 2 DIMM sloten, toch 32GB per plankje kwijt.
2 ITX bakjes in een clustertje levert je dus al 64GB geheugen op
Even niets...
Een beetje duur nog die 16gb latjes (350 euro p/s las ik hierboven), maar wel lekker inderdaad.
Ik bedoelde meer of alle hardware van die zotac versies wel compatibel zijn met esxi. Die nic is in ieder geval niet dezelfde als die in een nuc zit.Yarisken schreef op woensdag 28 oktober 2015 @ 15:04:
[...]
Ik zie daar toch "VT-x" staan ondersteund. Zou wel mooi zijn en goedkoop :-).
Dat valt gelukkig mee. Voor plm €250 heb je al een kit van 2x 16GB DDRrachez schreef op woensdag 28 oktober 2015 @ 15:35:
Een beetje duur nog die 16gb latjes (350 euro p/s las ik hierboven), maar wel lekker inderdaad.
Klinkt goed, welke zijn dat? De nuc's hebben ook low voltage latjes nodig, maar die kan ik zo niet terugvinden in de pricewatch.
'k Heb gewoon ff gezocht in de pricewatch op DDR4 modules van 16GB. DDR4 is volgens mij per definitief low voltage.
Enige uitdaging is het vinden van een leverbare module die ondersteund wordt door de fabrikant van het MB.
Enige uitdaging is het vinden van een leverbare module die ondersteund wordt door de fabrikant van het MB.
Tegenwoordig heef Crucial ook redelijk betaalbare ddr3 geheugen.
https://www.virten.net/20...tel-nuc-with-32gb-memory/
Plusminus 180 euro ten opzichte van de modules die nu op de markt zijn a 350 euro.
https://www.virten.net/20...tel-nuc-with-32gb-memory/
Plusminus 180 euro ten opzichte van de modules die nu op de markt zijn a 350 euro.
thx prekz, die zijn al een stuk betaalbaarder inderdaad. Binnenkort maar eens upgraden dan...
[ Voor 26% gewijzigd door rachez op 28-10-2015 18:39 ]
*knip* Daar is de V&A voor.ZaZ schreef op dinsdag 27 oktober 2015 @ 16:41:
Die uit 2011 zit inmiddels wel tegen zijn plafond, tijd voor wat nieuws dus. Er gaat in eerste instantie alleen 1 Oracle op draaien die redelijk wat storage nodig heeft.
De Samsung 950 Pro had ik ook al langs zien komen, maar met 1 machine is dat dus niet praktisch.
Het is een database voor intern gebruik, dus hij krijgt geen honderden requests tegelijk. Wanneer er wat grotere varianten komen prik ik er misschien eentje bij en migreer ik de boel.
Voor de kast heb ik deze uitgekozen. Zit een 80 plus gold voeding bij, dus zou goed moeten zijn zo.
Ik ga 'm morgenochtend maar bestellen denk ik en dan zien we wel waar het schip strandt.
Beide SuperMicro's zijn identiek op de voeding na vergeleken met jouw aangewezen kast. Koop een losse voeding en je bent toch een stuk goedkoper uit
[ Voor 12% gewijzigd door br00ky op 21-11-2015 21:03 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
Mooie prijs, maar te laat.renedis schreef op donderdag 29 oktober 2015 @ 10:51:
[...]
Wil er geen verkoop topic van maken maar ik heb nog 2 1U behuizingen liggen die voor een prikkie wegmogen
Beide SuperMicro's zijn identiek op de voeding na vergeleken met jouw aangewezen kast. Koop een losse voeding en je bent toch een stuk goedkoper uit
Lekker op de bank
Verwijderd
Matched: esxi
Ik overweeg een esxi server te kopen, waar ik freenas (12G ram) op wil draaien (3x 4T later uit te breiden naar max 6x 4T schijven). Daarnaast draait er een online backup systeem op (8G ram), een ipfire firewall (4G) en een of twee test systemen (2x8G).
De bedoeling is dat het geheel energie zuinig moet zijn
Mijn huidige i5-4570 "server" (helaas zonder ecc geheugen, is dus eigenlijk een gewone pc) draait met een pico psu en 3x4T (en een ssd) schijven trekt 35-40W uit het stopcontact (helaas komen de schijven nooit tot rust door het online backup programma).
Nu overweeg ik een supermicro moederboard (X10SRH-CLN4F), 64G ddr4 crucial ecc ram en een xeon e5-2630 v3 met een seasonic g-360 voeding. Heeft iemand ervaring hoeveel stroom een dergelijk systeem verbruikt tijdens lage belasting en hoge belasting?
Is de processor de juiste? Of heeft het zin dat ik de L versie van dit type kies? Ik las ergens op Tweakers dat de L versies niet interessant zijn, omdat deze processoren alleen gelimiteerd zijn in performance om de warmte en piek stroom te beperken, waardoor ze langer tijd nodig hebben om hun werk te doen in vergelijking met een gewone versie... Is dat hier van toepassing?
Mochten jullie andere ideeen hebben (zuiniger/goedkoper?) dan hoor ik die graag.
Eisen:
- De genoemde VM's
- ECC (64G)
- minstens 7 sata aansluitingen
- twee sata controllers? (een geef ik er door aan freenas, en esxi heeft er een nodig om freenas op te zetten...) Toch?
Dank voor jullie opmerkingen.
-edit: typo's
De bedoeling is dat het geheel energie zuinig moet zijn
Mijn huidige i5-4570 "server" (helaas zonder ecc geheugen, is dus eigenlijk een gewone pc) draait met een pico psu en 3x4T (en een ssd) schijven trekt 35-40W uit het stopcontact (helaas komen de schijven nooit tot rust door het online backup programma).
Nu overweeg ik een supermicro moederboard (X10SRH-CLN4F), 64G ddr4 crucial ecc ram en een xeon e5-2630 v3 met een seasonic g-360 voeding. Heeft iemand ervaring hoeveel stroom een dergelijk systeem verbruikt tijdens lage belasting en hoge belasting?
Is de processor de juiste? Of heeft het zin dat ik de L versie van dit type kies? Ik las ergens op Tweakers dat de L versies niet interessant zijn, omdat deze processoren alleen gelimiteerd zijn in performance om de warmte en piek stroom te beperken, waardoor ze langer tijd nodig hebben om hun werk te doen in vergelijking met een gewone versie... Is dat hier van toepassing?
Mochten jullie andere ideeen hebben (zuiniger/goedkoper?) dan hoor ik die graag.
Eisen:
- De genoemde VM's
- ECC (64G)
- minstens 7 sata aansluitingen
- twee sata controllers? (een geef ik er door aan freenas, en esxi heeft er een nodig om freenas op te zetten...) Toch?
Dank voor jullie opmerkingen.
-edit: typo's
Geen ervaring, wel een educated guess naar mate van andere verhalen:
Je zit (gokje) rond de 50-70W idle verbruik van alleen moederbord, cpu en geheugen. Het is nou eenmaal een server plank, en socket 2011-3 is gewoon een stukje onzuiniger dan 1150/1151.
Een -L versie is hetzelfde als een -T versie. Het gaat om maximaal TDP, niet om idle verbruik. Precies wat je overal leest dus.
De nieuwe Skylake CPU's slikken ook 16GB DDR4 geheugenlatjes, dus je kan ook in een veel simpeler systeem 64GB geheugen kwijt. Alleen heb je dan nog steeds geen ECC.
Die tweede sata controller zou ik dan gewoon los kopen.
Je zit (gokje) rond de 50-70W idle verbruik van alleen moederbord, cpu en geheugen. Het is nou eenmaal een server plank, en socket 2011-3 is gewoon een stukje onzuiniger dan 1150/1151.
Een -L versie is hetzelfde als een -T versie. Het gaat om maximaal TDP, niet om idle verbruik. Precies wat je overal leest dus.
De nieuwe Skylake CPU's slikken ook 16GB DDR4 geheugenlatjes, dus je kan ook in een veel simpeler systeem 64GB geheugen kwijt. Alleen heb je dan nog steeds geen ECC.
Die tweede sata controller zou ik dan gewoon los kopen.
Even niets...
wat voor online backup software maak je gebruik van als ik vragen mag?
Verwijderd
Geen matches
Ik gebruik software van AHSay.Willem_H schreef op donderdag 29 oktober 2015 @ 15:31:
wat voor online backup software maak je gebruik van als ik vragen mag?
Xeon E3 v5 heeft en tot 64GB ECC en laag verbruik, maar dan zit je natuurlijk weer met minder cores en PCI-E lanes dan E5.FireDrunk schreef op donderdag 29 oktober 2015 @ 13:54:
De nieuwe Skylake CPU's slikken ook 16GB DDR4 geheugenlatjes, dus je kan ook in een veel simpeler systeem 64GB geheugen kwijt. Alleen heb je dan nog steeds geen ECC.
Te Koop:24 Core Intel Upgradeset
Voor de mensen die nog NAKIVO Backup & Replication gebruiken hier vind je de nieuwe NFR versie (v5.8)
The new version can be installed directly onto a Western Digital My Cloud DL NAS series, thus creating a simple, fast, and affordable VM backup appliance, which can be used both onsite and offsite.
The new version can be installed directly onto a Western Digital My Cloud DL NAS series, thus creating a simple, fast, and affordable VM backup appliance, which can be used both onsite and offsite.
- Deze advertentie is geblokkeerd door Pi-Hole -
Voor de mensen die een NUC willen, dit is mijn ESXi bakkie en draai er probleemloos 7 VM's op. Voor storage heb ik iSCSI target naar mijn NAS. Nadeel blijft toch wel de max van 16GB en twijfel al een tijdje om iets anders te gaan bouwen.
# | Product | Prijs | Subtotaal |
1 | Kingston DataTraveler Special Edition 9 8GB Grijs | € 3,55 | € 3,55 |
1 | Intel NUC Kit NUC5i5RYH | € 359,95 | € 359,95 |
2 | Crucial CT102464BF160B | € 37,95 | € 75,90 |
1 | Samsung 850 EVO M.2 120GB | € 74,13 | € 74,13 |
Bekijk collectie Importeer producten | Totaal | € 513,53 |
www.simraceblog.nl - Over 5 Years of Simracing News & Reviews!
Ik geloof dat de NUC energiezuinig is maar heb je ook cijfers in verbruik icm je nas?Madhouse1979 schreef op vrijdag 30 oktober 2015 @ 22:37:
Voor de mensen die een NUC willen, dit is mijn ESXi bakkie en draai er probleemloos 7 VM's op. Voor storage heb ik iSCSI target naar mijn NAS. Nadeel blijft toch wel de max van 16GB en twijfel al een tijdje om iets anders te gaan bouwen.
# Product Prijs Subtotaal 1 Kingston DataTraveler Special Edition 9 8GB Grijs € 3,55 € 3,55 1 Intel NUC Kit NUC5i5RYH € 359,95 € 359,95 2 Crucial CT102464BF160B € 37,95 € 75,90 1 Samsung 850 EVO M.2 120GB € 74,13 € 74,13 Bekijk collectie
Importeer productenTotaal € 513,53
Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Nee ik heb helaas geen cijfers. Hoe zou je dat fatsoenlijk kunnen meten dan?
Wel heb ik inmiddels een 500GB SSD in mijn NUC er bij zitten en ga daar mijn VM's naar toe verplaatsen en vanaf laten draaien en dan scheduled backupen (moet nog ff kijken met welke tool) naar een iSCSI target of NFS share. Volgens mij zou dit nog zuiniger moeten werken daar je alleen de NUC nog 24/7 actief hebt.
Wel heb ik inmiddels een 500GB SSD in mijn NUC er bij zitten en ga daar mijn VM's naar toe verplaatsen en vanaf laten draaien en dan scheduled backupen (moet nog ff kijken met welke tool) naar een iSCSI target of NFS share. Volgens mij zou dit nog zuiniger moeten werken daar je alleen de NUC nog 24/7 actief hebt.
[ Voor 69% gewijzigd door Madhouse1979 op 31-10-2015 07:56 ]
www.simraceblog.nl - Over 5 Years of Simracing News & Reviews!
Ik probeer het nu met een fibaro wallplug die het verbruik doorzet naar Domoticz.Madhouse1979 schreef op zaterdag 31 oktober 2015 @ 07:00:
Nee ik heb helaas geen cijfers. Hoe zou je dat fatsoenlijk kunnen meten dan?
Wel heb ik inmiddels een 500GB SSD in mijn NUC er bij zitten en ga daar mijn VM's naar toe verplaatsen en vanaf laten draaien en dan scheduled backupen (moet nog ff kijken met welke tool) naar een iSCSI target of NFS share. Volgens mij zou dit nog zuiniger moeten werken daar je alleen de NUC nog 24/7 actief hebt.
Ik ben om die zelfde reden mijn Nas aan het uitfaseren want die is mij iets te gulzig voor wat er voor terug komt.
VMware doet nu 35watt in idle nu er 2x 2tb usb schijven aanhangen, aeon zwave stick, rfxcom en USB stick om te booten. Verdere specs staan een paar pagina's terug (gaat lastig op smartphone) maar het is al minder als de 60watt van de Synology.
Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Is er hier al iemand die een esx installatie op basis van de Intel Xeon-D processor heeft draaien?
Ben erg benieuwd naar die processor i.vm. het verbruik (Hoewel de aanschafprijs aan de hoge kant is).
Ben erg benieuwd naar die processor i.vm. het verbruik (Hoewel de aanschafprijs aan de hoge kant is).
Het grootste deel van mijn nieuwe build ondertussen al binnen en gemonteerd. Het enige dat nog ontbreekt is de cpu en daar heb ik jullie hulp bij nodig.
In mijn selectie had ik een Core i3 6100T (S1151) gekozen als 35W TDP dual core. Nu blijkt deze beperkt beschikbaar en zag ik ook dat er Core i5 cpu's waren met 35W TDP. Dus nu twijfel ik, en zat zelfs te denken aan een Pentium gezien het feit dat deze weer een stuk goedkoper zijn.
Wat kunnen jullie mij aanraden? Ik schat in dat ik zo'n 10/15 VM's zal draaien op mijn ESXi server, en in principe weinig wat echt zwaar belastend zal zijn.
In mijn selectie had ik een Core i3 6100T (S1151) gekozen als 35W TDP dual core. Nu blijkt deze beperkt beschikbaar en zag ik ook dat er Core i5 cpu's waren met 35W TDP. Dus nu twijfel ik, en zat zelfs te denken aan een Pentium gezien het feit dat deze weer een stuk goedkoper zijn.
Wat kunnen jullie mij aanraden? Ik schat in dat ik zo'n 10/15 VM's zal draaien op mijn ESXi server, en in principe weinig wat echt zwaar belastend zal zijn.
Solaredge SE8K - 8830Wp - 15 x Jinko Solar N-type 420Wp - 2x Jinko Solar 405Wp - 4x Jinko Solar N-type 430 & Hoymiles HMS800 + 2x JASolar 375Wp
Wel een hogere performance per core. Dus het is afhankelijk van de workload wat een handigere keuze is. Ik ga zelf ook het liefst voor de Xeon D 1540, maar dat feestje is wel een heeeel stuk duurder. Er is ook nog een 1520 maar die heeft voor mij geen toegevoegse waarde tov de Xeon E3 V5|sWORDs| schreef op donderdag 29 oktober 2015 @ 17:30:
[...]
Xeon E3 v5 heeft en tot 64GB ECC en laag verbruik, maar dan zit je natuurlijk weer met minder cores en PCI-E lanes dan E5.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Bij mij doet een NUC DC3217IYE (deze: pricewatch: Intel NUC Kit (Core i3 3217U) 14W idle met ESXi 6. Opslag is een 80GB mSATA. Mijn Synology DS715 met 2x WD Green in RAID1 doet 18W idle (schijven draaiend, geen/weinig activiteit).stuffer schreef op zaterdag 31 oktober 2015 @ 00:00:
[...]
Ik geloof dat de NUC energiezuinig is maar heb je ook cijfers in verbruik icm je nas?
Samen dus 32W idle. Ook gemeten met een Z-Wave plug.
[ Voor 6% gewijzigd door ThinkPad op 03-11-2015 07:21 ]
Neem anders gewone versie, zo'n T is alleen lager geklokt, qua verbruik merk je geen verschil, tenzij die alleen maar op 100% aan het draaien isMeauses schreef op dinsdag 03 november 2015 @ 05:51:
Het grootste deel van mijn nieuwe build ondertussen al binnen en gemonteerd. Het enige dat nog ontbreekt is de cpu en daar heb ik jullie hulp bij nodig.
In mijn selectie had ik een Core i3 6100T (S1151) gekozen als 35W TDP dual core. Nu blijkt deze beperkt beschikbaar en zag ik ook dat er Core i5 cpu's waren met 35W TDP. Dus nu twijfel ik, en zat zelfs te denken aan een Pentium gezien het feit dat deze weer een stuk goedkoper zijn.
Wat kunnen jullie mij aanraden? Ik schat in dat ik zo'n 10/15 VM's zal draaien op mijn ESXi server, en in principe weinig wat echt zwaar belastend zal zijn.
[ Voor 10% gewijzigd door Zenix op 03-11-2015 11:08 ]
32w samen voor VMware en storage is netjes. Mijn DS412+ gaat niet meer in hibernation en verbruikt daardoor altijd 50+watt helaas. Nu net alles aan het omzetten naar xpenology in VMware (makkelijk migreren) zarafa op ubuntu, domoticz op ubuntu en nog 2 testsytemen en een downloadmachine.ThinkPadd schreef op dinsdag 03 november 2015 @ 07:20:
[...]
Bij mij doet een NUC DC3217IYE (deze: pricewatch: Intel NUC Kit (Core i3 3217U) 14W idle met ESXi 6. Opslag is een 80GB mSATA. Mijn Synology DS715 met 2x WD Green in RAID1 doet 18W idle (schijven draaiend, geen/weinig activiteit).
Samen dus 32W idle. Ook gemeten met een Z-Wave plug.
Alles samen nu op 35 watt in idle dus ongeveer ongeveer het zelfde als jou NUC en storage.
Mijn doel van deze setup is om meer vm machines te kunnen draaien maar niet om het totaal verbruik te verhogen. Tot nu toe gelukt:-)
Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Ik heb het spul nu niet aan elkaar gekoppeld hoor (NFS / iSCSI), ik heb geen idee hoe de performance dus is.stuffer schreef op dinsdag 03 november 2015 @ 12:49:
[...]
32w samen voor VMware en storage is netjes.
[...]
Dat de NAS niet meer in spindown ging was ook een reden om de NUC neer te zetten. Sommige zaken hebben amper performance en/of I/O nodig, maar zorgden er wel voor dat de schijven 24/7 bleven draaien. Nu dus een NUC met SSDtje erin.
[ Voor 29% gewijzigd door ThinkPad op 03-11-2015 12:54 ]
Ik gebruik zelf Veeam. Je kunt al redelijk uit de voeten met de gratis variant:Madhouse1979 schreef op zaterdag 31 oktober 2015 @ 07:00:
Nee ik heb helaas geen cijfers. Hoe zou je dat fatsoenlijk kunnen meten dan?
Wel heb ik inmiddels een 500GB SSD in mijn NUC er bij zitten en ga daar mijn VM's naar toe verplaatsen en vanaf laten draaien en dan scheduled backupen (moet nog ff kijken met welke tool) naar een iSCSI target of NFS share. Volgens mij zou dit nog zuiniger moeten werken daar je alleen de NUC nog 24/7 actief hebt.
[ Voor 14% gewijzigd door Tasminos op 03-11-2015 16:39 ]
Zijn er hier mensen die mij een redelijke kant en klare en vooral een zuinige esxi server kunnen aanbevelen?
Ik kwam tijdens mijn zoektocht al de mac mini tegen als esxi server.., maar geen flauw idee of dit iets is.
Ik kwam tijdens mijn zoektocht al de mac mini tegen als esxi server.., maar geen flauw idee of dit iets is.
Wat wil je gaan virtualiseren? Hoeveel en wat voor VM's wil je gaan draaien? Hoeveel power (CPU) heb je nodig denk je? Iets meer info zou wel handig zijn.
is everything cool?
Je hebt gelijk.
Ik heb nu twee Ubuntu server vm's draaien. 1 met Plex Media Server en 1 met Subsonic. Ruimte voor wat extra vm's is natuurlijk nooit weg. Plex Media Server vraagt natuurlijk wel aardig wat cpu power. Dit draait op een e3-1275v3. Deze machine staat het grootste deel van de dag idle maar verbruikt wel aardig wat stroom. Ik vroeg mij af of dit zuiniger kan.
Edit: Die vm's draaien in proxmox. Ik wil mij dus gaan verdiepen in esxi.
Ik heb nu twee Ubuntu server vm's draaien. 1 met Plex Media Server en 1 met Subsonic. Ruimte voor wat extra vm's is natuurlijk nooit weg. Plex Media Server vraagt natuurlijk wel aardig wat cpu power. Dit draait op een e3-1275v3. Deze machine staat het grootste deel van de dag idle maar verbruikt wel aardig wat stroom. Ik vroeg mij af of dit zuiniger kan.
Edit: Die vm's draaien in proxmox. Ik wil mij dus gaan verdiepen in esxi.
[ Voor 9% gewijzigd door MvL op 03-11-2015 18:34 ]
Die heb ik inmiddels draaien en dat ziet er goed uit. Alleen scheduled backuppen kan niet met Veeam, of ik moet iets gemist hebben?Diamond AT schreef op dinsdag 03 november 2015 @ 16:37:
[...]
Ik gebruik zelf Veeam. Je kunt al redelijk uit de voeten met de gratis variant:
[ Voor 10% gewijzigd door Madhouse1979 op 03-11-2015 20:18 ]
www.simraceblog.nl - Over 5 Years of Simracing News & Reviews!
@MvL
Wat is het idle verbruik en welke hardware heb je?
De settings zijn belangrijk, de schijven kun je laten downspinnen, het verbruik kan misschien omlaag met een zuinigere voeding, minder fans of een beter koelbare behuizing.
De E3-1275v3 is een zuinige en nog up to date processor. Skylake c.s. moederborden zijn voor zover nu bekend niet echt zuiniger, Haswell c.s. moederborden kunnen eerder nog een stuk zuiniger zijn door het ontwerp van de moederborden, ondanks dat het Skylake cpu ontwerp wel zuiniger is. Skylake moederborden zijn ook nog eens flink duurder en voor features wordt veel geld gevraagd (veel teveel naar mijn idee).
Wat is het idle verbruik en welke hardware heb je?
De settings zijn belangrijk, de schijven kun je laten downspinnen, het verbruik kan misschien omlaag met een zuinigere voeding, minder fans of een beter koelbare behuizing.
De E3-1275v3 is een zuinige en nog up to date processor. Skylake c.s. moederborden zijn voor zover nu bekend niet echt zuiniger, Haswell c.s. moederborden kunnen eerder nog een stuk zuiniger zijn door het ontwerp van de moederborden, ondanks dat het Skylake cpu ontwerp wel zuiniger is. Skylake moederborden zijn ook nog eens flink duurder en voor features wordt veel geld gevraagd (veel teveel naar mijn idee).
Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.