Die disks ga je niet makkelijk op een RAID controller aan kunnen sluiten. De USB-SATA bridge zit in de HD zelf geintegreerd. Het wordt flink priegelen om hier een SATA kabel aan te maken, en op een backplane aansluiten gaat al helemaal niet happenen.mrmrmr schreef op zaterdag 14 juli 2018 @ 11:36:
4 disks kosten momenteel € 104 per stuk bij Amazon.
de voeding is een 2x 360watt redundant voeding van supermicro zelf deze is 1 geheel met de kast
Het is idd mijn bedoeling om geleidelijk aan te moderniseren naar minimaal een even krachtig en zuinig systeem.
op de areca heb ik alle schijvenin pass through modus staan waardoor alle schijven rechtstreeks door gegeven worden
op een later tijdstip wil ik idd de schijven nog vervangen voor 4x 4gb schijven en dan kan de areca er ook weer uit scheelt ook weer stroom
maar hoeveel stroom zou ik al besparen door het moederbord processor en geheugen te vervangen door mijn eerder genoemde voorstel?
Het is idd mijn bedoeling om geleidelijk aan te moderniseren naar minimaal een even krachtig en zuinig systeem.
op de areca heb ik alle schijvenin pass through modus staan waardoor alle schijven rechtstreeks door gegeven worden
op een later tijdstip wil ik idd de schijven nog vervangen voor 4x 4gb schijven en dan kan de areca er ook weer uit scheelt ook weer stroom
maar hoeveel stroom zou ik al besparen door het moederbord processor en geheugen te vervangen door mijn eerder genoemde voorstel?
Weet je het zeker? Dat zou iets nieuws zijn.TommyboyNL schreef op zaterdag 14 juli 2018 @ 12:21:
Die disks ga je niet makkelijk op een RAID controller aan kunnen sluiten. De USB-SATA bridge zit in de HD zelf geintegreerd. Het wordt flink priegelen om hier een SATA kabel aan te maken, en op een backplane aansluiten gaat al helemaal niet happenen.
Lees de review: https://tweakers.net/prod...3-portable-4tb-zwart.html
Er zit een standaard Seagate ST4000LM024 in.
Veel tweakers en ikzelf ook hebben deze schijf in gebruik en er zit een losse SATA naar USB controller op. Die kun je makkelijk loshalen. Dat staat ook bij Amazon beschreven in de recensies.
[ Voor 9% gewijzigd door mrmrmr op 14-07-2018 17:38 ]
Daarvoor moet je eerst weten wat het verbruik nu is: meten zoals ik in mijn vorige reactie beschreef.jwvdst schreef op zaterdag 14 juli 2018 @ 14:00:
maar hoeveel stroom zou ik al besparen door het moederbord processor en geheugen te vervangen door mijn eerder genoemde voorstel?
Het verbruik zonder aangesloten randapparatuur en insteekkaarten van het nieuwe moederbord+cpu+geheugen met gemiddelde voeding zal naar grove schatting rondom 20W idle liggen.
Je hebt er alleen wat aan als je je huidige systeem ook kaal meet. Dat wil zeggen: 1 cpu, 1 voeding, geen HDD's, geen insteekkaarten, geen USB sticks. Wel: moederbord, cpu, geheugen, bedrade USB keyboard, bedrade USB muis en SSD.
De voeding bepaalt voor een flink deel wat het verbruik aan de stekker wordt. Een onzuinige voeding kan slechts 50% efficiëntie hebben. Dan gaat de helft van het energieverbruik op aan warmteontwikkeling.
Je zegt dat je drie (vooralsnog onbekende) voedingen hebt. Kun je de derde alleen aansluiten en de redundante/dubbele niet?
Damn, je hebt gelijk! Ik heb d afgelopen jaren eigenlijk alleen maar externe 2,5" HDs gezien waar alles geintegreerd zat. Interessante keuze van Maxtor zo!mrmrmr schreef op zaterdag 14 juli 2018 @ 16:21:
[...]
Weet je het zeker? Dat zou iets nieuws zijn.
Lees de review: https://tweakers.net/prod...3-portable-4tb-zwart.html
Er zit een standaard Seagate ST4000LM024 in.
Veel tweakers en ikzelf ook hebben deze schijf in gebruik en er zit een losse SATA naar USB controller op. Die kun je makkelijk loshalen. Dat staat ook bij Amazon beschreven in de recensies.
Niet 100% zeker of dit de juiste plek is, maar vroeg me af of hier ervaring mee was.
Wil een simpele videokaart in mijn esx doos (hp dl360g8) duwen voor video encoding voor 1 specifieke vm (hoeft dus niet gedeeld te worden met andere vm's).
Nou is esx behoorlijk picky op videokaarten, maar vroeg me af of hier toevallig ervaringen waren met simpele zuinige videokaarten via bijvoorbeeld pci-e passthrough ?
Heb een radeon pro wx 3100 op het oog waar ik dit mee wil gaan proberen
Wil een simpele videokaart in mijn esx doos (hp dl360g8) duwen voor video encoding voor 1 specifieke vm (hoeft dus niet gedeeld te worden met andere vm's).
Nou is esx behoorlijk picky op videokaarten, maar vroeg me af of hier toevallig ervaringen waren met simpele zuinige videokaarten via bijvoorbeeld pci-e passthrough ?
Heb een radeon pro wx 3100 op het oog waar ik dit mee wil gaan proberen
Er is dacht ik ergens een duitse lijst met AMD GPUs die werken met passthrough en wat ze verbruiken. Vraag is vooral hoe up to date zo'n lijst is.
Even niets...
ESXi is niet erg picky, NVIDIA blokt het gebruik van Geforce en entry Quadro kaarten (waar je omheen kunt) en je moet een tweede videokaart voor de console hebben. Los daarvan werkt vrijwel alles, ik weet zo geen enkele Intel, AMD of NVIDIA GPU die niet werkend te krijgen is.Wannial schreef op zondag 15 juli 2018 @ 23:44:
Niet 100% zeker of dit de juiste plek is, maar vroeg me af of hier ervaring mee was.
Wil een simpele videokaart in mijn esx doos (hp dl360g8) duwen voor video encoding voor 1 specifieke vm (hoeft dus niet gedeeld te worden met andere vm's).
Nou is esx behoorlijk picky op videokaarten, maar vroeg me af of hier toevallig ervaringen waren met simpele zuinige videokaarten via bijvoorbeeld pci-e passthrough ?
Heb een radeon pro wx 3100 op het oog waar ik dit mee wil gaan proberen
[ Voor 4% gewijzigd door |sWORDs| op 16-07-2018 11:01 ]
Te Koop:24 Core Intel Upgradeset
Er waren toch videokaarten die zo'n PCIe Bar hadden wat niet altijd even lekker werkte?
Had iets te maken met de geheugen addressering van de onderliggende PCIe laag, en dan moest je iets van memory mapping doen in de settings van de vm (maar wat je zegt is terecht, het was vaak met wat truukjes werkend te krijgen
)
Had iets te maken met de geheugen addressering van de onderliggende PCIe laag, en dan moest je iets van memory mapping doen in de settings van de vm (maar wat je zegt is terecht, het was vaak met wat truukjes werkend te krijgen
Even niets...
Ik zit een beetje met een dilemma, misschien hebben jullie wat suggesties.
Door omstandigheden duurt het nog minimaal 3-6 maanden voor ik een paar oude HPE G7 kan gebruiken voor het testen met vSAN en NSX (nog altijd in productie, don't ask
). Ook wil ik intern met VLAN/VxLAN en BGP/OSPF gaan testen. In theorie zou het met 1 nic moeten kunnen, maar het maakt het allemaal wat complexer (en misschien een beetje teveel voor 1 machine).
Mijn oude 2012 Mac mini thuis (i7-3615QM, 2 NICs) draait op zich prima voor wat ik er nu mee kan testen, maar is met 16GB erg gelimiteerd. Ook maak ik gebruik van een NFS datastore vanaf mijn oude QNAP 459 proII en daar zit een flinke bottleneck qua performance.
Nu RAM zo duur is, is eigenlijk elke oplossing op het randje van mijn budget. De route van de NUC (NUC7i5BNH of de NUC7i5DNHE (vPro)) is denk ik 1 van de meest gebruikte, maar officieel supported RAM lijkt moeilijk te vinden? Of valt dat in de praktijk wel mee en werkt eigenlijk alles wel prima?
(Concept, er valt nog wel wat aan te besparen door bijv HDD ipv SSD. Ook een NUC7i3BNH ipv een i5 bespaart zo'n €150. Maar mijn gevoel zegt dat het te krap gaat zijn voor de labs.)
Als wat flexibeler alternatief heb ik een tijdje gekeken naar de Shuttle SZ270R8. Maar als ik dan toch voor die extra flexibiliteit kies, zou ik eerder een i3-8100 overwegen, Alleen eigenlijk niet zoveel behoefte aan het samenstellen van een compleet mITX systeem, het uitzoeken of alles compatible is etc. Ik zou dan nameljk ook gelijk mijn NAS willen integreren en in mijn ervaring gaan productie en test omgevingen niet samen.
Is het tegenwoordig zo lastig om een labje voor €5-600 te bouwen? Buiten het testen om draai ik 24/7 een Unifi controler en PiHole. De iets zuinigere NUC gaat dat qua energie nooit terugverdienen en over een aantal maanden heb ik (hopelijk) wat overjarige servers in een colo om mee te spelen.
Door omstandigheden duurt het nog minimaal 3-6 maanden voor ik een paar oude HPE G7 kan gebruiken voor het testen met vSAN en NSX (nog altijd in productie, don't ask

Mijn oude 2012 Mac mini thuis (i7-3615QM, 2 NICs) draait op zich prima voor wat ik er nu mee kan testen, maar is met 16GB erg gelimiteerd. Ook maak ik gebruik van een NFS datastore vanaf mijn oude QNAP 459 proII en daar zit een flinke bottleneck qua performance.
Nu RAM zo duur is, is eigenlijk elke oplossing op het randje van mijn budget. De route van de NUC (NUC7i5BNH of de NUC7i5DNHE (vPro)) is denk ik 1 van de meest gebruikte, maar officieel supported RAM lijkt moeilijk te vinden? Of valt dat in de praktijk wel mee en werkt eigenlijk alles wel prima?
# | Product | Prijs | Subtotaal |
1 | Intel NUC Kit NUC7i5DNHE | € 395,50 | € 395,50 |
1 | Crucial CT2K16G4SFD824A | € 312,- | € 312,- |
1 | Samsung 860 EVO 1TB | € 207,93 | € 207,93 |
1 | Samsung 970 Evo 250GB | € 86,42 | € 86,42 |
Bekijk collectie Importeer producten | Totaal | € 1.001,85 |
(Concept, er valt nog wel wat aan te besparen door bijv HDD ipv SSD. Ook een NUC7i3BNH ipv een i5 bespaart zo'n €150. Maar mijn gevoel zegt dat het te krap gaat zijn voor de labs.)
Als wat flexibeler alternatief heb ik een tijdje gekeken naar de Shuttle SZ270R8. Maar als ik dan toch voor die extra flexibiliteit kies, zou ik eerder een i3-8100 overwegen, Alleen eigenlijk niet zoveel behoefte aan het samenstellen van een compleet mITX systeem, het uitzoeken of alles compatible is etc. Ik zou dan nameljk ook gelijk mijn NAS willen integreren en in mijn ervaring gaan productie en test omgevingen niet samen.
Is het tegenwoordig zo lastig om een labje voor €5-600 te bouwen? Buiten het testen om draai ik 24/7 een Unifi controler en PiHole. De iets zuinigere NUC gaat dat qua energie nooit terugverdienen en over een aantal maanden heb ik (hopelijk) wat overjarige servers in een colo om mee te spelen.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
thanks @FireDrunk @|sWORDs| voor de informatie. Ik wil zo min mogelijk truucjes toepassen die de stabiliteit kunnen beinvloeden, de rest van de machine draait wel gewoon productie verder.
Ik zal eens kijken of ik die duiste lijst kan vinden en zal dan maar gewoon met een AMD kaart gaan testen als dat doorgaans gewoon goed gezien wordt durf ik dat wel aan
Ik zal eens kijken of ik die duiste lijst kan vinden en zal dan maar gewoon met een AMD kaart gaan testen als dat doorgaans gewoon goed gezien wordt durf ik dat wel aan
In de laatste ESXi versies hoef je de BAR/memory hole eigenlijk niet aan te passen, in elk geval niet met kaarten <16GB, gezien de prijzen van kaarten daar boven (K80/P40, 5-10K) verwacht ik die hier niet te zien.FireDrunk schreef op maandag 16 juli 2018 @ 12:02:
Er waren toch videokaarten die zo'n PCIe Bar hadden wat niet altijd even lekker werkte?
Had iets te maken met de geheugen addressering van de onderliggende PCIe laag, en dan moest je iets van memory mapping doen in de settings van de vm (maar wat je zegt is terecht, het was vaak met wat truukjes werkend te krijgen)
Ik denk dat ik de enige idioot met zo'n kaart ben.
De host wordt echt niet instabieler. De VM kan wat problemen met rebooten hebben, al kun je een function level reset wel forceren.->niet zonder debug build.Wannial schreef op maandag 16 juli 2018 @ 12:50:
thanks @FireDrunk @|sWORDs| voor de informatie. Ik wil zo min mogelijk truucjes toepassen die de stabiliteit kunnen beinvloeden, de rest van de machine draait wel gewoon productie verder.
Ik zal eens kijken of ik die duiste lijst kan vinden en zal dan maar gewoon met een AMD kaart gaan testen als dat doorgaans gewoon goed gezien wordt durf ik dat wel aan
NVIDIA speelt vals door in de bootrom te checken of het een VM is, kun je omheen met:
hypervisor.cpuid.v0 = "FALSE"
En wat bedoel je met "de rest van de machine draait wel gewoon productie verder"? Wil de GPU remote gebruiken of wil je een HDMI/DP output gebruiken? Indien remote heb je wel een display protocol nodig die de GPU kan gebruiken.
[ Voor 49% gewijzigd door |sWORDs| op 16-07-2018 15:57 ]
Te Koop:24 Core Intel Upgradeset
Gaat puur om video encoding, niets anders 
Thx voor de overige reacties, ik ga er mee aan de slag!
Thx voor de overige reacties, ik ga er mee aan de slag!
[ Voor 40% gewijzigd door Wannial op 16-07-2018 16:48 ]
Nou, toch maar de kogel door de kerk gejaagd en onderstaande zojuist besteld. Binnenkort eindelijk spelen met all-flash vSAN. 
Dit was de beste kwaliteit/prijs verhouding die ik kon samenstellen en geheugen zie ik toch niet goedkoper worden. De i5 is ietsje duurder dan de i3, maar wel met tb3. De sprong naar de nog slecht verkrijgbare i5dnhe met vPro was iets te groot en ook heb ik de totale hoeveelheid storage iets teruggebracht.
Gezien de hoofdbrekens of dit geheugen nou wel of niet goed werkt ben ik toch blij dat ik niet meer voor zelfbouw heb gekozen.
Edit: even melden dat dit prima opstart.
# | Product | Prijs | Subtotaal |
1 | Intel NUC Kit NUC7i5BNH | € 329,89 | € 329,89 |
1 | Crucial CT2K16G4SFD824A | € 312,- | € 312,- |
1 | Samsung 860 EVO 500GB | € 103,95 | € 103,95 |
1 | Samsung 960 EVO 250GB | € 79,90 | € 79,90 |
Bekijk collectie Importeer producten | Totaal | € 825,74 |
Dit was de beste kwaliteit/prijs verhouding die ik kon samenstellen en geheugen zie ik toch niet goedkoper worden. De i5 is ietsje duurder dan de i3, maar wel met tb3. De sprong naar de nog slecht verkrijgbare i5dnhe met vPro was iets te groot en ook heb ik de totale hoeveelheid storage iets teruggebracht.
Gezien de hoofdbrekens of dit geheugen nou wel of niet goed werkt ben ik toch blij dat ik niet meer voor zelfbouw heb gekozen.
Edit: even melden dat dit prima opstart.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Ik gebruik hetzelfde geheugen in dezelfde NUC, wel maar 1x 16GB en dat gaat prima!Ethirty schreef op woensdag 18 juli 2018 @ 12:09:
Nou, toch maar de kogel door de kerk gejaagd en onderstaande zojuist besteld. Binnenkort eindelijk spelen met all-flash vSAN.
# Product Prijs Subtotaal 1 Intel NUC Kit NUC7i5BNH € 329,89 € 329,89 1 Crucial CT2K16G4SFD824A € 312,- € 312,- 1 Samsung 860 EVO 500GB € 103,95 € 103,95 1 Samsung 960 EVO 250GB € 79,90 € 79,90 Bekijk collectie
Importeer productenTotaal € 825,74
Dit was de beste kwaliteit/prijs verhouding die ik kon samenstellen en geheugen zie ik toch niet goedkoper worden. De i5 is ietsje duurder dan de i3, maar wel met tb3. De sprong naar de nog slecht verkrijgbare i5dnhe met vPro was iets te groot en ook heb ik de totale hoeveelheid storage iets teruggebracht.
Gezien de hoofdbrekens of dit geheugen nou wel of niet goed werkt ben ik toch blij dat ik niet meer voor zelfbouw heb gekozen.
Waar ik tegenaan liep is dat:
- blogs over ESXi de variant van 2133 gebruiken en die zijn nogal zeldzaam en duur momenteel.
- Intel officieel geen geheugen van Crucial support.
- Crucial op hun website andere productnummers gebruikt die niet matchen met de Pricewatch.
- er minimaal 2 codes zijn voor de 2400 versie: pricewatch: Crucial CT2K16G4SFD824A en pricewatch: Crucial CT2K16G4TFD824A. Volgens mij is er ook een nog duurdere "Apple" versie.
- er ook nog een 2666 versie is waar helemaal weinig over beschreven staat: pricewatch: Crucial CT2K16G4TFD8266.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Vraag, servertje op zolder wordt relatief warm tijdens warme periodes. Heb vorige week een 2,5" hdd eruit gehaald, heb aan een SSD voldoende. (Streacom F7C, 90mm fan, Intel desktopboard, i5-3570, 16GB mem)
Interne temperatuur is zo'n 40 graden schat ik (aluminium behuizing), fan draait bijna 100%, dus voldoende airflow.
Aangezien het volgende week 30 graden wordt maakt ik mij zorgen over de temperatuur, ga maandag 10 dagen op vakantie, doe hem liever niet uit. Schakelt een pc zichzelf automatisch uit als hij te warm wordt?
Interne temperatuur is zo'n 40 graden schat ik (aluminium behuizing), fan draait bijna 100%, dus voldoende airflow.
Aangezien het volgende week 30 graden wordt maakt ik mij zorgen over de temperatuur, ga maandag 10 dagen op vakantie, doe hem liever niet uit. Schakelt een pc zichzelf automatisch uit als hij te warm wordt?
Whatever.
Ja en nee, hij loopt vanzelf vast (de CPU locked bij een bepaalde temperatuur), maar echt uit gaat hij dan niet. Die optie zit soms wel in het BIOS/UEFI, maar dat is meer iets van 'vroeger', toen CPU's zelf die functionaliteit niet hadden.
Maar 40c is nog helemaal niet erg hoor, pas bij > 60c hoef je je druk te maken, en je CPU kan prima een paar weken lang 60-65c zijn.
Maar 40c is nog helemaal niet erg hoor, pas bij > 60c hoef je je druk te maken, en je CPU kan prima een paar weken lang 60-65c zijn.
Even niets...
Hi,
Ik ben momenteel ook bezig om een ESXI server te bouwen op basis van een Intel Nuc7i5BNH.
Waar ik echter een beetje op vastloop is welk RAM ik moet hebben. De ESXI server zal veelal gebruikt worden voor 4-5 Server 2016 en Windows 10 VMs welke tegelijk aan moeten kunnen staan. Dit om als test lab te dienen voor mijn Server 2016 certificeringen. Mogelijk dat er 2-3 Linux machines komen welke 24/7 draaien voor wat dingen te testen.
Heb momenteel de volgende setup:
Zou een i5-7260U voldoende hiervoor zijn? De servers zullen de standaard dingen draaien. AD, DHCP, DNS, Hyper-V, Failover Clustering, File services. 16GB RAM voldoende zijn lijkt me?
ik heb alleen moeite om een setje van 2x8GB te vinden
Zou deze bijvoorbeeld werken? Of is dat altijd een beetje afwachten
pricewatch: Kingston HyperX Impact HX424S14IB2K2/16
Ik ben momenteel ook bezig om een ESXI server te bouwen op basis van een Intel Nuc7i5BNH.
Waar ik echter een beetje op vastloop is welk RAM ik moet hebben. De ESXI server zal veelal gebruikt worden voor 4-5 Server 2016 en Windows 10 VMs welke tegelijk aan moeten kunnen staan. Dit om als test lab te dienen voor mijn Server 2016 certificeringen. Mogelijk dat er 2-3 Linux machines komen welke 24/7 draaien voor wat dingen te testen.
Heb momenteel de volgende setup:
# | Product | Prijs | Subtotaal |
1 | Seagate Barracuda Compute 2,5", 1TB | € 44,50 | € 44,50 |
1 | Intel NUC Kit NUC7i5BNH | € 329,89 | € 329,89 |
1 | Samsung 970 Evo 500GB | € 162,99 | € 162,99 |
Bekijk collectie Importeer producten | Totaal | € 537,38 |
Zou een i5-7260U voldoende hiervoor zijn? De servers zullen de standaard dingen draaien. AD, DHCP, DNS, Hyper-V, Failover Clustering, File services. 16GB RAM voldoende zijn lijkt me?
ik heb alleen moeite om een setje van 2x8GB te vinden
Zou deze bijvoorbeeld werken? Of is dat altijd een beetje afwachten
pricewatch: Kingston HyperX Impact HX424S14IB2K2/16
Waarom een NUC en bijvoorbeeld geen DeskMini?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
16GB is zat, bijvoorbeeld 2.5GB voor twee W10 VMs en 3GB voor drie 2016 VMs en je hebt genoeg over voor ESXi.Aschtra schreef op vrijdag 10 augustus 2018 @ 16:00:
Hi,
Ik ben momenteel ook bezig om een ESXI server te bouwen op basis van een Intel Nuc7i5BNH.
Waar ik echter een beetje op vastloop is welk RAM ik moet hebben. De ESXI server zal veelal gebruikt worden voor 4-5 Server 2016 en Windows 10 VMs welke tegelijk aan moeten kunnen staan. Dit om als test lab te dienen voor mijn Server 2016 certificeringen. Mogelijk dat er 2-3 Linux machines komen welke 24/7 draaien voor wat dingen te testen.
Heb momenteel de volgende setup:
# Product Prijs Subtotaal 1 Seagate Barracuda Compute 2,5", 1TB € 44,50 € 44,50 1 Intel NUC Kit NUC7i5BNH € 329,89 € 329,89 1 Samsung 970 Evo 500GB € 162,99 € 162,99 Bekijk collectie
Importeer productenTotaal € 537,38
Zou een i5-7260U voldoende hiervoor zijn? De servers zullen de standaard dingen draaien. AD, DHCP, DNS, Hyper-V, Failover Clustering, File services. 16GB RAM voldoende zijn lijkt me?
ik heb alleen moeite om een setje van 2x8GB te vinden
Zou deze bijvoorbeeld werken? Of is dat altijd een beetje afwachten
pricewatch: Kingston HyperX Impact HX424S14IB2K2/16
Te Koop:24 Core Intel Upgradeset
Ben met een NUC bekend. Nog nooit van een DeskMini gehoord. Even snel gekeken en hier zit alleen een case, moederbord en voeding bij in? Dan moet ik de CPU dus los kopen wat mij duurder lijkt uiteindelijk. En heeft maar 1 aansluiting voor een M.2 SSD?-The_Mask- schreef op vrijdag 10 augustus 2018 @ 16:33:
Waarom een NUC en bijvoorbeeld geen DeskMini?
7260u: 5696Aschtra schreef op vrijdag 10 augustus 2018 @ 17:20:
[...]
Ben met een NUC bekend. Nog nooit van een DeskMini gehoord. Even snel gekeken en hier zit alleen een case, moederbord en voeding bij in? Dan moet ik de CPU dus los kopen wat mij duurder lijkt uiteindelijk. En heeft maar 1 aansluiting voor een M.2 SSD?
i3 8100: 8089
# | Product | Prijs | Subtotaal |
1 | Intel Core i3-8100 Boxed | € 112,99 | € 112,99 |
1 | ASRock DeskMini 310 | € 169,95 | € 169,95 |
Totaal | € 282,94 |
14% goedkoper en 42% sneller.
[ Voor 57% gewijzigd door |sWORDs| op 10-08-2018 17:36 ]
Te Koop:24 Core Intel Upgradeset
Kijk even een paar posts boven je. Ik heb laatst dezelfde NUC gekocht en aangegeven welke Crucial modules gewoon werken. Neem aan dat de 2x 8 modules van Crucial uit dezelfde serie dan ook gewoon werken.Aschtra schreef op vrijdag 10 augustus 2018 @ 16:00:
Hi,
Ik ben momenteel ook bezig om een ESXI server te bouwen op basis van een Intel Nuc7i5BNH.
Waar ik echter een beetje op vastloop is welk RAM ik moet hebben. De ESXI server zal veelal gebruikt worden voor 4-5 Server 2016 en Windows 10 VMs welke tegelijk aan moeten kunnen staan. Dit om als test lab te dienen voor mijn Server 2016 certificeringen. Mogelijk dat er 2-3 Linux machines komen welke 24/7 draaien voor wat dingen te testen.
Heb momenteel de volgende setup:
# Product Prijs Subtotaal 1 Seagate Barracuda Compute 2,5", 1TB € 44,50 € 44,50 1 Intel NUC Kit NUC7i5BNH € 329,89 € 329,89 1 Samsung 970 Evo 500GB € 162,99 € 162,99 Bekijk collectie
Importeer productenTotaal € 537,38
Zou een i5-7260U voldoende hiervoor zijn? De servers zullen de standaard dingen draaien. AD, DHCP, DNS, Hyper-V, Failover Clustering, File services. 16GB RAM voldoende zijn lijkt me?
ik heb alleen moeite om een setje van 2x8GB te vinden
Zou deze bijvoorbeeld werken? Of is dat altijd een beetje afwachten
pricewatch: Kingston HyperX Impact HX424S14IB2K2/16
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Ah dan ga ik daarvoor inderdaad. Alleen dan misschien nog met een i5-8400. Kost uiteindelijk 20 euro meer maar wel dubbele performance (ter vergelijking met i5-7260u)|sWORDs| schreef op vrijdag 10 augustus 2018 @ 17:32:
[...]
7260u: 5696
i3 8100: 8089
# Product Prijs Subtotaal 1 Intel Core i3-8100 Boxed € 112,99 € 112,99 1 ASRock DeskMini 310 € 169,95 € 169,95 Totaal € 282,94
14% goedkoper en 42% sneller.
Wat ik momenteel in mijn VMWare workstation labje heb draaien is het volgende:
2x Windows Server 2016 met AD,DHCP, DNS,
1x Windows Server 2016 die dient als ISCSI target
2x Windows Server 2016 met hyper-v en failover clustering. Beide 1VM op Hyper-V host
1x Windows 10 welke dient als client. Maar eigenlijk nooit nodig
Dan zou het zoiets worden:
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-8400 Boxed | € 183,90 | € 183,90 |
1 | Seagate Barracuda Compute 2,5", 1TB | € 44,50 | € 44,50 |
1 | ASRock DeskMini 310 | € 169,95 | € 169,95 |
1 | Kingston HyperX Impact HX424S14IB2K2/16 | € 169,96 | € 169,96 |
1 | Samsung 970 Evo 500GB | € 162,99 | € 162,99 |
Bekijk collectie Importeer producten | Totaal | € 731,30 |
Klopt, heb ik naar gekeken. Alleen naar mijn mening niet heel goed leverbaarEthirty schreef op vrijdag 10 augustus 2018 @ 18:05:
[...]
Kijk even een paar posts boven je. Ik heb laatst dezelfde NUC gekocht en aangegeven welke Crucial modules gewoon werken. Neem aan dat de 2x 8 modules van Crucial uit dezelfde serie dan ook gewoon werken.
pricewatch: Crucial CT2K8G4SFD824A
Ik zit alleen even te kijken voor die sata kabel:

Krijg je deze erbij? Of moet je die los kopen? Hoe heet zoiets?
Heb ook naar die DeskMini gekeken maar niet gekozen omdat:
- Stuk groter
- CPU in een lab vaak niet de bottleneck is, RAM wel. vSAN alleen kost me al bijna 16GB.
- Maar een klein aantal leveranciers
- Zelfde geheugenbeperking van 32GB als een NUC
- Alles in een NUC werkt out of the box en je kan vrij makkelijk via de usb-c connector een tweede/derde NIC gaan gebruiken (al gok ik dat het uiteindelijk met andere usb nic's ook moet kunnen).
- Bloggers/medewerkers gebruiken vaak een NUC (naast SuperMicro en volwaardige servers) en er lijkt een soort onofficiele support te zijn (driver-fixes etc)
Edit: sata is compleet als je de BNH koopt. Die andere pc kan ik weinig over zeggen.
- Stuk groter
- CPU in een lab vaak niet de bottleneck is, RAM wel. vSAN alleen kost me al bijna 16GB.
- Maar een klein aantal leveranciers
- Zelfde geheugenbeperking van 32GB als een NUC
- Alles in een NUC werkt out of the box en je kan vrij makkelijk via de usb-c connector een tweede/derde NIC gaan gebruiken (al gok ik dat het uiteindelijk met andere usb nic's ook moet kunnen).
- Bloggers/medewerkers gebruiken vaak een NUC (naast SuperMicro en volwaardige servers) en er lijkt een soort onofficiele support te zijn (driver-fixes etc)
Edit: sata is compleet als je de BNH koopt. Die andere pc kan ik weinig over zeggen.
[ Voor 6% gewijzigd door Ethirty op 10-08-2018 18:25 ]
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Ah oke, onze doelen zijn wel wat anders zo te zien.Ethirty schreef op vrijdag 10 augustus 2018 @ 18:24:
Heb ook naar die DeskMini gekeken maar niet gekozen omdat:
- Stuk groter
- CPU in een lab vaak niet de bottleneck is, RAM wel. vSAN alleen kost me al bijna 16GB.
- Maar een klein aantal leveranciers
- Zelfde geheugenbeperking van 32GB als een NUC
- Alles in een NUC werkt out of the box en je kan vrij makkelijk via de usb-c connector een tweede/derde NIC gaan gebruiken (al gok ik dat het uiteindelijk met andere usb nic's ook moet kunnen).
- Bloggers/medewerkers gebruiken vaak een NUC (naast SuperMicro en volwaardige servers) en er lijkt een soort onofficiele support te zijn (driver-fixes etc)
Edit: sata is compleet als je de BNH koopt. Die andere pc kan ik weinig over zeggen.
Ik ga namelijk niets doen met VSAN. Puur voor wat Windows / Linux servertjes en een klein beetje werken met ESXI. 16GB voldoet voor mij
Moet inderdaad nog even checken of de Deskmini 310 netwerkkaart en storage out of the box werkt.
Grootte voor mij ook geen probleem. Volgens mij is de Deskmini 15x15cm en de NUC 10x10cm
vSAN zal voor mij waarschijnlijk ook wel tijdelijk zijn hoor. Heb een beetje verkeerd ingeschat hoe weinig bruikbare ruimte ik zo daadwerkelijk heb.
De rest zal straks ook bestaan uit een Windows lab, maar misschien ook nog een opzetje met NSX of vRealize. In beide gevallen kan je denk ik alle kanten op (binnen de grenzen van 1 host).
De rest zal straks ook bestaan uit een Windows lab, maar misschien ook nog een opzetje met NSX of vRealize. In beide gevallen kan je denk ik alle kanten op (binnen de grenzen van 1 host).
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Vanmiddag dit systeempje bestellen:
Ben benieuwd van de week!
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-8400 Boxed | € 183,90 | € 183,90 |
1 | ASRock DeskMini 310 | € 169,95 | € 169,95 |
1 | Crucial CT16G4SFD824A | € 146,61 | € 146,61 |
1 | Samsung 970 Evo 500GB | € 159,90 | € 159,90 |
Bekijk collectie Importeer producten | Totaal | € 660,36 |
Ben benieuwd van de week!
Mooi kitje! Ben ook beniewd! Kan je voor je ESXi probeert, nog wat andere Operating Systems proberen? Of heb je daar geen zin/tijd voor?
Even niets...
Waar dacht je dan precies aan? Bedoeling was inderdaad wel om enkel ESXi te installerenFireDrunk schreef op maandag 13 augustus 2018 @ 09:21:
Mooi kitje! Ben ook beniewd! Kan je voor je ESXi probeert, nog wat andere Operating Systems proberen? Of heb je daar geen zin/tijd voor?
Lan gaat wel werken verwacht ik.
@Aschtra Waarom die Desk mini 310 en niet de 110?
Waarom de 110? Oudere chipset en er was ook iets met de M.2 sata poort.Samplex schreef op maandag 13 augustus 2018 @ 13:50:
@Aschtra Waarom die Desk mini 310 en niet de 110?
M.2 (PCI-e 3.0 x4), 2x SATA-600, 2x USB 2.0 Versus M.2 (S600/Pcie3.0x4), 2x SATA-600
Als dat systeem nou 2 of meer netwerkkaarten had (ik zie geen uitbreidingsslot in de behuizing), dan had dat een leuk ESXi-systeempje kunnen worden als toekomstige vervanging van de (op dit moment) gescheiden router-pc en download-pcAschtra schreef op maandag 13 augustus 2018 @ 08:43:
Vanmiddag dit systeempje bestellen:
# Product Prijs Subtotaal 1 Intel Core i5-8400 Boxed € 183,90 € 183,90 1 ASRock DeskMini 310 € 169,95 € 169,95 1 Crucial CT16G4SFD824A € 146,61 € 146,61 1 Samsung 970 Evo 500GB € 159,90 € 159,90 Bekijk collectie
Importeer productenTotaal € 660,36
Ben benieuwd van de week!
After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...
Oscar Wilde
ja een extra netwerk kaart is ook niet overbodig, ook max 32gb vind ik jammer.
Naja wat ik al zei het is maar net waar je het voor wilt gebruiken. Ik heb hier voldoende aan. Expres momenteel 1 reepje van 16GB RAM erin gedaan zodat ik makkelijkker kan uitbreiden.
Op mijn Microserver Gen8 draait momenteel Xpenology. Op de Gen8 zitten 2 netwerk aansluitingen maar gebruik er maar 1.
Ik ga naast mijn Server 2016 testlab, de Plex, Radarr, Sonarr en SabNZBD plugins die momenteel op mijn Xpenology draaien naar de nieuwe server verhuizen. Ook kan ik nu PlexPy erop zetten.
@FireDrunk
Ah nee sorry. Ben niet echt bekend met die systemen. Ben pas sinds een jaartje bezig met wat experimenteren thuis. Begon met een Gen8 met FreeNAS, na paar maanden die vervangen voor Xpenology en dan nu deze ESXi server.
Op mijn Microserver Gen8 draait momenteel Xpenology. Op de Gen8 zitten 2 netwerk aansluitingen maar gebruik er maar 1.
Ik ga naast mijn Server 2016 testlab, de Plex, Radarr, Sonarr en SabNZBD plugins die momenteel op mijn Xpenology draaien naar de nieuwe server verhuizen. Ook kan ik nu PlexPy erop zetten.
@FireDrunk
Ah nee sorry. Ben niet echt bekend met die systemen. Ben pas sinds een jaartje bezig met wat experimenteren thuis. Begon met een Gen8 met FreeNAS, na paar maanden die vervangen voor Xpenology en dan nu deze ESXi server.
Je hoeft ze alleen maar te installeren, en even powertop aan te slingeren. Kwartiertje werk per OS misschien.
Mocht je er geen zin in hebben, ook prima natuurlijk
Mocht je er geen zin in hebben, ook prima natuurlijk
Even niets...
Aardig stuk doorgelezen aangezien m'n al aardig oude thuisservertje (jaartje of 6.5 gok ik) de load maar met moeite trekt. Vooral als hij wat aan het downloaden is dan is de machine de bottleneck. Hierop is ook helemaal niks gevirtualiseerd, alles draait met een enkele Debian-install direct op het ijzer, en hier wil ik vanzelfsprekend vanaf 
Huidige, te vervangen, setup (meeste prijzen niet meer bekend):
Diverse mogelijkheden al tegengekomen, onder andere de DeskMini en de NUC, voor beiden heb ik een vergelijkbare lijst opgesteld met waar mogelijk dezelfde componenten of op z'n minst vergelijkbaar.
Server obv NUC
Server obv DeskMini
Ik weet dat de NUC maar 1x een 2,5" hdd kan bevatten, dat is ook meteen het grootste nadeel. Daartegen is de i5 8400 een tikje sneller.
Wat wil ik er mee?
In ieder geval alles wat nu binnen 1 Debian-install draait uit elkaar trekken. Dat zou dan SabNZBD, Medusa, Spotweb, Domoticz, Freeradius, wat cronjobs en 3 simpele interne websites op Apache zijn. Het is me al meer dan eens gebeurd dat dependencies elkaar in de weg zitten, nu wil ik ze los van elkaar gaan draaien. Verder wil ik ruimte in opslag/mem/cpu hebben om af en toe een extra vm aan te kunnen slingeren om wat dingen mee te kunnen testen. Zo komt er op termijn nog een extra radiusserver bij, Ubiquiti mgt en zeker nog wel 1 of 2 'prutsprojectjes'. Dus vooral wat huis- en media-automatisering plus ruimte om te spelen.
Zelf neig ik naar de DeskMini, vooral door de dubbele opslag.
Enige vragen die ik niet heb kunnen vinden:
-Is de nic vanuit elke virtual te gebruiken?
-Zijn de 2 HD's als storage voor de vm's te gebruiken? En kan dan eventueel de M.2 kleiner of is 500gb de betere keuze?
Nog geen ervaring met het opzetten van esxi vanaf scratch, werk wel met vSphere, maar het onderhoud daarvan is uit handen gegeven en niet mijn forte
Huidige, te vervangen, setup (meeste prijzen niet meer bekend):
# | Product | Prijs | Subtotaal |
1 | Intel Desktop Board DN2800MT | € 0,- | € 0,- |
1 | MS-Tech CI-50 | € 0,- | € 0,- |
2 | Corsair Value Select CM3X2GSD1066 | € 17,- | € 34,- |
1 | Transcend TS16GMSA300 16GB | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 34,- |
Diverse mogelijkheden al tegengekomen, onder andere de DeskMini en de NUC, voor beiden heb ik een vergelijkbare lijst opgesteld met waar mogelijk dezelfde componenten of op z'n minst vergelijkbaar.
Server obv NUC
# | Product | Prijs | Subtotaal |
1 | WD Black SATA 6Gb/s WD10JPLX, 1TB | € 67,99 | € 67,99 |
1 | Intel NUC Kit NUC7i5DNH2E (met EU stroomkabel) | € 393,45 | € 393,45 |
2 | Crucial CT16G4SFD824A | € 146,61 | € 293,22 |
1 | Samsung 970 Evo 500GB | € 159,90 | € 159,90 |
Bekijk collectie Importeer producten | Totaal | € 914,56 |
Server obv DeskMini
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-8400 Boxed | € 183,90 | € 183,90 |
2 | WD Black SATA 6Gb/s WD10JPLX, 1TB | € 67,99 | € 135,98 |
1 | ASRock DeskMini 310 | € 169,95 | € 169,95 |
2 | Crucial CT16G4SFD824A | € 146,61 | € 293,22 |
1 | Samsung 970 Evo 500GB | € 159,90 | € 159,90 |
Bekijk collectie Importeer producten | Totaal | € 942,95 |
Ik weet dat de NUC maar 1x een 2,5" hdd kan bevatten, dat is ook meteen het grootste nadeel. Daartegen is de i5 8400 een tikje sneller.
Wat wil ik er mee?
In ieder geval alles wat nu binnen 1 Debian-install draait uit elkaar trekken. Dat zou dan SabNZBD, Medusa, Spotweb, Domoticz, Freeradius, wat cronjobs en 3 simpele interne websites op Apache zijn. Het is me al meer dan eens gebeurd dat dependencies elkaar in de weg zitten, nu wil ik ze los van elkaar gaan draaien. Verder wil ik ruimte in opslag/mem/cpu hebben om af en toe een extra vm aan te kunnen slingeren om wat dingen mee te kunnen testen. Zo komt er op termijn nog een extra radiusserver bij, Ubiquiti mgt en zeker nog wel 1 of 2 'prutsprojectjes'. Dus vooral wat huis- en media-automatisering plus ruimte om te spelen.
Zelf neig ik naar de DeskMini, vooral door de dubbele opslag.
Enige vragen die ik niet heb kunnen vinden:
-Is de nic vanuit elke virtual te gebruiken?
-Zijn de 2 HD's als storage voor de vm's te gebruiken? En kan dan eventueel de M.2 kleiner of is 500gb de betere keuze?
Nog geen ervaring met het opzetten van esxi vanaf scratch, werk wel met vSphere, maar het onderhoud daarvan is uit handen gegeven en niet mijn forte
Insert vies grapje hier
Het verschil is niet een tikje, maar een dual core tegen een 6 core.
Te Koop:24 Core Intel Upgradeset
Zie het zo: ESXi bevat intern een switch waar al je virtual machines mee verbonden zijn. De nic is je uplink naar de rest van je netwerk. Met meerdere nics kan je dus evenzoveel "fysiek" gescheiden switches binnen je host gebruiken.Blerp schreef op maandag 13 augustus 2018 @ 16:56:
Enige vragen die ik niet heb kunnen vinden:
-Is de nic vanuit elke virtual te gebruiken?
-Zijn de 2 HD's als storage voor de vm's te gebruiken? En kan dan eventueel de M.2 kleiner of is 500gb de betere keuze?
Voor wat betreft je disks: ESXI neemt de controle over van je disks en maakt dat een datastore. Je virtual machine geef je een virtuele disk op die datastore. Dus ja, je kan die disks (indirect) gebruiken. Er zijn nog wat andere opties, maar die gaan voor een beginner wellicht wat ver (RDM).
Of je je disks in RAID draait, of allemaal afzonderlijk gebruikt als meerdere datastores bepaald hoe groot je virtual harddisks kunnen worden.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Bedoel je php 7.1+? Daar ligt Debian Stretch achter en als je het toch wilt krijg je packages uit repositories van derden die niet zo goed onderhouden worden als Debian's eigen packages.Wat wil ik er mee?
In ieder geval alles wat nu binnen 1 Debian-install draait uit elkaar trekken. Dat zou dan SabNZBD, Medusa, Spotweb, Domoticz, Freeradius, wat cronjobs en 3 simpele interne websites op Apache zijn. Het is me al meer dan eens gebeurd dat dependencies elkaar in de weg zitten, nu wil ik ze los van elkaar gaan draaien.
Uit elkaar trekken betekent wel dat er behalve de kosten van aanschaf ook een kost is aan de VM overhead. ESXi is op zich geen zuinig OS (2-3W meer) en elk besturingssysteem daarop heeft hetzelfde euvel. Elke Watt is ca. € 2 per jaar voor een server die altijd aan staat.
Misschien is het verstandiger om VM's te draaien wanneer je ze nodig hebt op je hoofdbesturingssysteem zoals Debian waarop je zo'n beetje alles behalve de laatste versies van php kwijt kan.
Ja, maar je misschien kunt beter gaan voor een 2.5" 4TB HDD (een extern model zoals Maxtor M3 met intern een gewone SATA disk). Die zijn veel zuiniger voor opslag van data. Besturingssystemen en virtual machine besturingssystemen kun je beter op een SSD zetten.Zijn de 2 HD's als storage voor de vm's te gebruiken? En kan dan eventueel de M.2 kleiner of is 500gb de betere keuze?
32 GB is wel meteen erg veel en irrationeel duur. Ik draai Debian met Apache met php/Exim gewoon op 1 GB zonder moeite.
Ik denk dat je de DN2800MT niet teveel credit moet geven, die was toch al niet zo geschikt. Zelfs met een Pentium 5400 ben je al 7 keer sneller. Meer is niet nodig voor een thuisserver. Tenzij je de computer gebruikt voor het renderen van een animatiefilm of transcoden van meerdere 4k streams.
De packages zijn onder andere php, maar het is me ook al gebeurd dat bv Apache een keer goed hikte waardoor Spotweb, Dashticz (fancy front voor Domoticz) en m'n websites tegelijk onderuit gingen of er bij een distupgrade een hoop te fixen was. Door het iets meer uit elkaar te halen, waarschijnlijk gaat niet letterlijk elke applicatie een eigen vm krijgen, probeer ik het risico op onderhoud wat te spreiden.mrmrmr schreef op maandag 13 augustus 2018 @ 23:45:
[...]
Bedoel je php 7.1+? Daar ligt Debian Stretch achter en als je het toch wilt krijg je packages uit repositories van derden die niet zo goed onderhouden worden als Debian's eigen packages.
Uit elkaar trekken betekent wel dat er behalve de kosten van aanschaf ook een kost is aan de VM overhead. ESXi is op zich geen zuinig OS (2-3W meer) en elk besturingssysteem daarop heeft hetzelfde euvel. Elke Watt is ca. € 9 per jaar voor een server die altijd aan staat.
Misschien is het verstandiger om VM's te draaien wanneer je ze nodig hebt op je hoofdbesturingssysteem zoals Debian waarop je zo'n beetje alles behalve de laatste versies van php kwijt kan.
Ik heb ook niks anders waar ik (tijdelijk) virtuals op kan runnen, m'n data staat op een NAS (Netgear waar geen apps/vm's/dockers e.d. op kunnen draaien) en m'n laptop is een chromebook
Bedoel je dan de M.2 gebruiken voor ESXi zelf + OS-disks van de virtuals met daarnaast binnen het guest-OS mounts op de HDD voor applicatieinstallaties? Dan zou ik eventueel nog af kunnen met 1 HDD en eventueel later een 2e toevoegen (mits dat geen probleem is voor ESXi?).Ja, maar je misschien kunt beter gaan voor een 2.5" 4TB HDD (een extern model zoals Maxtor M3 met intern een gewone SATA disk). Die zijn veel zuiniger voor opslag van data. Besturingssystemen en virtual machine besturingssystemen kun je beter op een SSD zetten.
De DN2800MT was ooit aangekocht voor een ander doel, maar is wat later een beetje manusje van alles geworden en de afgelopen 7 jaar zo gegroeid. Is ook nooit iets op gevirtualiseerd geweest, Debian draait direct op het ijzer. Verder wil ik wel kijken of ik m'n androidbord met Kodi kan vervangen voor een Plex server, waardoor transcoden een goede mogelijkheid gaat worden gezien het streamen.Ik denk dat je de DN2800MT niet teveel credit moet geven, die was toch al niet zo geschikt. Zelfs met een Pentium 5400 ben je al 7 keer sneller. Meer is niet nodig voor een thuisserver. Tenzij je de computer gebruikt voor het renderen van een animatiefilm of transcoden van meerdere 4k streams.
Ook komen er komend jaar wat trainingen van o.a. Citrix Netscaler aan, en thuis klooien en tutorials doorlopen met een eigen virtual lijkt me prettig.
Ik zou inderdaad best kunnen beginnen met 1x 16gb en kijken hoe ver ik kom32 GB is wel meteen erg veel en irrationeel duur. Ik draai Debian met Apache met php/Exim gewoon op 1 GB zonder moeite.
Voor nu is het inderdaad wat overkill, maar ik ken mezelf en als ik eenmaal begin weet ik dat er over een paar maanden een stuk meer op draait. Zo is het ook gegroeid op die DN2800MT en die houdt het nu al 7 jaar vol, maar begint bij een aantal taken merkbaar tekort te komen. Hoop dat iets als dit, op misschien een enkele failure na, weer iets van 7 jaar mee kan
Ondertussen heb ik de lijst wat aangepast; de 2x WD Black is vervangen voor 1x WD Red (beter voor 24/7 en net wat zuiniger), voor de VM OS'en op SSD gekozen voor een wat grotere SSD van 1tb en teruggegaan naar 1x 16gb ram. Later eventueel bijzetten van extra ram en een extra HDD zou geen probleem moeten opleveren?
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-8400 Boxed | € 183,90 | € 183,90 |
1 | WD Red Mobile WD10JFCX, 1TB | € 73,90 | € 73,90 |
1 | ASRock DeskMini 310 | € 169,95 | € 169,95 |
1 | Crucial CT16G4SFD824A | € 146,61 | € 146,61 |
1 | Samsung 960 EVO 1TB | € 330,36 | € 330,36 |
Bekijk collectie Importeer producten | Totaal | € 904,72 |
Ik ben gelukkig enigzins bekend met het principe, gebruik het bijna dagelijks, alleen dan met al compleet uitgewerkte en voorgekauwde LUNs en vnics in iets van 35 vlansEthirty schreef op maandag 13 augustus 2018 @ 21:02:
[...]
Zie het zo: ESXi bevat intern een switch waar al je virtual machines mee verbonden zijn. De nic is je uplink naar de rest van je netwerk. Met meerdere nics kan je dus evenzoveel "fysiek" gescheiden switches binnen je host gebruiken.
Voor wat betreft je disks: ESXI neemt de controle over van je disks en maakt dat een datastore. Je virtual machine geef je een virtuele disk op die datastore. Dus ja, je kan die disks (indirect) gebruiken. Er zijn nog wat andere opties, maar die gaan voor een beginner wellicht wat ver (RDM).
Of je je disks in RAID draait, of allemaal afzonderlijk gebruikt als meerdere datastores bepaald hoe groot je virtual harddisks kunnen worden.
[ Voor 8% gewijzigd door Blerp op 14-08-2018 01:07 ]
Insert vies grapje hier
Ja, SSD voor alle besturingssystemen. M.2 ligt wel voor de hand met het maximum van 2 x SATA disks.Blerp schreef op dinsdag 14 augustus 2018 @ 00:52:
Bedoel je dan de M.2 gebruiken voor ESXi zelf + OS-disks van de virtuals met daarnaast binnen het guest-OS mounts op de HDD voor applicatieinstallaties? Dan zou ik eventueel nog af kunnen met 1 HDD en eventueel later een 2e toevoegen (mits dat geen probleem is voor ESXi?).
Ik ben geen ESXi expert, maar ik denk niet dat er een probleem is om een hele disk of delen ervan voor VM's te gebruiken.
Ja, zou ik zo doen. Het is koffiedik kijken, maar ik vermoed dat geheugen op termijn eerder goedkoper dan duurder wordt.Ik zou inderdaad best kunnen beginnen met 1x 16gb en kijken hoe ver ik kom
Ik zou geen probleem verwachten. Hypervisors zoals ESXi zijn flexibel in het beheer van disks.Ondertussen heb ik de lijst wat aangepast; de 2x WD Black is vervangen voor 1x WD Red (beter voor 24/7 en net wat zuiniger), voor de VM OS'en op SSD gekozen voor een wat grotere SSD van 1tb en teruggegaan naar 1x 16gb ram. Later eventueel bijzetten van extra ram en een extra HDD zou geen probleem moeten opleveren?
Een erg grote SSD is ook niet nodig voor alleen een OS als Linux, ik heb servers onder 2 GB die tot 20 GB disk ruimte kunnen gaan. Op een 250 GB SSD kun je met ruimte over meer dan 10 van dergelijke VM's kwijt. SSD's zijn momenteel hier en daar voor (flink) lagere prijzen te scoren.
Het voordeel van 2.5" t.o.v. 3.5" is dat ze stiller en zuinig (1,1W idle vs 3,3W) zijn en daarom ook weinig warmte produceren. Een Maxtor M3 2.5" 4 TB bevat een SATA disk. Het is niet zo geschikt voor veelvuldig random schrijven, maar voor normaal gebruik met grote of sequentiële bestanden is het prima. De disk heeft een grote cache.
Weet je dat zeker? Ik betaal maar €2 per WJ.mrmrmr schreef op maandag 13 augustus 2018 @ 23:45:
Elke Watt is ca. € 9 per jaar voor een server die altijd aan staat.
Ik krijg als het goed is vandaag mijn setupje binnnen. Ook met deskmini 310, i5 8400 en zelfde ram. Ook zelfde SSD alleen dan 500GB variant. Ik zal je laten weten of alles out of the box werkt qua drivers.Blerp schreef op dinsdag 14 augustus 2018 @ 00:52:
[...]
De packages zijn onder andere php, maar het is me ook al gebeurd dat bv Apache een keer goed hikte waardoor Spotweb, Dashticz (fancy front voor Domoticz) en m'n websites tegelijk onderuit gingen of er bij een distupgrade een hoop te fixen was. Door het iets meer uit elkaar te halen, waarschijnlijk gaat niet letterlijk elke applicatie een eigen vm krijgen, probeer ik het risico op onderhoud wat te spreiden.
Ik heb ook niks anders waar ik (tijdelijk) virtuals op kan runnen, m'n data staat op een NAS (Netgear waar geen apps/vm's/dockers e.d. op kunnen draaien) en m'n laptop is een chromebookVoor SabNZBD, Medusa, Apache, Freeradius en Domoticz is het wel handig als ze 24/7 beschikbaar zijn. Vooral de Freeradius aangezien dat de 2fa voor m'n VPN is.
[...]
Bedoel je dan de M.2 gebruiken voor ESXi zelf + OS-disks van de virtuals met daarnaast binnen het guest-OS mounts op de HDD voor applicatieinstallaties? Dan zou ik eventueel nog af kunnen met 1 HDD en eventueel later een 2e toevoegen (mits dat geen probleem is voor ESXi?).
[...]
De DN2800MT was ooit aangekocht voor een ander doel, maar is wat later een beetje manusje van alles geworden en de afgelopen 7 jaar zo gegroeid. Is ook nooit iets op gevirtualiseerd geweest, Debian draait direct op het ijzer. Verder wil ik wel kijken of ik m'n androidbord met Kodi kan vervangen voor een Plex server, waardoor transcoden een goede mogelijkheid gaat worden gezien het streamen.
Ook komen er komend jaar wat trainingen van o.a. Citrix Netscaler aan, en thuis klooien en tutorials doorlopen met een eigen virtual lijkt me prettig.
[...]
Ik zou inderdaad best kunnen beginnen met 1x 16gb en kijken hoe ver ik kom![]()
Voor nu is het inderdaad wat overkill, maar ik ken mezelf en als ik eenmaal begin weet ik dat er over een paar maanden een stuk meer op draait. Zo is het ook gegroeid op die DN2800MT en die houdt het nu al 7 jaar vol, maar begint bij een aantal taken merkbaar tekort te komen. Hoop dat iets als dit, op misschien een enkele failure na, weer iets van 7 jaar mee kan
Ondertussen heb ik de lijst wat aangepast; de 2x WD Black is vervangen voor 1x WD Red (beter voor 24/7 en net wat zuiniger), voor de VM OS'en op SSD gekozen voor een wat grotere SSD van 1tb en teruggegaan naar 1x 16gb ram. Later eventueel bijzetten van extra ram en een extra HDD zou geen probleem moeten opleveren?
# Product Prijs Subtotaal 1 Intel Core i5-8400 Boxed € 183,90 € 183,90 1 WD Red Mobile WD10JFCX, 1TB € 73,90 € 73,90 1 ASRock DeskMini 310 € 169,95 € 169,95 1 Crucial CT16G4SFD824A € 146,61 € 146,61 1 Samsung 960 EVO 1TB € 330,36 € 330,36 Bekijk collectie
Importeer productenTotaal € 904,72
[...]
Ik ben gelukkig enigzins bekend met het principe, gebruik het bijna dagelijks, alleen dan met al compleet uitgewerkte en voorgekauwde LUNs en vnics in iets van 35 vlansVroeg me meer af of dat met een single gedeelde NIC en storage die lokaal in hetzelfde systeem staat anders is. Mede omdat na wat lezen leek alsof niet alle NICs ondersteund zijn
Ik vergiste me, het is inderdaad 2 euro per Watt per jaar.TommyboyNL schreef op dinsdag 14 augustus 2018 @ 10:02:
[...]
Weet je dat zeker? Ik betaal maar €2 per WJ.
WJ is WattJoule, een leuke eenheid want W = J / s (Joule per seconde).
Wat is jullie ervaring met dit doosje?
pricewatch: Zotac ZBOX CI327 nano
Het is wat krap, maar ik kan voor iets meer dan €200,- hiermee een eenvoudige extra hypervisor bouwen. Over een paar jaar wil ik dan upgraden naar 1 dikkere, zuinige hypervisor met 32G of zelfs 64G. (Hij komt als 2e hypervisor te draaien naast mijn Microserver Gen8 met G1610T.)
pricewatch: Zotac ZBOX CI327 nano
Het is wat krap, maar ik kan voor iets meer dan €200,- hiermee een eenvoudige extra hypervisor bouwen. Over een paar jaar wil ik dan upgraden naar 1 dikkere, zuinige hypervisor met 32G of zelfs 64G. (Hij komt als 2e hypervisor te draaien naast mijn Microserver Gen8 met G1610T.)
Ná Scaoll. - Don’t Panic.
Ik heb een CI323 liggen. Poos gebruikt als router, maar de Realtek netwerkkaarten daarin waren niet super stabiel onder BSD (pfSense). Overgestapt op een chinees doosje met een Celeron J1900 met 4 Intel NIC's.
Mocht je daar naar kijken, de CI329 komt binnenkort uit, nieuwere generatie.
Veel van die bakjes geven aan dat ze maar 8GB geheugen slikken, maar ik hoor van diverse kanalen dat 16GB ook zou moeten kunnen. Nog niet kunnen verifieren overigens.
Mocht je daar naar kijken, de CI329 komt binnenkort uit, nieuwere generatie.
Veel van die bakjes geven aan dat ze maar 8GB geheugen slikken, maar ik hoor van diverse kanalen dat 16GB ook zou moeten kunnen. Nog niet kunnen verifieren overigens.
Even niets...
Of WattJaarmrmrmr schreef op dinsdag 14 augustus 2018 @ 12:29:
[...]
Ik vergiste me, het is inderdaad 2 euro per Watt per jaar.
WJ is WattJoule, een leuke eenheid want W = J / s (Joule per seconde).
Wat ga je er op draaien? Voor bijna alle workloads zou ik het niet doen, met 4 threads actief is de performance per thread tussen een P4 1.8 en 2GHz, dan hebben we het over performance zoals we 16,5 jaar geleden hadden, al maakt AES-NI voor sommige workloads natuurlijk wel weer wat goed...unezra schreef op dinsdag 14 augustus 2018 @ 12:34:
Wat is jullie ervaring met dit doosje?
pricewatch: Zotac ZBOX CI327 nano
Het is wat krap, maar ik kan voor iets meer dan €200,- hiermee een eenvoudige extra hypervisor bouwen. Over een paar jaar wil ik dan upgraden naar 1 dikkere, zuinige hypervisor met 32G of zelfs 64G. (Hij komt als 2e hypervisor te draaien naast mijn Microserver Gen8 met G1610T.)
[ Voor 14% gewijzigd door |sWORDs| op 14-08-2018 13:45 ]
Te Koop:24 Core Intel Upgradeset
Hmmm.FireDrunk schreef op dinsdag 14 augustus 2018 @ 12:45:
Ik heb een CI323 liggen. Poos gebruikt als router, maar de Realtek netwerkkaarten daarin waren niet super stabiel onder BSD (pfSense). Overgestapt op een chinees doosje met een Celeron J1900 met 4 Intel NIC's.
Mocht je daar naar kijken, de CI329 komt binnenkort uit, nieuwere generatie.
Veel van die bakjes geven aan dat ze maar 8GB geheugen slikken, maar ik hoor van diverse kanalen dat 16GB ook zou moeten kunnen. Nog niet kunnen verifieren overigens.
Ik weet niet of ik de tijd heb om te wachten op de CI329. Voor eind september moet ik mijn eigen VM weg hebben gemigreerd naar huis en ik kom geheugen te kort. Het kan zijn dat ik het nét red, zeker als ik nog wat ga throttlen daar en andere vm's minder geheugen geef, maar het kan ook zijn dat ik het níet red.
8G is an-sich prima, waarschijnlijk zet ik er dan een vm of 4 op, waarvan 1 iets zwaardere.
Paar Linux vm's. Ik kan de load verdelen tussen een G1610T HP Microserver Gen8 en een 2e doosje, waarbij het extra doosje de lichtste load krijgt. Er draaien wat kleine dingen zoals DNS en DHCP thuis, verder een paar webservers en een gecombineerde web/shellserver.|sWORDs| schreef op dinsdag 14 augustus 2018 @ 13:35:
[...]
Wat ga je er op draaien? Voor bijna alle workloads zou ik het niet doen, met 4 threads actief is de performance per thread tussen een P4 1.8 en 2GHz, dan hebben we het over performance zoals we 16,5 jaar geleden hadden, al maakt AES-NI voor sommige workloads natuurlijk wel weer wat goed...
De doos die ik eigenlijk wil kost €1000+ en vervangt zowel mijn NAS als mijn huidige hypervisor. (FreeNAS gevirtualiseerd binnen een hypervisor.) Dat geld heb ik er nu niet voor over. Op dit moment wil ik een off-the-shelf (of barebone) doosje met minimaal 2x GBit ethernet, energiezuinig. Storage is op een M.2 of 2,5" SATA SSD voor het OS na niet nodig. (Dus 60G is al zat.)
Een Intel NUC zou ideaal zijn maar die dingen hebben geen 2x ethernet en Ethernet USB vind ik héél naar.
Liefst geef ik er niet meer dan €200, €250 aan uit, all-in.
Ná Scaoll. - Don’t Panic.
2x 1Gbit is dan eigenlijk ook overdreven, tenzij je een purist bent qua functionele scheiding, ga je mij niet vertellen dat je een doosje met zo'n CPU, continue 2 gigabit verbindingen vol laat blaffen...
USB3(.1) NIC's schijnen al best goed te zijn qua performance overigens. Hardware.info heeft er recentelijk een aantal getest, en dat viel niet tegen.
USB3(.1) NIC's schijnen al best goed te zijn qua performance overigens. Hardware.info heeft er recentelijk een aantal getest, en dat viel niet tegen.
Even niets...
Nee, maar mijn data staat op mijn NAS.FireDrunk schreef op dinsdag 14 augustus 2018 @ 15:53:
2x 1Gbit is dan eigenlijk ook overdreven, tenzij je een purist bent qua functionele scheiding, ga je mij niet vertellen dat je een doosje met zo'n CPU, continue 2 gigabit verbindingen vol laat blaffen...
NFS en LAN verkeer over 1 interface is geen fijne combinatie dus dat wil ik absoluut scheiden. (Mijn reguliere Microserver heeft zelfs 2x GBit voor NFS en 2x GBit voor LAN, da's leuk voor mijn €1000+ server maar niet voor nu om dit acute probleem op te lossen.)
Klopt, maar het kost weer CPU power en een USB connector vind ik nogal eng. Voor LAN kán het nog wel, voor NFS vind ik het geen optie.USB3(.1) NIC's schijnen al best goed te zijn qua performance overigens. Hardware.info heeft er recentelijk een aantal getest, en dat viel niet tegen.
Ná Scaoll. - Don’t Panic.
Ik draai echt al jaaaren NFS en LAN traffic naast elkaar. Nog _nooit_ last mee gehad... Ik snap die angst totaal niet.
Maar goed, lekker zelf weten. Persoonlijk heb ik liever 1 Intel nic op een fatsoenlijk serverplankje dan 2 realtek nics op een hobby bob mini pc...
Just my 2 cents...
Maar goed, lekker zelf weten. Persoonlijk heb ik liever 1 Intel nic op een fatsoenlijk serverplankje dan 2 realtek nics op een hobby bob mini pc...
Just my 2 cents...
Even niets...
Vreemd, want hij staat wel in de HCL.Aschtra schreef op dinsdag 14 augustus 2018 @ 17:37:
@Blerp
Hij pakt de netwerk drivers niet out of the box. ESXI 6.7
Insert vies grapje hier
Kun je dan niet veel beter die 200-250 niet uitgeven, de Microserver in de V&A knallen en iets net er tussen in nemen?unezra schreef op dinsdag 14 augustus 2018 @ 15:44:
[...]
Paar Linux vm's. Ik kan de load verdelen tussen een G1610T HP Microserver Gen8 en een 2e doosje, waarbij het extra doosje de lichtste load krijgt. Er draaien wat kleine dingen zoals DNS en DHCP thuis, verder een paar webservers en een gecombineerde web/shellserver.
De doos die ik eigenlijk wil kost €1000+ en vervangt zowel mijn NAS als mijn huidige hypervisor. (FreeNAS gevirtualiseerd binnen een hypervisor.) Dat geld heb ik er nu niet voor over. Op dit moment wil ik een off-the-shelf (of barebone) doosje met minimaal 2x GBit ethernet, energiezuinig. Storage is op een M.2 of 2,5" SATA SSD voor het OS na niet nodig. (Dus 60G is al zat.)
Een Intel NUC zou ideaal zijn maar die dingen hebben geen 2x ethernet en Ethernet USB vind ik héél naar.
Liefst geef ik er niet meer dan €200, €250 aan uit, all-in.
Te Koop:24 Core Intel Upgradeset
Zou ie de driver in stand houden bij een upgrade van 6.5 U2 naar 6.7 GA denk je?Aschtra schreef op dinsdag 14 augustus 2018 @ 18:02:
[...]
ESXi 6.5Update 2 installeert wel gewoon goed. Deze heeft een nieuwere versie zo te zien
Insert vies grapje hier
Persoonlijk heb ik liever een energiezuinige server met 6xGBit Ethernet of zelfs 10G, een 8-core CPU en voldoende drivebays om hypervisor en NAS te combineren zodat ik geen aparte NFS interfaces wil hebben.FireDrunk schreef op dinsdag 14 augustus 2018 @ 17:18:
Ik draai echt al jaaaren NFS en LAN traffic naast elkaar. Nog _nooit_ last mee gehad... Ik snap die angst totaal niet.
Maar goed, lekker zelf weten. Persoonlijk heb ik liever 1 Intel nic op een fatsoenlijk serverplankje dan 2 realtek nics op een hobby bob mini pc...
Just my 2 cents...
Moet zeggen, ik zit even te rekenen en wellicht dat ik het inderdaad nog een jaartje uit stel. Zo'n Microserver zou rond de 40W moeten doen met enkel een SSD er in. Da's goed voor ~€80,- per jaar. Ga ik voor een server die de helft verbruikt, scheelt me dat €40,- per jaar. Om nu 1 tijdelijke oplossing van €300 er uit te krijgen moet ik dat ding 7,5 jaar laten draaien.|sWORDs| schreef op dinsdag 14 augustus 2018 @ 17:55:
[...]
Kun je dan niet veel beter die 200-250 niet uitgeven, de Microserver in de V&A knallen en iets net er tussen in nemen?
Misschien dat ik dan idd beter nu mijn Microserver aan kan zetten (die is al fully loaded én heeft een relatief rappe G1610T CPU) en over 1-2 jaar het hele spul (3 Microservers) kan vervangen door 2 energiezuinige doosjes waarvan 1 hypervisor is en wat meer CPU power en geheugen heeft en de ander zuiver voor backups is, dus wat minder geheugen en CPU power nodig heeft.
Ná Scaoll. - Don’t Panic.
Weet niet wat je allemaal van plan bent, maar niemand heeft dat thuis nódig, hooguit "nodig".unezra schreef op dinsdag 14 augustus 2018 @ 18:10:
[...]
Persoonlijk heb ik liever een energiezuinige server met 6xGBit Ethernet of zelfs 10G, een 8-core CPU en voldoende drivebays om hypervisor en NAS te combineren zodat ik geen aparte NFS interfaces wil hebben.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
* Raven mompelt iets over X11SDV-8C-TP8Funezra schreef op dinsdag 14 augustus 2018 @ 18:10:
[...]
Persoonlijk heb ik liever een energiezuinige server met 6xGBit Ethernet of zelfs 10G, een 8-core CPU:)

Hier wat meer info en pics over de 16 core variant met dezelfde features, zoals

- Dual LAN with 10G SFP+ LAN via SoC
- Dual LAN with 10Gbase-T
(De 9e is dacht ik voor IPMI)
[ Voor 4% gewijzigd door Raven op 14-08-2018 19:47 ]
After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...
Oscar Wilde
€1500-1600 dacht ik...
After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...
Oscar Wilde
Ik heb thuis ook geen Ryzen 1800X met 64G en de nodige RGB nódig.Ethirty schreef op dinsdag 14 augustus 2018 @ 19:08:
[...]
Weet niet wat je allemaal van plan bent, maar niemand heeft dat thuis nódig, hooguit "nodig".
Toch heb ik zo'n doos naast me staan en ben ik er heel blij mee.
Wel wil ik volgend jaar wat spul gaan vereenvoudigen alleen kost dat meer geld dan ik er op dit moment voor over heb én wil ik zoiets goed voorbereiden. Nu heb ik een paar G geheugen te kort voor een vm die tussen nu en 6 weken verplaatst moet zijn.
Dus kies ik tóch voor het uit het stof trekken van mijn Microserver Gen8 en ga ik daarna eens rustig nadenken over waar ik heen ga. (Qua migratie moet dat redelijk goed te doen zijn. 3e PVE node naast de huidige 2, vm's overtanken, FreeNAS virtualiseren, zooi uitzetten en either hergebruiken danwel op Q&A donderen danwel in de kast stof laten happen.)
Zoiets inderdaad, voorzien van 64G geheugen of meer en de nodige storage.Raven schreef op dinsdag 14 augustus 2018 @ 19:39:
[...]
* Raven mompelt iets over X11SDV-8C-TP8F![]()
Hier wat meer info en pics over de 16 core variant met dezelfde features, zoals
[afbeelding]- Quad LAN with Intel® Ethernet Controller I350-AM4
- Dual LAN with 10G SFP+ LAN via SoC
- Dual LAN with 10Gbase-T
(De 9e is dacht ik voor IPMI)
Mja, dat is dan wel weer boven hetgeen ik er op dat moment aan wil uitgeven denk ik. Zo te zien is dat bedrag kaal. Maar €1000 - €1500 lijkt me tegen die tijd niet zo'n heel groot probleem voor een doos inclusief geheugen, exclusief storage.
[ Voor 39% gewijzigd door unezra op 14-08-2018 20:25 ]
Ná Scaoll. - Don’t Panic.
Kijk anders eens naar andere bordjes uit die serie, er zijn er wat met (iets) minder cores en lager prijskaartje, maar ook met minder NIC's...unezra schreef op dinsdag 14 augustus 2018 @ 20:22:
[...]
Mja, dat is dan wel weer boven hetgeen ik er op dat moment aan wil uitgeven denk ik. Zo te zien is dat bedrag kaal. Maar €1000 - €1500 lijkt me tegen die tijd niet zo'n heel groot probleem voor een doos inclusief geheugen, exclusief storage.
After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...
Oscar Wilde
Als je een redelijk budget hebt: Ik ben zelf heel tevreden over een T130. Zou nu wachten op een nieuwer platform maar de entree servers zijn eigenlijk ook erg betaalbaar tov zelfbouw.unezra schreef op dinsdag 14 augustus 2018 @ 20:22:
[...]
Mja, dat is dan wel weer boven hetgeen ik er op dat moment aan wil uitgeven denk ik. Zo te zien is dat bedrag kaal. Maar €1000 - €1500 lijkt me tegen die tijd niet zo'n heel groot probleem voor een doos inclusief geheugen, exclusief storage.
Wordt zeker bij de nieuwe generatie leuk - met ook bij intel de mogelijkheid om te upgraden naar 8 cores.
Hmm, is zoiets nog een beetje zuinig te krijgen, of is het een 200W monster?ANdrode schreef op woensdag 15 augustus 2018 @ 11:35:
[...]
Als je een redelijk budget hebt: Ik ben zelf heel tevreden over een T130. Zou nu wachten op een nieuwer platform maar de entree servers zijn eigenlijk ook erg betaalbaar tov zelfbouw.
Wordt zeker bij de nieuwe generatie leuk - met ook bij intel de mogelijkheid om te upgraden naar 8 cores.
Budget is er tegen die tijd zeker wel. Daarom stel ik het ook even uit en ik heb zeker een voorkeur voor off-the-shelf boven zelfbouw.
Ná Scaoll. - Don’t Panic.
Hier ook maar eens een post wagen. Op dit moment ben ik opzoek naar een nieuwe thuisserver. De huidige wordt inmiddels te traag en loopt tegen zijn limieten aan. Op dit moment wordt de server gebruikt voor verschillende doeleinden. Fileserver staat er los naast in de vorm een van Synology. Nu vraag ik mij af of die dubbele NIC voor mijn doeleinden nodig is (misschien later voor pfSense?). Voor mijn gevoel persoonlijk niet, maar ik vraag het toch even na.
Op dit moment draait er het volgende:
1x Kali Linux,
1x Plesk,
1x Sonarr,
1x Autosub,
1x Home-Assistant,
1x Windows 10,
3x Windows Server 2016
Ik heb natuurlijk al even rondgekeken in dit topic om te kijken, wat de mogelijkheden zijn. Zo'n Deskmini zoals hierboven meerdere malen geopperd ziet er goed uit en eenvoudig te verbergen met een vesa mount. Daarnaast heb ik ook snel even een eigen build in elkaar gezet. Nu vraag ik mij wel af op de 'eigen' build, een 80W picopsu voldoende is om het systeem te trekken? De i5 trekt namelijk onder full load (volgens anandtech) 49W trekt.
'Eigen build'
Deskmini
Op dit moment draait er het volgende:
1x Kali Linux,
1x Plesk,
1x Sonarr,
1x Autosub,
1x Home-Assistant,
1x Windows 10,
3x Windows Server 2016
Ik heb natuurlijk al even rondgekeken in dit topic om te kijken, wat de mogelijkheden zijn. Zo'n Deskmini zoals hierboven meerdere malen geopperd ziet er goed uit en eenvoudig te verbergen met een vesa mount. Daarnaast heb ik ook snel even een eigen build in elkaar gezet. Nu vraag ik mij wel af op de 'eigen' build, een 80W picopsu voldoende is om het systeem te trekken? De i5 trekt namelijk onder full load (volgens anandtech) 49W trekt.
'Eigen build'
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-8400 Boxed | € 183,90 | € 183,90 |
1 | Gigabyte B360N WIFI (rev 1.0) | € 96,50 | € 96,50 |
1 | Cooltek C2 Zwart | € 46,50 | € 46,50 |
1 | Crucial CT16G4SFD824A | € 146,99 | € 146,99 |
1 | Mini-box picoPSU 90 + 80W Adapter Power Kit | € 60,50 | € 60,50 |
1 | Samsung 970 Evo 500GB | € 159,90 | € 159,90 |
Bekijk collectie Importeer producten | Totaal | € 694,29 |
Deskmini
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-8400 Boxed | € 183,90 | € 183,90 |
1 | ASRock DeskMini 310 | € 169,95 | € 169,95 |
1 | Crucial CT16G4SFD824A | € 146,99 | € 146,99 |
1 | Samsung 970 Evo 500GB | € 159,90 | € 159,90 |
Bekijk collectie Importeer producten | Totaal | € 660,74 |
Ik denk niet dat je er gaat geraken met 16GB voor alles parallel te draaien.
De deskmini config zou ik ook nemen mocht ik nu een server nodig hebben maar dan met een i3.
De deskmini config zou ik ook nemen mocht ik nu een server nodig hebben maar dan met een i3.
Net wel, niet als ik het goed heb uitgerekend. Windows 1GB, 3x Server 2016 6GB totaal, Plesk, Sonar, Autosub 1.5GB totaal, Kali 2GB, Home Assistant 1GB. Dat is 10.5GB totaal. Dan zou er nog rond de 5/5,5GB overblijven voor ESXi zelf, waarbij eventueel de server 2016 machines nog wat kleiner kunnen naar 3GB totaal.Yarisken schreef op woensdag 15 augustus 2018 @ 21:32:
Ik denk niet dat je er gaat geraken met 16GB voor alles parallel te draaien.
De deskmini config zou ik ook nemen mocht ik nu een server nodig hebben maar dan met een i3.
[ Voor 7% gewijzigd door T-Ri op 15-08-2018 22:10 ]
Esxi gebruikt niet veel. Zonder sql, exchange, sharepoint etc.. is 2GB per server 2016 vm voldoende ;-).T-Ri schreef op woensdag 15 augustus 2018 @ 22:10:
[...]
Net wel, niet als ik het goed heb uitgerekend. Windows 1GB, 3x Server 2016 6GB totaal, Plesk, Sonar, Autosub 1.5GB totaal, Kali 2GB, Home Assistant 1GB. Dat is 10.5GB totaal. Dan zou er nog rond de 5/5,5GB overblijven voor ESXi zelf, waarbij eventueel de server 2016 machines nog wat kleiner kunnen naar 3GB totaal.
Kali gaat heel traag werken met 2GB.
Soit je kan altijd latje bijsteken.
dit nu draaiend met ESXi 6.5 Update 2. Momenteel maar 1 kleine VM erop door gebrek aan tijd. Hoop komende week wat meer VM's erop te kunnen zetten. alles van de DSM verhuizen naar de ESXiAschtra schreef op maandag 13 augustus 2018 @ 08:43:
Vanmiddag dit systeempje bestellen:
# Product Prijs Subtotaal 1 Intel Core i5-8400 Boxed € 183,90 € 183,90 1 ASRock DeskMini 310 € 169,95 € 169,95 1 Crucial CT16G4SFD824A € 146,61 € 146,61 1 Samsung 970 Evo 500GB € 159,90 € 159,90 Bekijk collectie
Importeer productenTotaal € 660,36
Ben benieuwd van de week!
Kun je eens meten wat het verbruik is zonder VM's geladen?Aschtra schreef op donderdag 16 augustus 2018 @ 12:54:
dit nu draaiend met ESXi 6.5 Update 2. Momenteel maar 1 kleine VM erop door gebrek aan tijd. Hoop komende week wat meer VM's erop te kunnen zetten. alles van de DSM verhuizen naar de ESXi
Met SSD, USB toetsenbord, USB muis en monitor op slaapstand, zonder HDD's en andere extra's. Zodoende kunnen we vergelijken.
Als je nog geen energiemeter hebt, kun je hier een paar vinden.
T130 met 4x 16GB ECC gebruiker +- 15W idle (met 3 SSD's die idle ongeveer nul verbruiken). Vond ik erg acceptabel!unezra schreef op woensdag 15 augustus 2018 @ 15:23:
[...]
Hmm, is zoiets nog een beetje zuinig te krijgen, of is het een 200W monster?
Budget is er tegen die tijd zeker wel. Daarom stel ik het ook even uit en ik heb zeker een voorkeur voor off-the-shelf boven zelfbouw.
Zelfbouw is leuk maar wat betreft kosten en benodigde tijdsinvestering was dit een erg goede machine. Enige echte limitatie is dat ik met sol terminal moet werken in plaats van een GUI via de web interface. Daar kan ik bij een moederbord met console redirection echter eigenlijk wel mee leven.
Mijn bestelling ook maar gedaan. Het is uiteindelijk deze set geworden. Voor die 20/25 euro meer heb ik graag die extra NIC om pfSense te gaan draaien.
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-8400 Boxed | € 185,- | € 185,- |
1 | Gigabyte B360N WIFI (rev 1.0) | € 97,50 | € 97,50 |
1 | Sharkoon CA-I Zwart | € 41,04 | € 41,04 |
1 | Crucial CT16G4DFD824A | € 139,90 | € 139,90 |
1 | Mini-box picoPSU 90 + 80W Adapter Power Kit | € 60,50 | € 60,50 |
1 | Samsung 970 Evo 500GB | € 139,90 | € 139,90 |
Bekijk collectie Importeer producten | Totaal | € 663,84 |
@T-Ri Je kan natuurlijk ook een andere firewall draaien zoals OPNSense. Zelf draai ik al een half jaar Sophos XG, zeer overzichtelijk en enterprise opties welke je niet in pfSense terug vind. 
Streacom FC7 is inmiddels verhuist van zolder naar de woonkamer, heb er een slim 80mm fan ingezet, hij is nu bijna onhoorbaar.
Streacom FC7 is inmiddels verhuist van zolder naar de woonkamer, heb er een slim 80mm fan ingezet, hij is nu bijna onhoorbaar.
Whatever.
Kun jij gewoon starten met de voeding ? Heb ongeveer dezelfde setup, maar booten gaat er lastig... (Voeding denk ik )T-Ri schreef op donderdag 16 augustus 2018 @ 16:53:
Mijn bestelling ook maar gedaan. Het is uiteindelijk deze set geworden. Voor die 20/25 euro meer heb ik graag die extra NIC om pfSense te gaan draaien.
# Product Prijs Subtotaal 1 Intel Core i5-8400 Boxed € 183,90 € 183,90 1 Gigabyte B360N WIFI (rev 1.0) € 96,50 € 96,50 1 Sharkoon CA-I Zwart € 41,04 € 41,04 1 Crucial CT16G4SFD824A € 146,99 € 146,99 1 Mini-box picoPSU 90 + 80W Adapter Power Kit € 60,50 € 60,50 1 Samsung 970 Evo 500GB € 159,90 € 159,90 Bekijk collectie
Importeer productenTotaal € 688,83
Dit start prima bij mij. Heb overigens wel de adapter en Picopsu los van elkaar gekocht. Wat gaat er precies mis? Wat is je exacte setup?kariem112 schreef op vrijdag 31 augustus 2018 @ 20:57:
[...]
Kun jij gewoon starten met de voeding ? Heb ongeveer dezelfde setup, maar booten gaat er lastig... (Voeding denk ik )
Exact dezelfde componenten als jij, behalve het geheugen (16gb Kingston). Verder geen externe apparatuur aangesloten. De processor fan blijft aan/uit/aan/uit gaan. Na enkele minuten (meestal ) boot hij gewoon...T-Ri schreef op vrijdag 31 augustus 2018 @ 21:22:
[...]
Dit start prima bij mij. Heb overigens wel de adapter en Picopsu los van elkaar gekocht. Wat gaat er precies mis? Wat is je exacte setup?
Even een tip voor mensen met een (te nieuwe) Intel I219V (Danwel I219-V voor zoekresultaten
)
Afgelopen week begonnen met de upgrade van mijn oude i3-6100 6th gen, die wat aan zijn limieten begon te komen. Huidige moederbord kon maximaal 7th gen aan, en ik wilde naar een i5-8400 8th gen gaan. Dus nieuw moederbord uitgezocht, uitgekomen op pricewatch: ASRock H370M-ITX/ac
Die heeft 2 netwerkkaarten, Intel I211AT en een Intel I219V. En die laatste is wat kieskeurig.
De I219V was ooit niet ondersteund in ESXi, en later weer wel. Dus geen probleem dacht ik. Totdat ik ESXi 6.7 installeerde en maar 1 netwerkkaart zag.
Naar nu blijkt zijn er verschillende I219V's "generaties" in omloop. Mijn type is (Denk ik) generatie 7, en heeft als vendor/device ID: 8086:15bc.
Volgens VMWare is deze native in ESXi 6.5 U2 ondersteund, maar niet in 6.7:
https://www.vmware.com/re...&productid=45884&vcl=true
Dus installeer eerst ESXi 6.5 U2, en update daarna naar 6.7. Zelf getest met de huidige laatste versie, ESXi-6.7.0-20180804001-standard. En daarin werkt hij nog steeds. Hopen dat dit in de toekomst zo blijft.
Volgens verschillende internet pagina's zou het ook moeten werken door op ESX 6.7 handmatig een oudere versie van de e1000e driver te installeren en de ne1000 uit te schakelen, maar om één of andere reden had dat bij mij geen effect. Een clean install 6.5 U2 met upgrade wel.
Afgelopen week begonnen met de upgrade van mijn oude i3-6100 6th gen, die wat aan zijn limieten begon te komen. Huidige moederbord kon maximaal 7th gen aan, en ik wilde naar een i5-8400 8th gen gaan. Dus nieuw moederbord uitgezocht, uitgekomen op pricewatch: ASRock H370M-ITX/ac
Die heeft 2 netwerkkaarten, Intel I211AT en een Intel I219V. En die laatste is wat kieskeurig.
De I219V was ooit niet ondersteund in ESXi, en later weer wel. Dus geen probleem dacht ik. Totdat ik ESXi 6.7 installeerde en maar 1 netwerkkaart zag.
Naar nu blijkt zijn er verschillende I219V's "generaties" in omloop. Mijn type is (Denk ik) generatie 7, en heeft als vendor/device ID: 8086:15bc.
code:
1
2
3
4
5
6
| lspci -v | grep "Class 0200" -B 1 0000:00:1f.6 Ethernet controller Network controller: Intel Corporation Ethernet Connection (7) I219-V Class 0200: 8086:15bc -- 0000:01:00.0 Ethernet controller Network controller: Intel Corporation I211 Gigabit Network Connection [vmnic0] Class 0200: 8086:1539 |
Volgens VMWare is deze native in ESXi 6.5 U2 ondersteund, maar niet in 6.7:
https://www.vmware.com/re...&productid=45884&vcl=true
Dus installeer eerst ESXi 6.5 U2, en update daarna naar 6.7. Zelf getest met de huidige laatste versie, ESXi-6.7.0-20180804001-standard. En daarin werkt hij nog steeds. Hopen dat dit in de toekomst zo blijft.
code:
1
2
3
4
5
| esxcli network nic list Name PCI Device Driver Admin Status Link Status Speed Duplex MAC Address MTU Description ------ ------------ ------ ------------ ----------- ----- ------ ----------------- ---- ------------------------------------------------- vmnic0 0000:00:1f.6 ne1000 Up Down 0 Half 70:85:c2:7a:7d:26 1500 Intel Corporation Ethernet Connection (7) I219-V vmnic1 0000:01:00.0 igbn Up Up 1000 Full 70:85:c2:7a:7d:24 1500 Intel Corporation I211 Gigabit Network Connection |
Volgens verschillende internet pagina's zou het ook moeten werken door op ESX 6.7 handmatig een oudere versie van de e1000e driver te installeren en de ne1000 uit te schakelen, maar om één of andere reden had dat bij mij geen effect. Een clean install 6.5 U2 met upgrade wel.
Blog | PVOutput Zonnig Beuningen
Heren, Ik wil de volgende configuratie gaan aanschaffen om een ESXi server mee te bouwen. (voor studie doeleinde en als backend voor Citrix Xendesktop (ook studie))
Ik vroeg me af of deze hardware idd in de kast past en of het ESXi compatible is. Er komt nog een 840Pro in en een WD RED 3GB.
Daarnaast ben ik benieuwd of het compatible is met XenServer. (misschien dat ik nog een 2de aanschaf en met XenMotion kan spelen) Heb nog een WD RES 3GB liggen en een 840Pro.
Ik twijfel nog over een processor cooler... iemand een tip?
Ik vroeg me af of deze hardware idd in de kast past en of het ESXi compatible is. Er komt nog een 840Pro in en een WD RED 3GB.
Daarnaast ben ik benieuwd of het compatible is met XenServer. (misschien dat ik nog een 2de aanschaf en met XenMotion kan spelen) Heb nog een WD RES 3GB liggen en een 840Pro.
Ik twijfel nog over een processor cooler... iemand een tip?
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-8400 Boxed | € 185,- | € 185,- |
1 | Gigabyte B360N WIFI (rev 1.0) | € 97,50 | € 97,50 |
1 | Cooler Master Elite 110 | € 40,84 | € 40,84 |
2 | Noctua NF-A8 PWM, 80mm | € 15,75 | € 31,50 |
1 | Crucial CT16G4DFD824A | € 139,90 | € 139,90 |
1 | Corsair SF450 | € 78,50 | € 78,50 |
Bekijk collectie Importeer producten | Totaal | € 573,24 |
[ Voor 6% gewijzigd door Relaxed2000 op 05-09-2018 22:40 . Reden: Verkeerde gegevens ]
Ik ben bang dat ik het antwoord al weet... maar vraag aan jullie toch voor een oplossing 
Ik heb een minidesktop als vmware server(tje). i5 quadcore, 16GB ram, 256GB SSD. Ruim voldoende voor wat ik er mee doe.
Een van mijn VM's is voor Home Assistant (linux). Ik heb een USB zwave stick voor mijn zwave devices, welke via passthrough wordt doorgegeven aan mijn VM. Werkt allemaal prima.
Nu wil ik er graag een USB schijf er aan hangen voor extra storage. Nu voelen de meeste hem al aan komen: usbarbitrator
Om gebruik te maken van passthrough moet usbarbitrator aan staan.
Om gebruik te maken van usb datastore moet usbarbitrator uit staan.
Ik wil graag beide,... is er een oplossing of workaround hier voor?
Goedkoopste oplossing is om een RPi te kopen voor mijn Home Assistant, maar ik vind juist het gebruik maken van snapshots fijn, plus wil het liefst alles op 1 servertje draaien.
Ik zou een grotere SSD kunnen kopen, maar heb een Sandisk Extreme liggen welke groot en snel genoeg is.
Ik heb een minidesktop als vmware server(tje). i5 quadcore, 16GB ram, 256GB SSD. Ruim voldoende voor wat ik er mee doe.
Een van mijn VM's is voor Home Assistant (linux). Ik heb een USB zwave stick voor mijn zwave devices, welke via passthrough wordt doorgegeven aan mijn VM. Werkt allemaal prima.
Nu wil ik er graag een USB schijf er aan hangen voor extra storage. Nu voelen de meeste hem al aan komen: usbarbitrator
Om gebruik te maken van passthrough moet usbarbitrator aan staan.
Om gebruik te maken van usb datastore moet usbarbitrator uit staan.
Ik wil graag beide,... is er een oplossing of workaround hier voor?
Goedkoopste oplossing is om een RPi te kopen voor mijn Home Assistant, maar ik vind juist het gebruik maken van snapshots fijn, plus wil het liefst alles op 1 servertje draaien.
Ik zou een grotere SSD kunnen kopen, maar heb een Sandisk Extreme liggen welke groot en snel genoeg is.
Hoeveel USB controllers heeft het bord, en wordt PCI passthrough ondersteund?
Hoe mini is de PC? Past er geen 2e 2.5" schijf of een M.2 SSD in?
Hoe mini is de PC? Past er geen 2e 2.5" schijf of een M.2 SSD in?
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Nope er past geen 2e hdd bij. En volgens mij heeft deze mini-pc maar 1 usb controller.Paul schreef op maandag 24 september 2018 @ 12:48:
Hoeveel USB controllers heeft het bord, en wordt PCI passthrough ondersteund?
Hoe mini is de PC? Past er geen 2e 2.5" schijf of een M.2 SSD in?
Wel weet ik dat er 4 USB3 poorten op zitten (2 voor en 2 achter) en 2 USB2 poorten (achter).
Als dat 2 verschillende controlers zijn... dat weet ik niet
Even ingelogd en gekeken:
8 Series/C220 Series Chipset Family USB EHCI #1
ID 0000:00:1d.0
Device ID 0x8c26
8 Series/C220 Series Chipset Family USB EHCI #2
ID 0000:00:1a.0
Device ID 0x8c2d
Dat zouden er 2 kunnen zijn... 1 voor de USB2 en 1 voor de USB3

Bus 003 Device 004: ID 0bda:0129 Realtek Semiconductor Corp. RTS5129 Card Reader Controller Bus 003 Device 003: ID 0951:1665 Kingston Technology Digital DataTraveler SE9 64GB Bus 003 Device 002: ID 0658:0200 Sigma Designs, Inc. Bus 002 Device 002: ID 8087:8000 Intel Corp. Bus 001 Device 002: ID 8087:8008 Intel Corp. Bus 004 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub Bus 003 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub Bus 002 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
[ Voor 54% gewijzigd door iMars op 24-09-2018 13:16 ]
Ik heb het probleem met usb opgelost door de usb schijf door te geven aan de VM welke als fileserver werkt.
Op de fileserver heb ik shares aangemaakt om de data overal aan te kunnen.
Voor mij een werkbare oplossing, al had ik het liever anders gehad. Nu kan ik geen VM's op de usb schijf zetten.
Op de fileserver heb ik shares aangemaakt om de data overal aan te kunnen.
Voor mij een werkbare oplossing, al had ik het liever anders gehad. Nu kan ik geen VM's op de usb schijf zetten.
Al een idee of dat dit goed werkt? Ben zelf aan het zoeken naar een vervanger voor mij NUC systeempje.Relaxed2000 schreef op woensdag 5 september 2018 @ 21:13:
Heren, Ik wil de volgende configuratie gaan aanschaffen om een ESXi server mee te bouwen. (voor studie doeleinde en als backend voor Citrix Xendesktop (ook studie))
Ik vroeg me af of deze hardware idd in de kast past en of het ESXi compatible is. Er komt nog een 840Pro in en een WD RED 3GB.
...
nevermind...
[ Voor 97% gewijzigd door Pixelmagic op 26-09-2018 23:04 ]
Iemand wel eens gemerkt dat ESXi (6.7 in dit geval) na een tijdje méér stroom gaat verbruiken?
Ik heb een pricewatch: Lenovo ThinkCentre M91p als ESXi host. Deze gebruikte (met alleen een 2.5" SSD als storage erin) zo rond de 33-36W met 6 VM's (niet heel resource intensief).
De laatste tijd zat hij echter constant op zo'n 53-55W. Ik heb de VM's één voor één afgesloten, in de hoop de boosdoener te vinden. Maar met alle VM's uit was het verbruik nog steeds zo hoog. Uiteindelijk de host herstart en nu mét VM's opgestart zit hij weer op het oude verbruik van 33-36W.
Typisch iets wat in een datacenter niet opvalt/niet boeiend is, maar voor thuisgebruik wel
Ik heb een pricewatch: Lenovo ThinkCentre M91p als ESXi host. Deze gebruikte (met alleen een 2.5" SSD als storage erin) zo rond de 33-36W met 6 VM's (niet heel resource intensief).
De laatste tijd zat hij echter constant op zo'n 53-55W. Ik heb de VM's één voor één afgesloten, in de hoop de boosdoener te vinden. Maar met alle VM's uit was het verbruik nog steeds zo hoog. Uiteindelijk de host herstart en nu mét VM's opgestart zit hij weer op het oude verbruik van 33-36W.
Typisch iets wat in een datacenter niet opvalt/niet boeiend is, maar voor thuisgebruik wel
@ThinkPad Gokje, CPU throttling dat na een tijdje niet meer werkt? Of er draait iets op de achtergrond van ESXi (ESXi zelf, niet de VM's) dat throttling voorkomt door CPU belasting?.
After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...
Oscar Wilde
Misschien lees ik er overheen, maar wordt de Gigabyte B360N WIFI nog steeds ondersteund door ESXi 6.7?
Heb jaren ESXi op een serverboard gedraaid, maar dat wordt sinds versie 6 niet meer ondersteund. Voor mij ook de hoogste tijd om een energiezuinige en stillere oplossing te gaan bouwen.
Heb jaren ESXi op een serverboard gedraaid, maar dat wordt sinds versie 6 niet meer ondersteund. Voor mij ook de hoogste tijd om een energiezuinige en stillere oplossing te gaan bouwen.
Een hele tijd na de vorige quote maar nu weer actief op zoek naar een nieuw systeem.OsiriS.nl schreef op dinsdag 19 juni 2018 @ 21:25:
Ik heb al een tijdje mijn esxi server draaien en alles naar wens...behalve het stroomverbruik.
De vraag naar VM's en applicaties is inmiddels gestabiliseerd en ik ben aan het kijken of ik het een of het ander zuiniger kan krijgen.
Dit is momenteel mijn setup:
[Afbeelding]
De CPU is nu erg hoog i.v.m. een backup job met compressie die draait, normaal is deze maar 10%.
Het geheel slurpt nu een 180-200 watt en de vraag is of ik dit lager kan krijgen door bijvoorbeeld te upgraden.
Bijvoorbeeld een Xeon-D voor ESXI en atom C3000 voor freenas ofzo en deze met 10Gbps koppelen.
Momenteel draait FreeNas als VM met een passtrough.
Ik heb zelf al diverse setups in gedachten maar ik hoor graag jullie ideeën!
Huidige setup:
- Supermicro X10DRH-CLN4: dual 2011-3 socket, veel Gbit poorten en onboard broadcom 3008 SAS3 controller, hierover later meer.
- 2x Intel Xeon E5-2630 v3 ES @2.2GHz
- 192GB ECC geheugen in reepjes van 32GB
- LSI MegaRAID 9265-8i controller, met cache en battery, hierover later meer.
- Heel wat fans om e.e.a. koel te houden en een bequiet dark power voeding?
- 6x 4TB WD RED op de onboard 3008 controller
- 2x 256GB crucial SSD's op de onboard 3008 controller
- 4x Samsung ssd 480gb sv843 op de LSI 9265 controller
- 1x 3TB WD RED direct op SATA van MB
- 1x 960GB samsung SSD, type onbekend, direct op SATA van MB
- Dit zit op een UPS dus stroomuitval is geen probleem, server sluit netjes af dan.
Veel van de storage is overgekomen van mijn vorige projecten. Uiteindelijk had ik teveel kasten staan en wilde ik kleiner en zuiniger. Dat laatste is niet echt gelukt. Vooral de CPU's zijn overkill en de storage kan tegenwoordig ook een stuk zuiniger denk ik.
Ik draai tal van VM's, van cameraserver, backup-machine (Veeam etc), workstations, Domain server en ook een FreeNAS server. De onboard 3008 SAS controller staat in IT mode en gekoppeld aan FreeNAS. De 6 WD REDS zijn in 2x RAIDZ1 geconfigureerd en de 2x 256GB SDDs gemirrored.
De Storage van FreeNAS is voornamelijk NAS-storage. Een deel van de HDD's is als ISCSI naar esxi t.b.v. VM's met grote disks die langzamer mogen zijn. De SSD's zijn alleen met ISCSI aan esxi gekoppeld als test en als extra opslag die iets sneller is.
O.a. de workstations zijn via de LSI 9265 gekoppeld op de 4 SSD die in 2x RAID1 en die gestriped staan. Dit levert super prestaties en geeft de VM's een clicky feel.
De lokale 3TB WD RED gebruik ik voor als ISO opslag en er draait een XPenology op.
De lokale 960GB SSD gebruik ik voor wat test VM's. Hier staat echter ook mijn hele vTestLab op, die gebruik ik echter niet meer. Vandaar ook de overcapaciteit aan RAM en CPU op het moment. Vroeger gooide ik het vTestLab nog wel eens aan om e.e.a. te testen.
Nu wil ik dit alles graag zuiniger en mogelijk nog kleiner maken.
Voor mij zijn er verschillende opties helder:
- Bijv 2630Lv3 aanschaffen en vervangen, en daarbij de storage aan pakken en vervangen voor 8TB HDD's en grotere SSD's. Laagste kosten maar brengt dit genoeg besparing met zich mee?
- Nieuwe setup, losse esxi server Xeon-d zonder storage. Met een FreeNAS server intel C3500 serie, hier 8TB HDDs en 2TB SSDs en met 10Gbit verbinden met esxi t.b.v. VM storage. Duurdere oplossing, waarschijnlijk redelijke besparing maar SSD storage over 10Gbit langzamer dan huidige LSI 9265 controller met SSDs?
- Nieuwe setup, AIO server met xeon-d. Aparte controller voor alle storage en deze aan FreeNAS VM doorgeven. Zelfde idee als huidige maar dan nieuwer en zonder lokale LSI9265 controller. Is SSD met FreeNAS over vSwitch snel genoeg om de huidige SSD-raid bij te houden?
- Soort VSAN cluster bouwen, met NUC of kleine xeon-d. Nuc heeft niet de voorkeur, dan moet ik nieuw geheugen aanschaffen wat nu een hoop geld betekend. Terwijl ik een nu 192GB aan ECC geheugen heb wat ik kan hergebruiken. Na problemen met VSAN in het verleden esxi 5.5 waar de complete datastore plots weg is, wantrouw ik VSAN op consumer-spul een beetje. Om dit volgens de HCL op te zetten gaat echt teveel geld kosten vermoed ik.
Dit is een beetje wat door mijn hoofd stormt, wie kan mij op goede ideeën brengen?
Alle gedachtespinsels zijn welkom!
Ik denk dat je eerst wat vragen moet beantwoorden voor we iets zinnigs kunnen zeggen:OsiriS.nl schreef op donderdag 1 november 2018 @ 21:55:
[...]
Een hele tijd na de vorige quote maar nu weer actief op zoek naar een nieuw systeem.
Ik heb zelf al diverse setups in gedachten maar ik hoor graag jullie ideeën!
Huidige setup:
- Supermicro X10DRH-CLN4: dual 2011-3 socket, veel Gbit poorten en onboard broadcom 3008 SAS3 controller, hierover later meer.
- 2x Intel Xeon E5-2630 v3 ES @2.2GHz
- 192GB ECC geheugen in reepjes van 32GB
- LSI MegaRAID 9265-8i controller, met cache en battery, hierover later meer.
- Heel wat fans om e.e.a. koel te houden en een bequiet dark power voeding?
- 6x 4TB WD RED op de onboard 3008 controller
- 2x 256GB crucial SSD's op de onboard 3008 controller
- 4x Samsung ssd 480gb sv843 op de LSI 9265 controller
- 1x 3TB WD RED direct op SATA van MB
- 1x 960GB samsung SSD, type onbekend, direct op SATA van MB
- Dit zit op een UPS dus stroomuitval is geen probleem, server sluit netjes af dan.
Veel van de storage is overgekomen van mijn vorige projecten. Uiteindelijk had ik teveel kasten staan en wilde ik kleiner en zuiniger. Dat laatste is niet echt gelukt. Vooral de CPU's zijn overkill en de storage kan tegenwoordig ook een stuk zuiniger denk ik.
Ik draai tal van VM's, van cameraserver, backup-machine (Veeam etc), workstations, Domain server en ook een FreeNAS server. De onboard 3008 SAS controller staat in IT mode en gekoppeld aan FreeNAS. De 6 WD REDS zijn in 2x RAIDZ1 geconfigureerd en de 2x 256GB SDDs gemirrored.
De Storage van FreeNAS is voornamelijk NAS-storage. Een deel van de HDD's is als ISCSI naar esxi t.b.v. VM's met grote disks die langzamer mogen zijn. De SSD's zijn alleen met ISCSI aan esxi gekoppeld als test en als extra opslag die iets sneller is.
O.a. de workstations zijn via de LSI 9265 gekoppeld op de 4 SSD die in 2x RAID1 en die gestriped staan. Dit levert super prestaties en geeft de VM's een clicky feel.
De lokale 3TB WD RED gebruik ik voor als ISO opslag en er draait een XPenology op.
De lokale 960GB SSD gebruik ik voor wat test VM's. Hier staat echter ook mijn hele vTestLab op, die gebruik ik echter niet meer. Vandaar ook de overcapaciteit aan RAM en CPU op het moment. Vroeger gooide ik het vTestLab nog wel eens aan om e.e.a. te testen.
Nu wil ik dit alles graag zuiniger en mogelijk nog kleiner maken.
Voor mij zijn er verschillende opties helder:
- Bijv 2630Lv3 aanschaffen en vervangen, en daarbij de storage aan pakken en vervangen voor 8TB HDD's en grotere SSD's. Laagste kosten maar brengt dit genoeg besparing met zich mee?
- Nieuwe setup, losse esxi server Xeon-d zonder storage. Met een FreeNAS server intel C3500 serie, hier 8TB HDDs en 2TB SSDs en met 10Gbit verbinden met esxi t.b.v. VM storage. Duurdere oplossing, waarschijnlijk redelijke besparing maar SSD storage over 10Gbit langzamer dan huidige LSI 9265 controller met SSDs?
- Nieuwe setup, AIO server met xeon-d. Aparte controller voor alle storage en deze aan FreeNAS VM doorgeven. Zelfde idee als huidige maar dan nieuwer en zonder lokale LSI9265 controller. Is SSD met FreeNAS over vSwitch snel genoeg om de huidige SSD-raid bij te houden?
- Soort VSAN cluster bouwen, met NUC of kleine xeon-d. Nuc heeft niet de voorkeur, dan moet ik nieuw geheugen aanschaffen wat nu een hoop geld betekend. Terwijl ik een nu 192GB aan ECC geheugen heb wat ik kan hergebruiken. Na problemen met VSAN in het verleden esxi 5.5 waar de complete datastore plots weg is, wantrouw ik VSAN op consumer-spul een beetje. Om dit volgens de HCL op te zetten gaat echt teveel geld kosten vermoed ik.
Dit is een beetje wat door mijn hoofd stormt, wie kan mij op goede ideeën brengen?
Alle gedachtespinsels zijn welkom!
- Wat is je huidige peak CPU usage?
- Wat is je huidige peak MEM usage?
- Wat voor DIMMS gebruik je (type nr)?
- Wat is je storage usage voor VMs?
- Wat is je storage usage voor data?
- Is XPenology een must?
- 2630Lv3 zijn nauwelijks zuiniger bij low-medium load.
- Een enkele machine is zuiniger dan meerdere en goedkoper (10Gbit NICs, extra behuizing/voeding, etc).
- Als XPenology niet perse hoeft en je de onboard controller niet in passthrough hoeft zou een single socket EPYC (7251?) een idee kunnen zijn, met een goede NVMe schijf zoals een 960GB 905p.
Te Koop:24 Core Intel Upgradeset
|sWORDs| schreef op donderdag 1 november 2018 @ 22:43:
[...]
Ik denk dat je eerst wat vragen moet beantwoorden voor we iets zinnigs kunnen zeggen:Al vast wat gedachtes op een aantal van de bedachte oplossingen:
- Wat is je huidige peak CPU usage?
- Wat is je huidige peak MEM usage?
- Wat voor DIMMS gebruik je (type nr)?
- Wat is je storage usage voor VMs?
- Wat is je storage usage voor data?
- Is XPenology een must?
- 2630Lv3 zijn nauwelijks zuiniger bij low-medium load.
- Een enkele machine is zuiniger dan meerdere en goedkoper (10Gbit NICs, extra behuizing/voeding, etc).
- Als XPenology niet perse hoeft en je de onboard controller niet in passthrough hoeft zou een single socket EPYC (7251?) een idee kunnen zijn, met een goede NVMe schijf zoals een 960GB 905p.
- Wat is je huidige peak CPU usage?
- Max 38% en 13.000 Mhz
- Wat is je huidige peak MEM usage?
- Max 84,5GB
- Wat voor DIMMS gebruik je (type nr)?
- Samsung M393A4K40BB0-CPB 32GB DDR4-2133 2Rx4 LP ECC REG
- Wat is je storage usage voor VMs?
- Bedoel je datastore read en write rate? Dat kan ik alleen realtime zien :-(
- Wat is je storage usage voor data?
- Zelfde als vorige punt
- Is XPenology een must?
- Nee niet perse, gebruik het als VPN server, extra backup storage en DynDNS service voor mijn domein. Maar dit zal vast ook op een alternatieve manier opgelost worden, dus nee geen must.
[ Voor 6% gewijzigd door OsiriS.nl op 02-11-2018 09:58 ]
Ok, dus minimaal 8 'echte' cores en minimaal 128GB en je wil je huidige LRDIMMs hergebruiken, dan heb je eigenlijk maar een paar opties: Xeon 'E5/Scalable', Xeon-D of EPYC.OsiriS.nl schreef op vrijdag 2 november 2018 @ 09:33:
[...]
- Wat is je huidige peak CPU usage?
- Max 38% en 13.000 Mhz
- Wat is je huidige peak MEM usage?
- Max 84,5GB
- Wat voor DIMMS gebruik je (type nr)?
- Samsung M393A4K40BB0-CPB 32GB DDR4-2133 2Rx4 LP ECC REG
- Wat is je storage usage voor VMs?
- Bedoel je datastore read en write rate? Dat kan ik alleen realtime zien :-(
- Wat is je storage usage voor data?
- Zelfde als vorige punt
- Is XPenology een must?
- Nee niet perse, gebruik het als VPN server, extra backup storage en DynDNS service voor mijn domein. Maar dit zal vast ook op een alternatieve manier opgelost worden, dus nee geen must.
Nu nog investeren in Haswell/Broadwell zou ik niet doen (zou dan eerder een CPU verwijderen overwegen), dan hebben we het dus over:
- Xeon Silver 4110 - Nadeel impact L1TF/Spectre/Meltdown.
- Xeon-D 214x - Nadeel impact L1TF/Spectre/Meltdown, waarschijnlijk maar 4/6 DIMMS kunnen gebruiken. Voordeel: compact.
- EPYC 7251 - Nadeel, EPYC2 komt binnenkort, mogelijk prijsdaling? Lastig met XPenology, onboard SATA met huidige AGESA niet door te geven. Voordeel prestaties/prijs.
Persoonlijk vind ik dat schijnveiligheid. Corruptie zal vaak op controller niveau, dus beide schijven, optreden en er zit veel meer in de 'chain' wat mis kan gaan. Ik heb veel meer vertrouwen in een enkele enterprise (Intel 750 = P3700, 900/905p = P4800X, zelfde flashchips, zelfde controller, zelfde PCB, alleen wat features uit in de firmware) NVMe controller dan een LSI controller in RAID1 (prima als HBA) + twee consumer SATA drives. De backup is wat je hebt mocht er iets mis gaan.OsiriS.nl schreef op vrijdag 2 november 2018 @ 09:33:
[...]
Nadeel van een NVMe disk is redundantie. Ik kan natuurlijk backups maken van wat er op die schijf staat maar liever heb ik al een soort van RAID1 redundantie. Als dan iets mis gaat hoef ik niet meteen naar mijn backups te grijpen.
Drive | TBW | IOPS | Sustained IOPS | QD |
905P 960GB | 17520 | 550K | 320K | 4092 |
MX 500 250GB | 100 | 90K | 24K | 32 |
[ Voor 30% gewijzigd door |sWORDs| op 02-11-2018 10:31 ]
Te Koop:24 Core Intel Upgradeset
@OsiriS.nl De vraag is misschien wel vooral, wat zou je graag willen besparen?
Waar zit de pijn in? Het is nu 100W en je wil terug naar 50W? Het is nu 5000W en je wil terug naar 200W?
Het klinkt een beetje raar namelijk, dat je voor dik 2000 euro aan hardware hebt staan, die ongeveer in 3-4 jaar afgeschreven is gok ik. Dat kost je ~500 euro per jaar.
Stroomrekening van zo'n machine is ongeveer 150-200 euro per jaar... Dat is misschien in absolute zin veel, maar je wil nu dus weer nieuwe dingen kopen, om die kosten misschien 30% te verlagen. Dan bespaar je dus 50 euro per jaar aan stroom, door wat, 1000 euro uit te geven?
Klinkt onverstandig.
Waar zit de pijn in? Het is nu 100W en je wil terug naar 50W? Het is nu 5000W en je wil terug naar 200W?
Het klinkt een beetje raar namelijk, dat je voor dik 2000 euro aan hardware hebt staan, die ongeveer in 3-4 jaar afgeschreven is gok ik. Dat kost je ~500 euro per jaar.
Stroomrekening van zo'n machine is ongeveer 150-200 euro per jaar... Dat is misschien in absolute zin veel, maar je wil nu dus weer nieuwe dingen kopen, om die kosten misschien 30% te verlagen. Dan bespaar je dus 50 euro per jaar aan stroom, door wat, 1000 euro uit te geven?
Klinkt onverstandig.
Even niets...
Storage gebruik t.b.v. VM storage: 1,5TB en NAS storage 5TB
Natuurlijk, financieel is het niet heel logisch. Maar de energiekosten komen elk jaar weer terug, dus elk jaar kost het me weer geld. Momenteel zit ik rond de 180-200W.
Daarom vraag ik ook jullie mening, ik ga niks nieuws kopen om wat nieuws te hebben. Maar ik wil graag zuiniger en daarbij kan ik de overkill wat ik nu heb verminderen. Ik zal sowieso langzaam de storage gaan vernieuwen want al met al draaien de HDDs en SSDs al 3 of 4 jaar non-stop.
Als ik dat doe wil ik het slim doen met deze gedachten in het achterhoofd.
Natuurlijk, financieel is het niet heel logisch. Maar de energiekosten komen elk jaar weer terug, dus elk jaar kost het me weer geld. Momenteel zit ik rond de 180-200W.
Daarom vraag ik ook jullie mening, ik ga niks nieuws kopen om wat nieuws te hebben. Maar ik wil graag zuiniger en daarbij kan ik de overkill wat ik nu heb verminderen. Ik zal sowieso langzaam de storage gaan vernieuwen want al met al draaien de HDDs en SSDs al 3 of 4 jaar non-stop.
Als ik dat doe wil ik het slim doen met deze gedachten in het achterhoofd.
Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.