Even niets...
Alleen prijstechnisch, voor 69 dollar heb je geen andere van je lijstje.FireDrunk schreef op donderdag 11 februari 2016 @ 08:31:
De 2008 wordt volgens mij niet meer gemaakt, dat zijn allemaal oude batches. Hij voldoet zeer zeker, maar staar je niet blind op het feit dat iets alleen maar sneller is.
Iets met Bill Gates en 640k is genoeg
Te Koop:24 Core Intel Upgradeset
Ben zelf in bezit van 2 * M1015 en een onboard 2308
Even niets...
Maar ook nieuw (gesealed) zijn ze goed te betalen. (Heb ik zelf een paar maanden terug ook gedaan.)
[ Voor 49% gewijzigd door |sWORDs| op 11-02-2016 08:46 ]
Te Koop:24 Core Intel Upgradeset
Het gaat om een B85M Pro4 welke VT-d ondersteunt echter mijn i3-43-nogwat niet..|sWORDs| schreef op donderdag 11 februari 2016 @ 08:14:
[...]
Doordat de M1015 erg populair is zie je soms een LSI 9211 voor minder op ebay. Bekijk die dus vooral ook aangezien het "dezelfde" kaart is. Het grappige is dat de M1015 populair is als goedkopere variant van, maar zo af en toe is het dus andersom.
Wat voor bord, CPU en hoeveel geheugen heb je?
Afhankelijk van in welke host ik de kaart ga steken heb ik 32gb of 8gb geheugen.
Maarjah een i5 kost me ook al snel een dikke 150 euro. Dus wellicht beter maar wachten op de broadwell Xeons...
http://www.ebay.com/itm/I...cfee62:g:~VQAAOSwWTRWusLS
http://www.ebay.com/itm/I...bfcdb6:g:GLMAAOSwKtlWtjF6
V&A aangeboden: Intel Core i5 4430 Boxed (Hmm, gezien de V&A beoordelingen misschien niet zo'n goed idee.)
V&A aangeboden: Intel Core i5 4570 zo goed als nieuw (Met vPro, best handig met AMT als je nog eens een Q bord weet te vinden.)
[ Voor 76% gewijzigd door |sWORDs| op 11-02-2016 10:52 ]
Te Koop:24 Core Intel Upgradeset
Voor een bups external devices idd, of je moet hobby bobby willen gaan en de kabel terug naar binnen voeren.FireDrunk schreef op donderdag 11 februari 2016 @ 10:53:
http://www.ebay.com/itm/A...d3e82e:g:KpcAAOSwSdZWdJiz
Soms zie je wel wat leuke dingen
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
De vorige keer dat ik mijn ESXi-bak rebootte, was namelijk de configuratie weg. Dat is nogal vervelend (vooral omdat ik een constructie heb met virtuele switches en VLANs daarop). Na wat zoeken schijnt dit te kunnen komen doordat ik de USB-stick (waarvan ESXi boot) op een USB3-poort heb aangesloten.
Binnenkort zal ik de ESXi-server moeten rebooten, en ik heb geen zin om alles weer te moeten herconfigureren. Mijn idee was dus om, terwijl de server draait, de USB-stick uit de USB3-poort te halen en in een USB2-poort te doen, dan een handmatige sync te doen van de persistent storage.
Gewoon een heel grote verzameling snoertjes
Volgens mij kun je die stick wel verwijderen, maar dat weet ik niet zeker. Ik zou zelf de config backuppen met een van de hier beschreven methodes:Compizfox schreef op donderdag 11 februari 2016 @ 22:43:
Weet iemand of je na het opstarten van ESXi de USB-stick zonder problemen kunt verwijderen?
De vorige keer dat ik mijn ESXi-bak rebootte, was namelijk de configuratie weg. Dat is nogal vervelend (vooral omdat ik een constructie heb met virtuele switches en VLANs daarop). Na wat zoeken schijnt dit te kunnen komen doordat ik de USB-stick (waarvan ESXi boot) op een USB3-poort heb aangesloten.
Binnenkort zal ik de ESXi-server moeten rebooten, en ik heb geen zin om alles weer te moeten herconfigureren. Mijn idee was dus om, terwijl de server draait, de USB-stick uit de USB3-poort te halen en in een USB2-poort te doen, dan een handmatige sync te doen van de persistent storage.
http://kb.vmware.com/self...playKC&externalId=2042141
Dit backup kun je dan zo weer terug zetten op een schone installatie (met dezelfde ESXi versie).
Volgens mij kan dat niet. Je kan de stick wel verwijderen, maar hij doet daarna geen config changes meer tot een reboot voor zover ik weet. Praktische ervaring leert mij dat dat niet werkt iig.Compizfox schreef op donderdag 11 februari 2016 @ 22:43:
Weet iemand of je na het opstarten van ESXi de USB-stick zonder problemen kunt verwijderen?
De vorige keer dat ik mijn ESXi-bak rebootte, was namelijk de configuratie weg. Dat is nogal vervelend (vooral omdat ik een constructie heb met virtuele switches en VLANs daarop). Na wat zoeken schijnt dit te kunnen komen doordat ik de USB-stick (waarvan ESXi boot) op een USB3-poort heb aangesloten.
Binnenkort zal ik de ESXi-server moeten rebooten, en ik heb geen zin om alles weer te moeten herconfigureren. Mijn idee was dus om, terwijl de server draait, de USB-stick uit de USB3-poort te halen en in een USB2-poort te doen, dan een handmatige sync te doen van de persistent storage.
Of je het met speciale commando's recht kan trekken weet ik niet.
Even niets...
Een backup heb ik ook al gemaakt, maar ik heb natuurlijk liever dat hij de configuratie gewoon onthoudt, want het terugzetten van de backup is ook niet heel handig (omdat de server eerst niet bereikbaar zit omdat die op een verkeerd VLAN zit e.d.).
Gewoon een heel grote verzameling snoertjes
Dat ging zo goed dat ik me tijden af heb zitten vragen waarom ESXi iedere keer (paar keer power outage door defecte vaatwasser) vergeten was dat het ook nog een iSCSI-datastore had. Die had is dus pas aangemaakt en geconfigureerd nadat ik de USB-controller had doorgegeven...
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Dit kan zeker weten. Echter er opnieuw insteken heeft daarna geen nut meer.Compizfox schreef op donderdag 11 februari 2016 @ 22:43:
Weet iemand of je na het opstarten van ESXi de USB-stick zonder problemen kunt verwijderen?
De vorige keer dat ik mijn ESXi-bak rebootte, was namelijk de configuratie weg. Dat is nogal vervelend (vooral omdat ik een constructie heb met virtuele switches en VLANs daarop). Na wat zoeken schijnt dit te kunnen komen doordat ik de USB-stick (waarvan ESXi boot) op een USB3-poort heb aangesloten.
Binnenkort zal ik de ESXi-server moeten rebooten, en ik heb geen zin om alles weer te moeten herconfigureren. Mijn idee was dus om, terwijl de server draait, de USB-stick uit de USB3-poort te halen en in een USB2-poort te doen, dan een handmatige sync te doen van de persistent storage.
Na een reboot mis je mogelijk VM's.
Restoren van deze VM's doe je zo:
To register a virtual machine in vCenter Server:
Open the vSphere/VMware Infrastructure (VI) Client and log in with appropriate credentials.
If connecting to vCenter Server, click on the desired host.
Click the Configuration tab.
Click Storage.
Right-click on the appropriate datastore and click Browse Datastore.
Navigate to the folder named after the virtual machine, and locate the <virtual machine>.vmx file.
Right-click the .vmx file and click Add to inventory. The Add to Inventory wizard opens.
Continue to follow the wizard to add the virtual machine.
Na wat searchen kwam ik tegen dat je door middel van een windows VM hem kan afsluiten, alleen heb ik geen windows VM draaien.
Heeft iemand er een mooie manier voor om VM's af te sluiten als de stroom uitvalt?
Mocht het handig zijn, dit is mijn set-up: inventaris: Dikke ESXI
Ik "mis niet mogelijk VMs", m'n configuratie wordt dusdanig verkloot dat ik de server op een andere poort op m'n switch moet aansluiten omdat er niets meer van de VLAN-config kloptrenedis schreef op vrijdag 12 februari 2016 @ 15:07:
[...]
Dit kan zeker weten. Echter er opnieuw insteken heeft daarna geen nut meer.
Na een reboot mis je mogelijk VM's.
Restoren van deze VM's doe je zo:
To register a virtual machine in vCenter Server:
Open the vSphere/VMware Infrastructure (VI) Client and log in with appropriate credentials.
If connecting to vCenter Server, click on the desired host.
Click the Configuration tab.
Click Storage.
Right-click on the appropriate datastore and click Browse Datastore.
Navigate to the folder named after the virtual machine, and locate the <virtual machine>.vmx file.
Right-click the .vmx file and click Add to inventory. The Add to Inventory wizard opens.
Continue to follow the wizard to add the virtual machine.
Ik hoopte eigenlijk dat ik na het herinpluggen de configuratie toch nog kon saven met
vim-cmd hostsvc/firmware/sync_config
Gewoon een heel grote verzameling snoertjes
Maar dat is wat ik er van weet.
Even niets...
Zonet even geprobeerd, dat commando geeft geen output in elk geval. Ik heb dus eigenlijk nog geen idee of het gelukt is of niet.FireDrunk schreef op vrijdag 12 februari 2016 @ 15:52:
Nee, volgens mij niet, want hij ziet de 'oude' usb stick in een nieuwe poort, en volgens mij doet hij niet automatisch een remount van het config filesystem.
Maar dat is wat ik er van weet.
Zou het mogelijk zijn om de USB-stick handmatig te remounten?
Gewoon een heel grote verzameling snoertjes
Even niets...
FireDrunk schreef op vrijdag 12 februari 2016 @ 16:04:
doe eens dat commando en dan erachter echo $?;
# vim-cmd hostsvc/firmware/sync_config ~ # echo $?; 0
Gewoon een heel grote verzameling snoertjes
"Actieve configuratie" na unpluggen kan zo ver ik weet niet van het geheugen naar disk geschreven worden.Compizfox schreef op vrijdag 12 februari 2016 @ 15:50:
[...]
Ik "mis niet mogelijk VMs", m'n configuratie wordt dusdanig verkloot dat ik de server op een andere poort op m'n switch moet aansluiten omdat er niets meer van de VLAN-config klopt. En m'n VMs zijn ook weg ja. Ik heb dit namelijk laatst ook al gehad, was niet zo blij dat m'n ESXi-bak niet meer op kwam na een reboot...
Ik hoopte eigenlijk dat ik na het herinpluggen de configuratie toch nog kon saven met
.vim-cmd hostsvc/firmware/sync_config
Ik heb eerlijk gezegd nog niet meegemaakt dat VLANs configuraties corrupt raakte met zoiets.
Lijkt mij een trial and error.
Het is niet zo zeer dat het corrupt raakt, maar simpelweg dat het wordt gereset naar de default configuratie, die niet werkt in mijn netwerksituatie. Dat is vrij vervelend omdat ik dan netwerkkabels moet gaan ompluggen om weer toegang te krijgen tot de server, dan de configuratie goedzetten en de kabels weer terugpluggen.renedis schreef op vrijdag 12 februari 2016 @ 16:12:
[...]
Ik heb eerlijk gezegd nog niet meegemaakt dat VLANs configuraties corrupt raakte met zoiets.
[ Voor 19% gewijzigd door Compizfox op 12-02-2016 16:14 ]
Gewoon een heel grote verzameling snoertjes
Even niets...
Of kan ik dan qua prijs/performance beter gaan voor een Dell of HP raid controller? Welke zou ik dan het beste kunnen pakken?
Browse hier 'ns rond:thedon46 schreef op vrijdag 12 februari 2016 @ 15:47:
Op het werk lag er vandaag een mooie APC UPS smart 1500 in de bak, en aangezien deze gewoon nog werkt wil ik deze thuis gaan gebruiken icm met ESXI
Na wat searchen kwam ik tegen dat je door middel van een windows VM hem kan afsluiten, alleen heb ik geen windows VM draaien.
Heeft iemand er een mooie manier voor om VM's af te sluiten als de stroom uitvalt?
Mocht het handig zijn, dit is mijn set-up: inventaris: Dikke ESXI
PowerChute Network Shutdown v4.1 VMware Virtual Appliance
Met install instructies
[ Voor 20% gewijzigd door NIK0 op 13-02-2016 11:45 ]
Member of the Ukraine IT Army
Bijna alle kaarten hebben een LSI controller. Eigenlijk wil je dus kijken welke LSI controller je wil hebben.OsiriS.nl schreef op vrijdag 12 februari 2016 @ 19:49:
Via ebay zijn trouwens voor een redelijke prijs M5015 raid controllers te vinden. Is dat wat om een RAID 0 met o.a. 2 SSDs te bouwen?
Of kan ik dan qua prijs/performance beter gaan voor een Dell of HP raid controller? Welke zou ik dan het beste kunnen pakken?
Vragen die je kunt stellen:
Batterij nodig?
Passthrough nodig?
RAID op de kaart nodig? (Of software RAID in VM?)
Raid offloading nodig?
Welke performance?
Hoeveel poorten?
Als je die vragen weet kun je een paar controllers kiezen en dan de goedkoopste kaart die je kunt vinden nemen. Sommige kaarten worden wat warmer dan andere en sommige kaarten zijn wat lastiger om te flashen mocht je naar IT mode willen.
Voor SATA passthrough is een LSI2008 perfect en aangezien je het over een freenas VM hebt denk ik dat je daar naar zoekt. De Dell kaarten schijnen wat warmer te worden dan de andere, maar zijn vaak het goedkoopst (H200 8 port $58), daarna meestal IBM (M1015 8 port $87), dan LSI (soms goedkoper dan IBM, 9211-8i 8 port $91), dan HP en Fujitsu.
2008/2108 doen zonder RAID zo'n 2900MB/s.
2208/2308 doen zonder RAID zo'n 3500MB/s.
3008/3108 doen zonder RAID zo'n 4600MB/s.
Twee SSD's en zes HD's komen nauwelijks boven de 2000MB/s, dus als je geen RAID gebruikt of niet erg veel snelle SSD's hebt maakt het weinig uit. Heb je 8 SSD's zou ik naar een 3008 gaan kijken.
Wil je echte hardware RAID/XOR/Caching/BBU dan kom je bij de 2108/2308/3108.
[ Voor 34% gewijzigd door |sWORDs| op 13-02-2016 12:52 ]
Te Koop:24 Core Intel Upgradeset
Bedankt voor je heldere uitleg!|sWORDs| schreef op zaterdag 13 februari 2016 @ 11:58:
[...]
Bijna alle kaarten hebben een LSI controller. Eigenlijk wil je dus kijken welke LSI controller je wil hebben.
Vragen die je kunt stellen:
Batterij nodig?
Passthrough nodig?
RAID op de kaart nodig? (Of software RAID in VM?)
Raid offloading nodig?
Welke performance?
Hoeveel poorten?
Als je die vragen weet kun je een paar controllers kiezen en dan de goedkoopste kaart die je kunt vinden nemen. Sommige kaarten worden wat warmer dan andere en sommige kaarten zijn wat lastiger om te flashen mocht je naar IT mode willen.
Voor SATA passthrough is een LSI2008 perfect en aangezien je het over een freenas VM hebt denk ik dat je daar naar zoekt. De Dell kaarten schijnen wat warmer te worden dan de andere, maar zijn vaak het goedkoopst (H200 8 port $58), daarna meestal IBM (M1015 8 port $87), dan LSI (soms goedkoper dan IBM, 9211-8i 8 port $91), dan HP en Fujitsu.
2008/2108 doen zonder RAID zo'n 2900MB/s.
2208/2308 doen zonder RAID zo'n 3500MB/s.
3008/3108 doen zonder RAID zo'n 4600MB/s.
Twee SSD's en zes HD's komen nauwelijks boven de 2000MB/s, dus als je geen RAID gebruikt of niet erg veel snelle SSD's hebt maakt het weinig uit. Heb je 8 SSD's zou ik naar een 3008 gaan kijken.
Wil je echte hardware RAID/XOR/Caching/BBU dan kom je bij de 2108/2308/3108.
Ik heb mijn oog laten vallen op een moederbord met een LSI 3008 controller t.b.v. pass-through voor een freenas VM als NAS storage met 6 HDDs.
Voor de datastore's wil ik toch liever niet via freenas doen maar via een HW-raid. Deze moet genoeg performance hebben voor een buts SSDs max 8. Volgens mij moet ik dan dus over naar een kaart met cache en BBU..? Alleen welke pak ik dan?
Ik begrepen dat bijvoorbeeld de HP P400 niet geweldig is qua performance met SSDs..
9361-8i? (Maar dan heb je het zo over 650-750 euro met BBU). 499 dollar op ebay, maar wel een Dell.
Dan zou ik misschien toch eens voor een oudere generatie kijken.
[ Voor 51% gewijzigd door |sWORDs| op 13-02-2016 16:39 ]
Te Koop:24 Core Intel Upgradeset
En een losse controller voor de SSDs in RAID als local datastore. Maar als ik die prijzen zie denk ik dat 'm dat niet gaat worden. Een 2308 is al wat betaalbaarder.
Hoe verhoudt de performance van een 2308 zich met de performance van bijv. een M5015 (lsi 9260)?
Gelijk, volgens mij was alleen de layout anders en komt de ene met kabels en de andere niet. Die kaarten zouden op zo'n $135 - 150 moeten zitten, maar de BBU is volgens mij ongeveer even duur.OsiriS.nl schreef op zaterdag 13 februari 2016 @ 16:43:
Het is inderdaad een supermicro bord met LSI 3008 aan boord. Deze wilde ik dan gebruiken voor de HDDs naar FreeNAS.
En een losse controller voor de SSDs in RAID als local datastore. Maar als ik die prijzen zie denk ik dat 'm dat niet gaat worden. Een 2308 is al wat betaalbaarder.
Hoe verhoudt de performance van een 2308 zich met de performance van bijv. een M5015 (lsi 9260)?
Je moet wel even goed kijken naar de performance, dat kan in RAID zo een stuk lager zijn dan JBOD
9261 Specs:
Maximum Reads: 2,875MB/s – Maximum Writes: 1,800MB/s
9260 Benchmark: http://www.thessdreview.c...egaraid-9260-8i-review-–/
Als je het qua ruimte haalt kun je dus net zo goed 5-6 SSD's als 8 gebruiken. En heb je nog een reden waarom je SATA SSD's en een dure controller wil gebruiken en niet gewoon NVMe? Een enkele NVMe kaart haalt bijna dat soort cijfers. Ik heb zelf 3 NVMe kaarten, waarbij ik de load dus over 3 kaarten verdeel. Geen RAID, maar wel backup naar spinning. Hier is de performance in de VM's:
Intel 750 1.2TB 2627MB/s read, 1292MB/s write.
Intel 750 400GB 2306MB/s read, 998.5MB/s write.
Samsung 950 512GB 2392MB/s read, 1521MB/s write.
Waarbij de Intel's duidelijk beter zijn met 4K writes en consistentie.
Kun je niet gewoon een exacte lijst geven met wat je denkt te willen kopen en wat je er op gaat doen?
[ Voor 40% gewijzigd door |sWORDs| op 13-02-2016 17:08 ]
Te Koop:24 Core Intel Upgradeset
Omdat ik op het moment 4 SATA SSDs in gebruik heb in mijn VSAN cluster plus het feit dat de data al redundant opgeslagen wordt en ik bij 1 uitval niet meteen hoef te gaan restoren.|sWORDs| schreef op zaterdag 13 februari 2016 @ 16:46:
[...]
Gelijk, volgens mij was alleen de layout anders en komt de ene met kabels en de andere niet. Die kaarten zouden op zo'n $135 - 150 moeten zitten, maar de BBU is volgens mij ongeveer even duur.
Je moet wel even goed kijken naar de performance, dat kan in RAID zo een stuk lager zijn dan JBOD
9261 Specs:
Maximum Reads: 2,875MB/s – Maximum Writes: 1,800MB/s
9260 Benchmark: http://www.thessdreview.c...egaraid-9260-8i-review-–/
Als je het qua ruimte haalt kun je dus net zo goed 5-6 SSD's als 8 gebruiken. En heb je nog een reden waarom je SATA SSD's en een dure controller wil gebruiken en niet gewoon NVMe? Een enkele NVMe kaart haalt bijna dat soort cijfers.
De reden waarom ik mijn VSAN cluster wil vervangen is dat het teveel plaats inneemt en energie verbruikt. Het spelen met VSAN en vmotion etc heb ik nu wel gezien en heb ik nu ook nested in mijn HP DL380G7 test server draaien. Vandaar dat ik mijn cluster wil consolideren naar 1 dikke bak. Ik ben eigenlijk nog even aan het wachten op de E5 2600 V4 serie van intel..
Zo heb ik ook voor "een prikkie" (relatief dan) 24 cores en 256GB bij elkaar weten te sprokkelen.
En vergeet niet dat vaak (alle?) dual 2011-3 server borden narrow type sockets hebben, let op met je koelers.
[ Voor 65% gewijzigd door |sWORDs| op 13-02-2016 17:22 ]
Te Koop:24 Core Intel Upgradeset
Woow, dat is nog eens performance! Eerlijk gezegd denk ik dat ik zoveel niet nodig heb. Maar wel iets om inderdaad ook te overwegen.|sWORDs| schreef op zaterdag 13 februari 2016 @ 17:09:
De beste tips die ik je kan geven zijn 2690v3 Engineering Samples en geheugen bij toppietoppie.
Zo heb ik ook voor "een prikkie" (relatief dan) 24 cores en 256GB bij elkaar weten te sprokkelen.
En vergeet niet dat alle dual server borden narrow type sockets hebben, let op met je koelers.
De ES-en heb ik ook gezien maar durf het niet aan eerlijk gezegd. Ivm compatibiliteit en stabiliteit. Tevens ben ik benieuwd naar de broadwell-ep v4 serie. En die tip van het geheugen had ik ook al gezien! Toch bedankt voor je tips en ik ga e.e.a. weer heroverwegen.
Dat van ilm narrow had ik ook al gezien, maar als het goed is past daar een van de noctuas op.
[ Voor 4% gewijzigd door OsiriS.nl op 13-02-2016 17:48 ]
Te Koop:24 Core Intel Upgradeset
ik ben na een tijdje weggeweest weer eens door deze thread aan het lezen. Wat me opvalt is dat de laastste paar pagina's het wat ontbreekt aan metingen ala hoeveel iemand zijn of haar build gebruikt idle.
Wie heeft er bijvoorbeeld een leuke combinatie die idle bv 10 of 25W trekt?
ik ben benieuwd.
Schaamteloos opnieuw gekopieerd uit het zuinige server topic:xelnaha schreef op maandag 15 februari 2016 @ 14:47:
Hallo,
ik ben na een tijdje weggeweest weer eens door deze thread aan het lezen. Wat me opvalt is dat de laastste paar pagina's het wat ontbreekt aan metingen ala hoeveel iemand zijn of haar build gebruikt idle.
Wie heeft er bijvoorbeeld een leuke combinatie die idle bv 10 of 25W trekt?
ik ben benieuwd.
| # | Product | Prijs | Subtotaal |
| 1 | Intel Core i3-6100 Boxed | € 122,95 | € 122,95 |
| 1 | MSI H110M ECO | € 0,- | € 0,- |
| 1 | Crucial CT2K16G4DFD8213 | € 212,15 | € 212,15 |
| 1 | Mini-box picoPSU 90 + 80W Adapter Power Kit | € 64,51 | € 64,51 |
| 1 | Samsung 850 EVO M.2 500GB | € 168,95 | € 168,95 |
| Bekijk collectie Importeer producten | Totaal | € 568,56 | |
Powered off: 1W
Verbruik idle:
Geen OS: 23.5W
WattOS (Ubuntu 14.04 desktop) 10.5W
ESXi 6 U1B: 14W
Ubuntu 15.10 Server: 10.5W
Ubuntu 15.10 Desktop: 10.5W
Windows Hyper-V 2012 R2: 16.5W
Windows Hyper-V 2016 (Build4): 16W
Daarnaast mijn losse quad NIC kaart (4x Pro1000) getest: 7.5W
Iedere keer heb ik het 10 min laten draaien en daar een gemiddelde van genomen.
Ik heb nu het volgende draaien:
| # | Product | Prijs | Subtotaal |
| 1 | Intel Xeon Processor E3-1235L v5 | € 282,10 | € 282,10 |
| 1 | ASRock N3150DC-ITX | € 116,50 | € 116,50 |
| 1 | Asus P10S-I | € 179,- | € 179,- |
| 1 | Inter-Tech 0.5m SFF 8643/4x SATA | € 16,50 | € 16,50 |
| 1 | D-Link DGS-1210-24 | € 129,89 | € 129,89 |
| 1 | Supermicro SNK-P0046P | € 23,- | € 23,- |
| 1 | Samsung M391A2K43BB1 | € 99,50 | € 99,50 |
| Bekijk collectie Importeer producten | Totaal | € 846,49 | |
De 1235L met Asus P10S-I:
Powered off: 0.5W
Verbruik idle:
Geen OS: 27.5W
WattOS (Ubuntu 14.04 desktop) 11W
ESXi 6 U1B: 15W
Ubuntu 15.10 Server: 11W
Ubuntu 15.10 Desktop: 11W
Windows Hyper-V 2012 R2: 18W
Windows Hyper-V 2016 (Build4): 18W
De pricewatch: ASRock N3150DC-ITX trekt 14W onder full load en 10W idle.
De pricewatch: D-Link DGS-1210-24 trekt 7W met 18x 1000M lijntjes.
Totaal verbruik ik dus 28W idle met de complete setup (server + router + switch).
Dit is uiteraard wel ex disks. Sluip verbruik is van 185W naar 80W gegaan
Ook met 20 sata aansluitingen !
Overzicht van borden met Xeon D van Supermicro:
http://www.supermicro.com/products/nfo/Xeon-D.cfm
Is wel een krachtige CPU maar gaat zeer duur zijn vermoed ik, benchmarks:
http://www.servethehome.c...aunched-first-benchmarks/
[ Voor 30% gewijzigd door abusimbal op 17-02-2016 11:26 ]
- HW RAID controller met 2 SSDs in mirror aangeboden aan ESXi als localdatastore
en
- HBA met 2 SSDs doorgegeven aan FreeNAS en daar in mirror en aangeboden aan ESXi via NFS of iSCSI
Eerste optie zou meer geld en energie kosten aangezien ik al 1 HBA gebruik voor mijn HDDs naar FreeNAS door te geven. Maar er zitten wel minder schakels tussen waardoor er volgens mij minder snel iets mis mee kan gaan..
[ Voor 20% gewijzigd door |sWORDs| op 17-02-2016 13:51 ]
Te Koop:24 Core Intel Upgradeset
De FreeNAS vm heb ik sowieso al, er komt dan alleen een mirror pool bij..|sWORDs| schreef op woensdag 17 februari 2016 @ 13:48:
Ja, optie 2 gebruikt veel meer CPU en eventueel geheugen. Het gebruikt CPU voor de extra VM, RAID (in guest), voor de virtuele controller (host in dat geval dubbel) en voor netwerk (host).
Maar wat is de impact op de storage die uiteindelijke beschikbaar komt qua performance verschil..?
[ Voor 11% gewijzigd door OsiriS.nl op 17-02-2016 14:10 ]
In jouw geval is dat dan twee VM's (client/server) en ook nog eens RAID op dezelfde CPU en virtuele NICs.
[ Voor 31% gewijzigd door |sWORDs| op 17-02-2016 14:31 ]
Te Koop:24 Core Intel Upgradeset
De latency gaat flink omhoog bij optie twee. Als je wilt kan ik wel een benchmark naar keuze draaien.OsiriS.nl schreef op woensdag 17 februari 2016 @ 13:22:
Heeft iemand hier een idee of er een performanceverschil zit tussen:
- HW RAID controller met 2 SSDs in mirror aangeboden aan ESXi als localdatastore
en
- HBA met 2 SSDs doorgegeven aan FreeNAS en daar in mirror en aangeboden aan ESXi via NFS of iSCSI
Eerste optie zou meer geld en energie kosten aangezien ik al 1 HBA gebruik voor mijn HDDs naar FreeNAS door te geven. Maar er zitten wel minder schakels tussen waardoor er volgens mij minder snel iets mis mee kan gaan..
Bedankt, ik ga eens verder zoeken naar welke controller niet te duur is en toch een beetje performance heeft om mijn SSdtjes bij te benen..
[ Voor 40% gewijzigd door |sWORDs| op 17-02-2016 19:22 ]
Te Koop:24 Core Intel Upgradeset
Ik snap wat je bedoelt maar ik heb toch graag RAID1 omdat ik niet bij het minste of geringste wil restoren..|sWORDs| schreef op woensdag 17 februari 2016 @ 19:20:
Je kunt ook geen RAID gebruiken en de VM's verdelen over de SSD's. Of de SSD's in V&A en NVMe nemen. Of een niet HW RAID controller, scheelt nog steeds.
Hoe bedoel je die laatste zin eigenlijk?
Te Koop:24 Core Intel Upgradeset
Interessant is dat er een OCP slot op zit waar bijvoorbeeld een SAS kaart ingeprikt kan worden.
Ik hoop dat de komende paar maanden de beschikbaarheid beter wordt, en daarmee wat meer prijzen bekend worden.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Om gek van te worden, vandaag ESXi clean install (ESXi 6.0 Update 1b, VMware-VMvisor-Installer-201601001-3380124.x86_64.iso) naar disk gedaan, BIOS update (1.1->2.0), IPMI update (2.14->3.26), controller update (P19->P20), IPMI module uit (noipmiEnabled), BIOS restore optimal, Legacy boot->EFI boot, alle Power Management settings combi's...|sWORDs| schreef op dinsdag 02 februari 2016 @ 10:31:
[...]
Ik heb er ook last van met een X10DRH-iT en ben blijkbaar niet de enige. Als ik hem uit wil doen doe ik een reboot en zodra de bios komt zet ik m uit met de powerknop (niet ideaal).
[...]
Blijft hier allemaal hetzelfde, alleen reboot werkt.
Niets helpt om shutdown werkend te krijgen, zelfs niet zonder dat er ook maar iets in ESXi (passthrough, settings, etc) aangepast is.
[ Voor 4% gewijzigd door |sWORDs| op 21-02-2016 14:30 ]
Te Koop:24 Core Intel Upgradeset
Even ter info:|sWORDs| schreef op zondag 21 februari 2016 @ 14:21:
[...]
Om gek van te worden, vandaag ESXi clean install (ESXi 6.0 Update 1b, VMware-VMvisor-Installer-201601001-3380124.x86_64.iso) naar disk gedaan, BIOS update (1.1->2.0), IPMI update (2.14->3.26), controller update (P19->P20), IPMI module uit (noipmiEnabled), BIOS restore optimal, Legacy boot->EFI boot, alle Power Management settings combi's...
Niets helpt om shutdown werkend te krijgen, zelfs niet zonder dat er ook maar iets in ESXi (passthrough, settings, etc) aangepast is.
Weet niet welke controller update je gedaan hebt van P19>P20 maar als dat een M1015 is zijn er wel wat issues bekend met P20 (niet aan jouw probleem gerelateerd) maar genoeg om veel mensen terug te laten gaan naar P19.
Als je een ns een ander OS erop knalt? Kun je wellicht uitsluiten of het aan esxi ligt of misschien wat anders (bios fix in de toekomst wellicht?)
Member of the Ukraine IT Army
Had de controller gedaan omdat xpenology de driver net bijgewerkt heeft.NIK0 schreef op zondag 21 februari 2016 @ 15:03:
[...]
Even ter info:
Weet niet welke controller update je gedaan hebt van P19>P20 maar als dat een M1015 is zijn er wel wat issues bekend met P20 (niet aan jouw probleem gerelateerd) maar genoeg om veel mensen terug te laten gaan naar P19.
Als je een ns een ander OS erop knalt? Kun je wellicht uitsluiten of het aan esxi ligt of misschien wat anders (bios fix in de toekomst wellicht?)
Te Koop:24 Core Intel Upgradeset
P20 is het probleem niet. Ik draaide ook met een M1015 met P20 en had nergens last van.NIK0 schreef op zondag 21 februari 2016 @ 15:03:
[...]
Even ter info:
Weet niet welke controller update je gedaan hebt van P19>P20 maar als dat een M1015 is zijn er wel wat issues bekend met P20 (niet aan jouw probleem gerelateerd) maar genoeg om veel mensen terug te laten gaan naar P19.
Als je een ns een ander OS erop knalt? Kun je wellicht uitsluiten of het aan esxi ligt of misschien wat anders (bios fix in de toekomst wellicht?)
Wellicht is het handig om een ESXi6 base te proberen om dan vervolgens te kijken of die wel afsluit?|sWORDs| schreef op zondag 21 februari 2016 @ 14:21:
[...]
Om gek van te worden, vandaag ESXi clean install (ESXi 6.0 Update 1b, VMware-VMvisor-Installer-201601001-3380124.x86_64.iso) naar disk gedaan, BIOS update (1.1->2.0), IPMI update (2.14->3.26), controller update (P19->P20), IPMI module uit (noipmiEnabled), BIOS restore optimal, Legacy boot->EFI boot, alle Power Management settings combi's...
Niets helpt om shutdown werkend te krijgen, zelfs niet zonder dat er ook maar iets in ESXi (passthrough, settings, etc) aangepast is.
Zo ja, dan handmatig modules updaten zo dat je dan alles stuk voor stuk softwarematig uit kan sluiten?
[ Voor 27% gewijzigd door renedis op 21-02-2016 17:58 ]
Als je quote is het wel netjes als je even alles leestrenedis schreef op zondag 21 februari 2016 @ 17:57:
[...]
P20 is het probleem niet. Ik draaide ook met een M1015 met P20 en had nergens last van.
[...]
Weet niet welke controller update je gedaan hebt van P19>P20 maar als dat een M1015 is zijn er wel wat issues bekend met P20 (niet aan jouw probleem gerelateerd) maar genoeg om veel mensen terug te laten gaan naar P19.
[ Voor 19% gewijzigd door NIK0 op 21-02-2016 23:31 ]
Member of the Ukraine IT Army
P20 geeft problemen met een oudere driver, P20 wordt juist weer aanbevolen met de laatste driver. Dit was waarom ik P19 er nog steeds in had, maar aangezien xpenology net de driver bijgewerkt heeft ben ik maar naar P20 gegaan.NIK0 schreef op zondag 21 februari 2016 @ 23:07:
[...]
Als je quote is het wel netjes als je even alles leest, schrijf dat het P19>P20 NIET gerelateerd is aan z'n shutdown probleem maar wilde dit wel meegeven aan |sWORDs| dat ie niet meer problemen op de hals haalt omdat P20 weer andere problemen met zich mee brengt
[...]
Te Koop:24 Core Intel Upgradeset
My bad!NIK0 schreef op zondag 21 februari 2016 @ 23:07:
[...]
Als je quote is het wel netjes als je even alles leest, schrijf dat het P19>P20 NIET gerelateerd is aan z'n shutdown probleem maar wilde dit wel meegeven aan |sWORDs| dat ie niet meer problemen op de hals haalt omdat P20 weer andere problemen met zich mee brengt
[...]
| # | Product | Prijs | Subtotaal |
| 1 | Intel Xeon Processor E3-1235L v5 | € 281,97 | € 281,97 |
| 1 | Asus P10S-C/4L | € 233,- | € 233,- |
| 1 | Supermicro SNK-P0046P | € 22,51 | € 22,51 |
| 2 | Samsung M391A2K43BB1 | € 99,50 | € 199,- |
| 1 | Samsung SM951 (NVMe) 256GB | € 147,- | € 147,- |
| Bekijk collectie Importeer producten | Totaal | € 883,48 | |
Volgens mij zou dit vwb stroomgebruik ook wel binnen de perken moeten blijven.
De reden dat ik voor deze config gekozen heb is dat ik dan remote management heb en dat ik meteen genoeg NIC's heb voor iSCSI en normaal LAN.
Verder nog de dubbel uitgevoerde m.2 SSD's voor zaken die lokaal toch lekkerder werken (databases bijvoorbeeld)
Maar nu de ham-vraag. Gaat dit ook werken? Zitten de drivers voor de NIC's standaard al in ESXi 5.5 of 6.0 of moet ik nog even een Intel PCIe NIC toevoegen daarvoor?
Intel 210AT zou het standaard moeten doen.
[ Voor 69% gewijzigd door |sWORDs| op 22-02-2016 15:34 ]
Te Koop:24 Core Intel Upgradeset




Waarbij ik bij de laatste moet zeggen dat Intel het gelijkwaardig doet op hogere queue depths:
Intel 750 400GB: Beter op hoge queue depths (zoals meerdere VM's simultaan), super consistent, duur.
Samsung 950 Pro 256GB: Beter op lage queue depths.
Samsung SM951 (NVMe) 256GB: Goedkoper.
[ Voor 255% gewijzigd door |sWORDs| op 22-02-2016 16:26 ]
Te Koop:24 Core Intel Upgradeset
| # | Product | Prijs | Subtotaal |
| 1 | Intel Core i5-4460 Boxed | € 180,79 | € 180,79 |
| 1 | ASRock Z87E-ITX | € 0,- | € 0,- |
| 4 | WD Red SATA 6 Gb/s WD20EFRX, 2TB | € 89,95 | € 359,80 |
| 1 | Fractal Design Node 304 Zwart | € 76,90 | € 76,90 |
| 1 | Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU | € 64,95 | € 64,95 |
| 1 | Delock MiniPCIe I/O PCIe full size 2 x SATA 6 Gb/s | € 19,51 | € 19,51 |
| 1 | Seasonic S12G 450W | € 0,- | € 0,- |
| 1 | Kingston SSDNow V300 120GB | € 43,95 | € 43,95 |
| 1 | Aeon Labs Z-Stick USB Adapter op Batterijen | € 71,87 | € 71,87 |
| 1 | Rfxcom RFXtrx433E USB 433.92MHz Transceiver | € 109,75 | € 109,75 |
| 1 | OpenTherm Gateway | € 88,95 | € 88,95 |
| Bekijk collectie Importeer producten | Totaal | € 927,52 | |
Draait ESXi 6.0 met daaronder:
Ubuntu 14.04 lts: Logitechmediaserver, SABnzbd
Ubuntu 14.04 lts: Domoticz (waar de OpenTherm Gateway, Rfxcom RFXtrx433E, P1 usb vanuit slimme meter en Aeon Labs Z-Stick op worden doorgegeven)
Debian-8.2.0: voor Openmediavault (die de 4 WD red's erbij krijgt in raid5)
XPenology: Zarafa mailserver (Die nog om moet naar een andere variant, alleen geen tijd. Kwam van een een Synology DS412+ af)


Met vooral in de nacht pieken als er backups binnenkomen/vertrekken naar extern en downloads worden binnengeharkt met SABnzbd.
Denken jullie dat daar nog wat eer aan valt te behalen aan specifieke bios settings? (zijn verder standaard).
Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Bijna hetzelfde als wat ik heb.Brainwaste schreef op maandag 22 februari 2016 @ 15:11:
Na enig lezen in onder andere dit topic ben ik tot de volgende config gekomen
# Product Prijs Subtotaal 1 Intel Xeon Processor E3-1235L v5 € 281,97 € 281,97 1 Asus P10S-C/4L € 233,- € 233,- 1 Supermicro SNK-P0046P € 22,51 € 22,51 2 Samsung M391A2K43BB1 € 99,50 € 199,- 1 Samsung SM951 (NVMe) 256GB € 147,- € 147,- Bekijk collectie
Importeer productenTotaal € 883,48
Volgens mij zou dit vwb stroomgebruik ook wel binnen de perken moeten blijven.
De reden dat ik voor deze config gekozen heb is dat ik dan remote management heb en dat ik meteen genoeg NIC's heb voor iSCSI en normaal LAN.
Verder nog de dubbel uitgevoerde m.2 SSD's voor zaken die lokaal toch lekkerder werken (databases bijvoorbeeld)
Maar nu de ham-vraag. Gaat dit ook werken? Zitten de drivers voor de NIC's standaard al in ESXi 5.5 of 6.0 of moet ik nog even een Intel PCIe NIC toevoegen daarvoor?
De CPU is erg fijn kan ik je vertellen en de SuperMicro cooler doet zijn werk goed in mijn 1U behuizing (40 graden idle, 59 graden full load zonder aanwezige fans!)
Het moederbord is ook bijna hetzelfde als die van mij.
Onthoud het volgende:
- Jij kiest voor de quad NIC ATX versie. Die verbruikt daardoor ongeveer 2W mee (1W per NIC).
- De mini-SAS-HD naar 4x SATA kabel zit er NIET bij en deze dien je apart er bij te kopen
- Tevens werkt de remote management pas na het aanschaffen van een Asus ASMB8-iKVM.
Mijn idle verbruik met 500GB mSata ssd:
ESXi 6 U1B: 15W
Hoeveel het meer zal gaan verbruiken met de Asus ASMB8-iKVM weet ik niet, ik heb deze namelijk niet aangeschaft. Maar reken wel op een X aantal watt gezien die dingen niet bekend staan om hun energie zuinigheid.
Verder was ik inderdaad de KVM module helemaal vergeten dus die gaat ook op het lijstje.
Ik denk niet dat ik een mini-SAS naar SATA kabel nodig heb want ik ga de storage van mijn Synology via iSCSI gebruiken.
Gewoon een heel grote verzameling snoertjes
Ik ben op zoek naar informatie en ervaringen van Proxmox en toen kwam ik dit tegen. Ik wilde hier op reageren.Dinsdale schreef op woensdag 27 januari 2016 @ 13:47:
Verder zou ik nog eens willen experimenteren met alternatieven voor ESX, zoals Proxmox. Andere USB erin en gaan?
Ik ben gestart met ESXI , uitgebreid getest maar kreeg het niet voor elkaar om USB geconnect te krijgen met een client. Vervolgens HyperV R2 gaan testen, ik had namelijk gelezen dat deze wel USB passthrough ondersteund. Dat is niet waar, tenminste, niet op de manier dat ik wil. Het gaat namelijk via RDP.
Uiteindelijk Proxmox geinstalleerd. In het begin erg zoeken. Ik heb het nu 2 maanden draaien, stabile Geen storingen of vreemde dingen. Voor support moet je goed zoeken, minder gebruikers dan ESXI of HyperV maar over Linux is veel te vinden.
USB connecten was heel simple en werkt goed. Ik gebruik het voor Domoticz.
Aangezien je ESXi niet aan de praat heb gekregen voor wat je wilde kan je helaas geen vergelijking met proxmox doen kwa verbruik. Maar weet je wel hoeveel jouw Proxmox verbruikt en wat voor HW?vanputten80 schreef op dinsdag 01 maart 2016 @ 13:01:
[...]
Ik ben op zoek naar informatie en ervaringen van Proxmox en toen kwam ik dit tegen. Ik wilde hier op reageren.
Ik ben gestart met ESXI , uitgebreid getest maar kreeg het niet voor elkaar om USB geconnect te krijgen met een client. Vervolgens HyperV R2 gaan testen, ik had namelijk gelezen dat deze wel USB passthrough ondersteund. Dat is niet waar, tenminste, niet op de manier dat ik wil. Het gaat namelijk via RDP.
Uiteindelijk Proxmox geinstalleerd. In het begin erg zoeken. Ik heb het nu 2 maanden draaien, stabile Geen storingen of vreemde dingen. Voor support moet je goed zoeken, minder gebruikers dan ESXI of HyperV maar over Linux is veel te vinden.
USB connecten was heel simple en werkt goed. Ik gebruik het voor Domoticz.
[ Voor 17% gewijzigd door Kage Musha op 01-03-2016 15:22 . Reden: reactie onder quote.... ]
o.o
Zeker. Heb een "oude" office PC, namelijk een HP8200 met een I5. Verbruik idle is tussen 20/25 watt. 128GB SSD voor besturing en 12GB ram. Voor data heb ik een Toshiba 3TB disk er in zitten.Kage Musha schreef op dinsdag 01 maart 2016 @ 15:21:
[...]
Aangezien je ESXi niet aan de praat heb gekregen voor wat je wilde kan je helaas geen vergelijking met proxmox doen kwa verbruik. Maar weet je wel hoeveel jouw Proxmox verbruikt en wat voor HW?
Ik heb 3 VMs draaien. OMV, W10 voor Domotica en Server 2012 R2 voor data storage.
Verwijderd
Ik ben met behulp van deze thread ook tot een gelijkaardige config gekomen met de Asus P10S-C/4. Ik heb hiervoor dezelfde argumentatie als Brainwaste.Brainwaste schreef op maandag 22 februari 2016 @ 15:11:
Na enig lezen in onder andere dit topic ben ik tot de volgende config gekomen
# Product Prijs Subtotaal 1 Intel Xeon Processor E3-1235L v5 € 281,97 € 281,97 1 Asus P10S-C/4L € 233,- € 233,- 1 Supermicro SNK-P0046P € 22,51 € 22,51 2 Samsung M391A2K43BB1 € 99,50 € 199,- 1 Samsung SM951 (NVMe) 256GB € 147,- € 147,- Bekijk collectie
Importeer productenTotaal € 883,48
Volgens mij zou dit vwb stroomgebruik ook wel binnen de perken moeten blijven.
De reden dat ik voor deze config gekozen heb is dat ik dan remote management heb en dat ik meteen genoeg NIC's heb voor iSCSI en normaal LAN.
Verder nog de dubbel uitgevoerde m.2 SSD's voor zaken die lokaal toch lekkerder werken (databases bijvoorbeeld)
Maar nu de ham-vraag. Gaat dit ook werken? Zitten de drivers voor de NIC's standaard al in ESXi 5.5 of 6.0 of moet ik nog even een Intel PCIe NIC toevoegen daarvoor?
Enige verschil is dat ik voor weinige euro's meer was uitgekomen op de E3-1240L v5 ipv de E3-1235L v5 en dit wegens de afwezigheid van HT in deze laatste. Aangezien ik er ESX wil op draaien, lijken me de extra threads (8 ipv 4) een leuke extra. De E3-1240L v5 heeft wel geen onboard video, maar als ik het goed lees in de specs, is dit voor de Asus P10S-C/4 geen probleem aangezien daar een Aspeed AST2400 GPU onboard zit. De Intel HD Graphics P530 in de E3-1235L v5 heeft volgens mij toch ook geen meerwaarde voor ESX.
Graag jullie reactie.
Dit weekend eens ESXi installeren en kijken of alles goed aan de praat krijg. Zal dan ook de eerste test kunnen doen hoeveel verbruik de config heeft.




| # | Product | Prijs | Subtotaal |
| 1 | Supermicro X10SDV-TLN4F | € 989,01 | € 989,01 |
| 1 | Lian Li PC-Q26B Zwart | € 185,- | € 185,- |
| 2 | Samsung M391A2K43BB1 | € 99,50 | € 199,- |
| 1 | Cooler Master V Series V550 - 80+ Gold | € 92,- | € 92,- |
| 1 | Samsung 950 Pro 512GB | € 312,- | € 312,- |
| 4 | Lian Li 2x-Hot-Swap-Backplate | € 11,31 | € 45,24 |
| Bekijk collectie Importeer producten | Totaal | € 1.822,25 | |
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
CoolZware Unit schreef op woensdag 02 maart 2016 @ 23:00:
Hardware is binnen en inmiddels zit de basis in elkaar. Kabel zijn netjes weggewerkt voor goede airflow. 4 extra back plates geïnstalleerd. Nu nog een controller en een stel disken op de kop tikken![]()
Dit weekend eens ESXi installeren en kijken of alles goed aan de praat krijg. Zal dan ook de eerste test kunnen doen hoeveel verbruik de config heeft.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Heb je een 1540 of een 1541 gekregen?Zware Unit schreef op woensdag 02 maart 2016 @ 23:00:
Hardware is binnen en inmiddels zit de basis in elkaar. Kabel zijn netjes weggewerkt voor goede airflow. 4 extra back plates geïnstalleerd. Nu nog een controller en een stel disken op de kop tikken![]()
Dit weekend eens ESXi installeren en kijken of alles goed aan de praat krijg. Zal dan ook de eerste test kunnen doen hoeveel verbruik de config heeft.
[...]
10Gbit NIC's voor VM networks gebruiken en PVSCSI thin disks gebruiken voor Linux/Windows VM's op je NVMe drive.
Mocht je Windows VM's gaan draaien:
OSOT tool draaien en voor je optimized even "TCP/IP Task Offload - Disable" de-selecteren.
Mocht je ook met VM's met Office/IE gaan werken:
1
2
3
4
5
6
| HKEY_CURRENT_USER\Software\Microsoft\Internet Explorer\Main "UseSWRender"=dword:00000001 HKEY_CURRENT_USER\Software\Microsoft\Office\14.0\Gfx "DisableHardware"=dword:00000001 HKEY_CURRENT_USER\Software\Microsoft\Office\15.0\Common\Graphics "DisableHardwareAcceleration"=dword:00000001 HKEY_CURRENT_USER\Software\Microsoft\Office\15.0\Common\Graphics "DisableAnimations"=dword:00000001 HKEY_CURRENT_USER\Software\Microsoft\Office\16.0\Common\Graphics "DisableHardwareAcceleration"=dword:00000001 HKEY_CURRENT_USER\Software\Microsoft\Office\16.0\Common\Graphics "DisableAnimations"=dword:00000001 |
Voor Firefox/Chrome moet je ook even HW acceleratie uitschakelen.
[ Voor 57% gewijzigd door |sWORDs| op 03-03-2016 10:26 ]
Te Koop:24 Core Intel Upgradeset
Nu wil ik naar een nieuwe server, aangezien die oude laptop 2 jaar geleden al niet meer voldeed. Ik had ook al verwacht dat de hdd en de fan nu beide wel kapot zouden zijn, ze maken erg veel lawaai
Maar wat ik er mee wil doen is het volgende(redelijk zuinig en stil):
- Plex Media server, die af en toe 2 streams aan moet kunnen
- Citrix Netscaler. (moet er op het moment veel mee doen op het werk en wil thuis wat prutsen en ook echt gebruiken)
- Download bak, Linux of windows. Ben ik nog niet over uit. Draait een webinterface
- Een systeem dat alle backups afhandeld. ook iets simpels met debian
- 1 of 2 lichte debian vm, voor testen/prutsen. Die kunnen vaak met 1 core en 256 mb af.
- pfsense
- extra hdd's en iets van ZFS FreeNAS/BSD
- , Ik heb nu nog een mybook met 4TB
| # | Product | Prijs | Subtotaal |
| 1 | Intel Pentium G4520 Boxed | € 97,95 | € 97,95 |
| 1 | ASRock H170M-ITX/DL | € 95,51 | € 95,51 |
| 1 | Fractal Design Node 304 Zwart | € 79,50 | € 79,50 |
| 1 | Kingston HyperX Fury HX421C14FBK2/16 | € 69,95 | € 69,95 |
| 1 | be quiet! Pure Power L8 300W | € 41,95 | € 41,95 |
| 1 | Crucial MX200 mSATA 250GB | € 82,90 | € 82,90 |
| Bekijk collectie Importeer producten | Totaal | € 467,76 | |
Waar ik mij zorgen over maak is dat de CPU niet sterk genoeg is, vooral voor Plex en in de toekomst dan ook nog een FreeNAS/BSD iets. Ik wil wel wat zuinigs, maar het moet ook niet te duur worden, misschien een i5-6500?.
Ook vraag ik mij af of ESXi 6 nu wel of niet werkt op deze skylake architectuur. Ik zag dat de NIC ondersteund worden door de drivers toe te voegen. Maar de H170 weet ik zo niet, ik zag wel problemen met de Z170. In dit topic was er volgens mij ook iemand met de H170, maar die had het niet echt getest. Weet iemand hier meer van?
...een dag uit je bed gekomen is een dag niet geleefd... barres.nl | Flickr
Potentieel moet je wel even je downloads uitzetten omdat tijdens RAR en PAR acties je streams er wel last van zouden kunnen hebben, maar dat is met nice en ionice ook eventueel op te vangen.
Over die NIC: Lastig te zien, het is ding heeft 2 NIC's een Intel i219v en een Realtek. Beide zouden met custom drivers moeten werken, maar je zit altijd met het probleem dat die drivertjes soms wat achterlopen met de allernieuwste PCI:ID's. ESXi heeft een harde lijst met PCI:ID's die gelinkt worden aan een driver.
Zekerheid kan ik je hier niet over geven.
Ander dingetje: Is het niet beter om voor 2*16 te gaan? of als dat echt te duur is, voor 1 * 16? Mooie van dat nieuwe platform is dat 16GB DIMM's ondersteund worden. Dit betekend dat je in de toekomst (of nu direct
Even niets...
Maar gezien de andere VM's die ook wil draaien vraag ik mij ook af of het wel genoeg is dan. Zou je eventueel ook een andere CPU aanraden?
Over de NIC's, daar maak ik mij minderzorgen om: http://www.v-front.de/201...es-support-for-intel.html
Eventueel doet 1 van de 2 het in het begin, ik heb later de 2e pas nodig. Nu niet per direct nodig.
Er is nog wel wat ruimte in het budget. Dus misschien is 2*16 ook wel leuk, maar dat ligt er dus ook aan of een andere CPU misschien toch beter is. Als er iemand nog een suggestie heeft dan hoor ik dat graag.
...een dag uit je bed gekomen is een dag niet geleefd... barres.nl | Flickr
Ik denk dat je het best red met de Pentium hoor, ik draai hier 4 hosts met elk een Celeron G1820 en die dingen staan vrijwel altijd uit hun neus te eten.
Even niets...
Thanx voor je advies.
...een dag uit je bed gekomen is een dag niet geleefd... barres.nl | Flickr
| # | Product | Prijs | Subtotaal |
| 1 | Intel Core i5-6500 Tray | € 208,19 | € 208,19 |
| 1 | Gigabyte GA-B150M-D3H | € 79,95 | € 79,95 |
| 1 | Cooltek C3 Zwart | € 63,67 | € 63,67 |
| 1 | Intel Gigabit CT Desktop Adapter | € 26,34 | € 26,34 |
| 1 | Scythe Kozuti 40mm Super-Low Profile | € 25,95 | € 25,95 |
| 2 | Crucial CT2K8G4DFD8213 | € 65,50 | € 131,- |
| 1 | be quiet! Straight Power 10 400W | € 67,95 | € 67,95 |
| Bekijk collectie Importeer producten | Totaal | € 603,05 | |
Als storage (had ik nog liggen) heb ik een 120 en een 500GB Samsung 850 EVO SSD, dit is voor mij voldoende en als ik ruimte te kort kom dan maak ik een iSCSI op mijn Synology NAS (welke is ook voor NFS shares gebruik). ESXi 6 Update 1 was zonder problemen te installeren (supported NIC on board).
Mocht er nog iemand interesse hebben in een leuke en zuinige ESXi server: V&A aangeboden: Intel NUC5i3RYH, 8GB Kingston geheugen en 120GB Samsung SSD
[ Voor 3% gewijzigd door Madhouse1979 op 03-03-2016 14:12 ]
Die Intel CT zou ik links laten liggen (oud ding), en van eBay een goedkope Server Pull Dual of Quad Port Intel NIC kopen.
Je hebt voor 20,- euro al een nieuwe system pull dual port, en voor een euro of 40-50 een quad port.
Zoek op nc364t op ebay voor de leuke aanbiedingen
Even niets...
Dit is de juiste (met 2x 16GB geheugen)
| # | Product | Prijs | Subtotaal |
| 1 | Intel Core i5-6500 Tray | € 208,19 | € 208,19 |
| 1 | Gigabyte GA-B150M-D3H | € 79,95 | € 79,95 |
| 1 | Cooltek C3 Zwart | € 63,67 | € 63,67 |
| 1 | Intel Gigabit CT Desktop Adapter | € 26,34 | € 26,34 |
| 1 | Scythe Kozuti 40mm Super-Low Profile | € 25,95 | € 25,95 |
| 2 | Crucial CT16G4DFD8213 | € 96,- | € 192,- |
| 1 | be quiet! Straight Power 10 400W | € 67,95 | € 67,95 |
| Bekijk collectie Importeer producten | Totaal | € 664,05 | |
De CT heb ik er al in zitten maar zal eens zoeken op ebay
Edit: De CT er dus uit en dan zoiets er in drukken: http://www.ebay.com/itm/O...f4cb41:g:5j4AAOSwB4NWy-B1
[ Voor 3% gewijzigd door Madhouse1979 op 03-03-2016 14:53 ]
Te Koop:24 Core Intel Upgradeset
Vind de Intel dan denk ik wel de beste optie (altijd prima ervaringen mee).
Power Management Technologies
Today, companies everywhere are looking for ways to de- crease energy consumption across the enterprise to reduce costs and environmental impact, while at the same time solv- ing increasingly important power density challenges. That’s why Intel has introduced new, advanced Power Management Technologies (PMTs) with the Intel Ethernet Server Adapter I350 family that enable enterprises to con gure power op- tions on the adapter and more e ectively manage their power consumption.
Energy Efficient Ethernet (EEE)
The Intel Ethernet Server Adapter I350 family supports the IEEE802.3az Energy E cient Ethernet (EEE) standard so that, during periods of low network activity, EEE reduces the power
High Power Low
consumption of an Ethernet connection by negotiating with
a compliant EEE switch port to transition to a low power idle (LPI) state. This reduces the controller power to approximately 50% of its normal operating power, saving power on the net- work port and the switch port. As soon as increased network tra c is detected, the controller and the switch quickly come back to full power to handle the increased network tra c. EEE is supported for both 1000BASE-T and 100BASE-TX.
DMA Coalescing
Another power management technology that can reduce power on the server platform is DMA Coalescing (DMAC). Typically, when a packet arrives at a server, DMA calls are made to transfer the packet within the server. These calls wake up the processor, memory and other system compo- nents from a lower power state in order to perform the tasks required to handle the incoming packet.
Based on the con gurable DMAC settings, incoming packets are bu ered momentarily before any DMA calls are made. This enables the controller to intelligently identify opportunities to batch multiple packets together so that when components are wakened from lower power states they can e ciently handle the batched packets at the same time. This enables platform components to remain in lower power states longer, which
can dramatically reduce platform energy consumption. DMAC synchronizes DMA calls across all controller ports to ensure maximum power savings.
[ Voor 116% gewijzigd door |sWORDs| op 03-03-2016 15:25 ]
Te Koop:24 Core Intel Upgradeset
Zie dat een T2 bijna net zo duur is dan een T4, een T4 is wel een beetje overkill maar voor die paar dollar meer wel een betere keuze.
[ Voor 31% gewijzigd door Madhouse1979 op 03-03-2016 15:39 ]
Dat ziet er heel goed uit! Gaat waarschijnlijk lijken op het systeem wat ik voor ogen heb. Ik ben dus nieuwsgierig naar jouw bevindingen. En volgens mij is het hier al eerder gevraagd. is het nou de D 1541?Zware Unit schreef op woensdag 02 maart 2016 @ 23:00:
Hardware is binnen en inmiddels zit de basis in elkaar. Kabel zijn netjes weggewerkt voor goede airflow. 4 extra back plates geïnstalleerd. Nu nog een controller en een stel disken op de kop tikken![]()
Dit weekend eens ESXi installeren en kijken of alles goed aan de praat krijg. Zal dan ook de eerste test kunnen doen hoeveel verbruik de config heeft.
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
# Product Prijs Subtotaal 1 Supermicro X10SDV-TLN4F € 989,01 € 989,01 1 Lian Li PC-Q26B Zwart € 185,- € 185,- 2 Samsung M391A2K43BB1 € 99,50 € 199,- 1 Cooler Master V Series V550 - 80+ Gold € 92,- € 92,- 1 Samsung 950 Pro 512GB € 312,- € 312,- 4 Lian Li 2x-Hot-Swap-Backplate € 11,31 € 45,24 Bekijk collectie
Importeer productenTotaal € 1.822,25
Dè developers podcast in je moerstaal : CodeKlets Podcast
De Intel HD Graphics kan hardwarematig H264/265 encoden/decoden, ook met ESXi als hypervisor (als je de juiste licentie hebt). Dat zou de enige reden nog kunnen zijn om voor de 1235L te gaan in plaats van de 1240L.Verwijderd schreef op woensdag 02 maart 2016 @ 11:48:
[...]
Ik ben met behulp van deze thread ook tot een gelijkaardige config gekomen met de Asus P10S-C/4. Ik heb hiervoor dezelfde argumentatie als Brainwaste.
Enige verschil is dat ik voor weinige euro's meer was uitgekomen op de E3-1240L v5 ipv de E3-1235L v5 en dit wegens de afwezigheid van HT in deze laatste. Aangezien ik er ESX wil op draaien, lijken me de extra threads (8 ipv 4) een leuke extra. De E3-1240L v5 heeft wel geen onboard video, maar als ik het goed lees in de specs, is dit voor de Asus P10S-C/4 geen probleem aangezien daar een Aspeed AST2400 GPU onboard zit. De Intel HD Graphics P530 in de E3-1235L v5 heeft volgens mij toch ook geen meerwaarde voor ESX.
Graag jullie reactie.
HT heeft niet erg veel meerwaarde in de praktijk bij ESXi in mijn ervaring.
De encoding/decoding support was voor mij de reden waarom ik voor de 1235L heb gekozen.
Ik heb nog een Dell H092P PCI-E Quad Port 10/100/1000 Intel Gigabit NIC liggen,Madhouse1979 schreef op donderdag 03 maart 2016 @ 15:01:
Hmmmm eerst de NUC maar even verkopen en dan heb ik wel weer budget voor uitbreidingen
Vind de Intel dan denk ik wel de beste optie (altijd prima ervaringen mee).
Werkt gegarandeerd met ESXi en verbruikt 7W onder load.
Mag weg voor 50,- incl verzendkosten.
Wat ik wil is downloaden in de ene VM, en er iets mee doen in een andere VM. Dit om te zorgen dat je andere rechten kan geven aan je verschillende VM's met betrekking tot de rest van je netwerk.
Nu heb ik een paar manieren bedacht en gevonden op internet om te regelen maar is het mijn niet duidelijk wat de beste manier is.
Het simpelweg koppelen van een schijf aan meerdere VM's kan niet omdat ESXI op dezelfde SSD staat als de VM's en dat daarom de controller al in gebruik is. De oplossing is dan ESXI vanaf een stick draaien, maar dan creëer je weer een extra SPOF
Wie kan mij wel de juiste richting op sturen?
Als je data-disk wel vrij beschikbaar was en aan een door te geven controller hing (en ESXi en de metadata van je VM's op een andere disk stond) dan nog kun je die controller maar aan één VM geven.
Over het algemeen kunnen VM's dus alleen bij elkaar via het netwerk, en dit is (hele specifieke uitzonderingen daargelaten) ook meer dan voldoende.
Wat wil je _precies_ bereiken? Kun je de VM die 'er iets mee doet' niet gebruik laten maken van een user die rechten heeft op de share die je benadert (als je SMB gebruikt), en andere users geen rechten geven? OF NFS gebruiken en die VM / dat IP als enige toegang geven?
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Dus de ene VM zal vooral schijven en Kodi VM zal vooral lezen.
Mijn ESXI is geinstaleerd op een SSD die aangesloten op de controller van het moederbord ( Inventaris ) en op die SSD staan ook de VM's geinstaleerd.
Data wordt weggeschreven naar een 2tb en een 3tb die ook op het moederbord zijn aangesloten.
Als ik het goed begrijp is de manier dus om mijn data schijven aan de Download VM te hangen, en de Kodi VM toegang te geven via NFS?
Waarom het downloaden niet met dezelfde VM trouwens?
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
SMB is niet nodig omdat ik er vanaf windows niet bij hoef. Mijn HTPC draaid ook linux.Paul schreef op maandag 07 maart 2016 @ 12:04:
BijvoorbeeldDat werkt tussen twee Linux-VM's vaak wel het makkelijkste. Andere optie is SMB, vooral als je er (anders dan via Plex of Kodi) ook vanaf een Windows-machine bij wil.
Waarom het downloaden niet met dezelfde VM trouwens?
En waarom is als extra veiligheid. Als ik automatisch troep binnenhaal via het downloaden hebben mijn andere VM's en de rest van het netwerk er geen last van
Zou je downloadbak (of PLEX, of Kodi) het wel uitvoeren (wat ze dus niet doen. Je downloadbak opent een ZIP en pakt deze uit; geen uitvoerbare code. Je PLEX- en Kodi-VM openen de bestanden en streamen de data [al dan niet via een transcoder], wederom, geen uitvoerbare data) en besmet raken (zeldzaam, maar niet onmogelijk op een Linux-machine) dan nog staat het al dan niet delen van je harddisk los van de mogelijkheden van het virus
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Downloaden kan overigens zoals Paul ook zei prima met dezelfde machine als waar Kodi of OpenElec op draait.
Wat ik me nog wel afvraag, hoe wil je het beeld van je Kodi VM op de monitor/tv krijgen? Want je kan niet zomaar het beeld doorsturen naar je videokaart?
Even niets...
De Kodi VM zorgt er alleen voor dat hoesjes aangemaakt worden en alles bijgewerkt wordt. Mijn HTPC haalt deze dan op via UPnP zodat mijn htpc daar geen tijd aan kwijt is. Dus het beeld regelt de HTPCFireDrunk schreef op maandag 07 maart 2016 @ 12:41:
Wat ik me nog wel afvraag, hoe wil je het beeld van je Kodi VM op de monitor/tv krijgen? Want je kan niet zomaar het beeld doorsturen naar je videokaart?
Hier doet Sonar dat gewoon voor mij, ik kan precies instellen voor welke applicatie ik al die extra info erbij gezet wil hebben. (in mijn geval Kodi & Plex).
Even niets...
Enige voorzichtigheid is wel geboden met de i350-T4 kaarten, een (vermoedelijk aanzienlijk) deel van het voordelige aanbod op eBay blijkt Chinese namaak te zijn: https://forums.servetheho...-t4-genuine-vs-fake.6917/
Kun je die M.2 interface passthrough-en?
Laat maar, ik google net en zie dat het kan als je een ahci vib installeerd.
Ben de afgelopen dagen bezig met ijzer samen stellen voor een zuinige/stille server en wil mogelijk ook een board nemen met een M.2 interface, mits deze gebruikt kan worden. Zit nu hier naar te kijken:
| # | Product | Prijs | Subtotaal |
| 1 | Intel Core i5-6400 Boxed | € 185,95 | € 185,95 |
| 1 | ASRock H170M Pro4S | € 90,95 | € 90,95 |
| 1 | Kingston ValueRAM KVR21N15D8K2/32 | € 122,06 | € 122,06 |
| Bekijk collectie Importeer producten | Totaal | € 398,96 | |
Dit heb ik al liggen:
| # | Product | Prijs | Subtotaal |
| 4 | Seagate Constellation.2 ST91000640SS, 1TB | € 202,- | € 202,- |
| 1 | Seasonic G-series 360 watt | € 59,95 | € 59,95 |
| Bekijk collectie Importeer producten | Totaal | € 261,95 | |
Gebruik nu af en toe een x3550 M3, maar ik trek die 1u fans niet. Je wordt helemaal
Mijn 8-jaar oude NAS (QNAP) gaat een keer omvallen. Ik kan daar op wachten of ik begin na te denken over opvolging. Na opvolging wordt QNAP back-up device.
Dus ben ik begonnen met het nadenken over een NAS, kant-en-klaar of ga ik het zelf bouwen? Dat laatste lijkt mij leuk, ik bouw ook wel zelf PC's en HTPC's. Servers heb ik nog nooit gedaan, maar interessant lijkt het me wel. Vast weer heel veel te leren!
Mijn zoon gaat het komend jaar starten met een IT-gerichte opleiding en zal daar vast en zeker met virtualisatie te maken gaan krijgen en daarmee willen spelen en oefenen.
Kortom ergens begon ik ook na te denken over een soort all-in-one-server, die óók NAS als rol kan nemen. Dus een 'doos', zo energiezuinig als haalbaar, die met een hypervisor (ESXi), de in de 'doos' beschikbare resources kan toebedelen aan een aantal virtuele machines. En ik denk dan aan een MySQL-server, een webserver, een mailserver, een LDAP-server, VPN-server, etc. Waarschijnlijk zijn een aantal van die servers te combineren, daar kom ik zelf ergens wel achter denk ik. Maar als mijn zoon het als speeltuin zal gaan gebruiken zullen er wellicht nog wel wat testservers bij gaan komen. Dat wordt natuurlijk nooit een productie-omgeving, maar de boel moet ook niet helemaal stil komen te staan.
Nu lees ik in dit forum-thread heel veel over Intel i5 (Skylake) en af en toe ook wel over de Xeon E3 1200 v5 serie (ik denk aan de 1275 of 1245). En ik denk dat ik uit die twee zal moeten kiezen, maar is dat wel zwaar genoeg? Xeon dan heb je ECC (en vt-D) support, dat is nodig voor stabiliteit en passthrough. i5 is beter voor het budget. Het budget staat overigens nog niet heel erg vast, maar ergens rond de 1000 euro voor case, voeding, mobo, processor en geheugen (en eventueel RAID-controller) is waar ik aan denk. Ik denk verder aan 4 HDD's, een M.2 SSD als bootdevice en een 500Gb SSD voor het draaien van de VM's. Ik las ergens dat als je ZFS wil gaan gebruiken (ik lees daar goede dingen over) je ook nog een SSD als caching moet 'rekenen' die dan samen met de 4 HDD's de bak met storage moet vormen voor de NAS-functie. In elk geval wil ik de HDD's niet aan het spinnen hebben als ik geen data nodig heb, dat schijnt stukken te schelen in het energieverbruik las ik. Dus zoveel mogelijk op SSD, behoudens de echte data.
Die HDD's en SSD's zitten niet in het budget van 1000 euro.
Ik heb geen ervaring met virtualisatie (dus ook geen gevoel bij belasting en performance), maar snap het concept wel (werk in de IT). Ik neig vanuit wat ik lees naar de Intel Xeon E3 1274 v5, die lijkt mij krachtig genoeg, ondersteunt vt-D en ondersteund ECC. Maar wil hier graag jullie kijk ook op? Voor mijn doeleinde, een NAS, webserver en SQL-server, PLEX en wat downloadwerk is het meer dan genoeg, dat is mijn huidige QNAP al, maar als mijn zoon er straks mee gaat spelen/oefenen (ik weet dat m'n back-up dan goed geregeld moet zijn, haha), loopt het dan niet te snel vast?
Ik heb een paar vragen over mijn idee/plan:
1. Is het een goed idee om NAS met virtualisatie-server te combineren? Ik heb de indruk dat het kan, en als het kan waarom niet? NAS heeft niet zoveel om het lijf. Draai nu al jaren om een QNAP met een Atom 1.8Ghz, en is meer dan prima.
2. Ik las ergens dat Skylake Xeon v5 nog niet ondersteund wordt door ESXi 6.0, of toch wel in update 1?
3. Kan ZFS wel samen met ESXi? Of zijn er betere oplossingen? Deze vraag vind ik nu nog minder spannend, want dat kan later ook nog wel uitgevogeld worden. Maar als er nu al ideeën zijn, welkom!
4. 16, 32 of 64Gb? Ik schat het laatste, ook omdat als ik ZFS wil gaan gebruiken dat veel RAM vraagt.
5. Is de Xeon E3 1200 v5 serie wel zuinig? Ik lees dat hij nagenoeg gelijk is aan de i% Skylake (op hyperthreading na), en zou iets zuiniger zijn?
6. Ideeën over een goede case? Goede voeding? Ik vindt de Chenbro-cases wel mooi. Voeding moet 80+ efficiency hebben.
7. Weet niet zeker of dit de plaats is om mijn vragen te stellen, dus is er een betere plaats (ik ben niet persé op zoek naar het allerzuinigst, maar in idle state hoop ik toch wel max. 40Watt te verbruiken, liever minder) dan hoor ik dat ook graag.
Veel vragen... ben benieuwd, hoor graag van jullie!
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.