Ik veronderstel dat je daar nog meer op gaat draaien.
Anders is het interessanter om pfSense bare metal te draaien.
Anders is het interessanter om pfSense bare metal te draaien.
[ Voor 14% gewijzigd door FireDrunk op 25-07-2016 19:57 ]
Even niets...
Heb jij toevallig dit als moederbord gigabyte j1900n-d2h?FireDrunk schreef op maandag 25 juli 2016 @ 10:24:
Zijn er hier mensen die al eens ESXi op een Celeron j1900 hebben gedraaid, en die iets kunnen zeggen over de performance daar van? Ik kan niet zo goed inschatten wat de Celeron kan hebben.
Idee is om virtueel pfSense te draaien. Maar ik heb 200Mbit internet, en ik heb geen idee of de j1900 200Mbit aan vSwitch traffic makkelijk kan handelen.
[ Voor 3% gewijzigd door Teaclo op 27-07-2016 12:22 ]
Keep smiling
Even niets...
Inderdaad verkeerde ISOFireDrunk schreef op woensdag 27 juli 2016 @ 12:36:
Nee, ik heb een chiness passive mini-pctje gekocht van een onbekend merk. Maar heb met ESXi hetzelfde probleem.
Sophos UTM leek mij ook prima, maar als ik daar de laatste iso van pak, krijg ik de melding dat hij de "Appliance Hardware" niet kan vinden...
Zal wel de verkeerde ISO gebruiken.
Keep smiling
# | Product | Prijs | Subtotaal |
1 | be quiet! Pure Power L7 350W | € 0,- | € 0,- |
1 | Cooler Master Elite 335 | € 0,- | € 0,- |
1 | Delock SATA-300 PCI Express Card, 2 Port | € 15,50 | € 15,50 |
1 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 0,- | € 0,- |
1 | Intel Core i5 2400 Boxed | € 0,- | € 0,- |
1 | Intel Desktop Board DQ67OWB3 | € 0,- | € 0,- |
1 | Intel PRO/1000 GT | € 37,- | € 37,- |
1 | Intel Pro/1000 PT Dual Port | € 156,01 | € 156,01 |
1 | Kingston ValueRAM KVR1333D3N9K2/8G | € 79,95 | € 79,95 |
1 | Maxtor DiamondMax 10 160GB, 160GB | € 145,20 | € 145,20 |
6 | Samsung Spinpoint F4 EG HD204UI, 2TB | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 433,66 |
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 2400 Boxed | € 0,- | € 0,- |
1 | Intel Desktop Board DQ67OWB3 | € 0,- | € 0,- |
8 | WD Red WD40EFRX, 4TB | € 156,- | € 1.248,- |
1 | Cooler Master Elite 335 | € 0,- | € 0,- |
1 | Intel PRO/1000 GT | € 37,- | € 37,- |
1 | Intel Pro/1000 PT Dual Port | € 156,01 | € 156,01 |
4 | Kingston ValueRAM KVR1333D3N9H/8G | € 37,76 | € 151,04 |
1 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 0,- | € 0,- |
1 | be quiet! Pure Power L7 350W | € 0,- | € 0,- |
1 | Samsung 830 series SSD 128GB | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 1.592,05 |
Everything is better with Bluetooth
Ik heb zelf een passief gekoeld c2558 bordje van Supermicro in deze kast zitten. Zonder extra kastkoeling loopt de CPU-temperatuur al gauw op naar een graad of 60-70. Dus ik ben wel heel benieuwd naar:Microkid schreef op vrijdag 22 juli 2016 @ 19:25:
Het moederbord komt met een klein fannetje. Aangezien er in een meterkast natuurlijk weinig luchtstroom is, wil ik geen risico nemen en heb ik een Prolimatech Ultrasleek Vortex 140mm in de case geplaatst. De fan is slechts 15mm hoog en pas perfect aan de binnenkant van het gaas. De fan draait heel langzaam op 300 toeren en houdt alles lekker koel, dus ook het geheugen.
Als kast heb ik een Antec ISK 110 VESA gekozen, dit is een mini-itx kast van amper 22x22cm met veel gaas, dus lekker luchtig. De 90W voeding is extern. Hier een mooie review van deze case.
Klinkt goed, heb zelf ook nog i5 2400 gaat ook 32GB in. Persoonlijk zou ik de voeding vervangen, staat niet bekend als hoge kwaliteit die serie.jeanj schreef op zaterdag 30 juli 2016 @ 11:21:
Ik heb sinds 2011 een "zuinige" ESxi (4.1) server waar ik o.a. nas4free op draai met zfs met daarnaast nog 5-10 linux/bsd vm's en win7 vm
Ik sta nu op het punt om wat zaken te vernieuwen/uit te breiden, en daar zoek ik wat advies voor
Hoi, ik heb e.e.a. verduidelijkt in m'n oorspronkelijke bericht. Fans zitten vast met 2 kleine tie-wraps, cpu is ongeveer 40 graden, geheugen 36.Dinsdale schreef op zaterdag 30 juli 2016 @ 19:39:
[...]
Ik heb zelf een passief gekoeld c2558 bordje van Supermicro in deze kast zitten. Zonder extra kastkoeling loopt de CPU-temperatuur al gauw op naar een graad of 60-70. Dus ik ben wel heel benieuwd naar:Mooi project heb je daar overigens. Ik zit er zelf over te denken om zo'n bordje in een Chieftec IX-03B in te bouwen, net iets kleiner dan de Antec. Niet omdat het moet....
- Hoe je de fan aan de kast heb vastgemaakt? Dat kon ik niet duidelijk uit de foto's halen.
- Welke temperaturen je nu meet op de CPU en het geheugen?
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Oeps. Sorry, finaal overheen gelezen.Microkid schreef op zondag 31 juli 2016 @ 00:14:
[...]
Hoi, ik heb e.e.a. verduidelijkt in m'n oorspronkelijke bericht. Fans zitten vast met 2 kleine tie-wraps, cpu is ongeveer 40 graden, geheugen 36.
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G840 Boxed | € 0,- | € 0,- |
1 | Intel Desktop Board DH67BL (B3) | € 0,- | € 0,- |
1 | HP 410411-001, 250GB | € 0,- | € 0,- |
2 | WD Green WD20EARX, 2TB | € 102,85 | € 205,70 |
1 | Fractal Design Core 1000 USB 2.0 | € 60,89 | € 60,89 |
1 | P1 Smart Meter USB | -- | -- |
1 | Intel Gigabit CT Desktop Adapter | € 24,08 | € 24,08 |
1 | Kingston ValueRAM KVR16R11S8K4/16 | € 98,49 | € 98,49 |
1 | Antec Earthwatts EA-380D Green | € 49,45 | € 49,45 |
1 | APC Back-UPS ES 550VA DIN | € 75,- | € 75,- |
1 | Rfxcom RFXtrx433E USB 433.92MHz Transceiver | € 109,75 | € 109,75 |
Bekijk collectie Importeer producten | Totaal | € 623,36 |
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-6400 Boxed | € 183,50 | € 183,50 |
1 | Asus Q170M2 | € 152,- | € 152,- |
2 | WD Red WD30EFRX, 3TB | € 110,50 | € 221,- |
1 | Kingston HyperX Fury black HX421C14FBK2/32 | € 141,- | € 141,- |
1 | Samsung SM961 512GB | € 251,92 | € 251,92 |
Bekijk collectie Importeer producten | Totaal | € 949,42 |
# | Product | Prijs | Subtotaal |
1 | Supermicro X10SDV-4C-TLN4F | € 536,50 | € 536,50 |
2 | WD Red WD30EFRX, 3TB | € 110,50 | € 221,- |
1 | Kingston ValueRAM KVR21E15D8K2/32I | € 164,20 | € 164,20 |
1 | Samsung SM961 512GB | € 251,92 | € 251,92 |
Bekijk collectie Importeer producten | Totaal | € 1.173,62 |
Tjonge dit is een lastige:dnacid schreef op donderdag 04 augustus 2016 @ 11:03:
[...]
Ik ben dus van plan om het moederbord, cpu, geheugen en hdd's te vervangen.
De situatie waar ik naar toe wil is:
- ESXi 6 op usb stick
- Datastore op NVME SSD (Samsung 961)
- Disks/sata controller via vt'd doorgeven aan freenas
- In eerste instantie zullen de vm's hetzelfde blijven. in de toekomst kan er natuurlijk wel eens wat bij komen.
Op dit moment gaat mijn voorkeur uit naar systeem 2 ivm de volgende redenen:
- Supermicro bord heeft 2 x 1Gbps en 2 x 10Gbps standaard aan boord.
- Bord heeft IPMI, leuk om te hebben.
- Setup is waarschijnlijk zuiniger als systeem 1
Systeem 1 is echter een stukje goedkoper en biedt de mogelijkheid om in de toekomst nog de cpu te upgraden, ook meer pci-e sloten.
Ik ben van plan om de rest van mijn onderdelen eerst opnieuw te gebruiken (Behuizing ed). De extra netwerkkaart vervalt wel natuurlijk bij gebruik van systeem 2.
De voeding staat op een eventueel te vervangen lijst. Suggesties?
Nu is mijn vraag aan jullie, zien jullie problemen in bovenstaande setups en wat ik er mee wil? Is systeem 2 de hogere kosten waard?
Te Koop:24 Core Intel Upgradeset
[ Voor 5% gewijzigd door Zenix op 04-08-2016 12:32 ]
Dank je voor je antwoord. Ik heb alleen een Asus bord in de setup en geen asrock|sWORDs| schreef op donderdag 04 augustus 2016 @ 12:27:
[...]
Tjonge dit is een lastige:Ik denk dat je hier zelf de afweging op moet maken. Ik zou trouwens ESXi gewoon op de NVMe installeren en niet op USB.
- De Supermicro build heeft IPMI, maar de Asrock heeft AMT.
- De Supermicro heeft 10GBe, maar hoe snel denk je dat er iets naast komt wat er gebruik van kan maken?
- De Asrock build heeft een hoop extra CPU power (2.2 vs 2.7 met 3.3 turbo).
- De Supermicro heeft ECC.
- De Asrock build is goedkoper.
Dat is idd ook een optie waar ik naar gekeken heb. Echter zou ik ook wel weer eens wat nieuwe dingen willen proberen zoals vt-d. Tevens verwacht ik met de nieuwe setup iets energiezuiniger te zijn.Zenix schreef op donderdag 04 augustus 2016 @ 12:30:
Misschien nog een andere en veel goedkopere optie een i5 2400 bijvoorbeeld uit V&A halen met een SSD en 32GB DDR3 ( of 2x4 en 2x8 voor 24GB, zodat je helft van je oude setje kan gebruiken) dan ben je voor een stuk minder klaar.
Een nadeel van optie één is dat de tweede netwerkcontroller geen Intel is, maar Realtek. Verder sluit ik mij aan bij Swords.
Lol, ik had dat gedeelte uit de quote al gewist en gokte verkeerd.dnacid schreef op donderdag 04 augustus 2016 @ 12:58:
[...]
Dank je voor je antwoord. Ik heb alleen een Asus bord in de setup en geen asrock
Nee, de SSD is PCIe en zit dus niet op de controller.dnacid schreef op donderdag 04 augustus 2016 @ 12:58:
Verder zie je dus geen probleem in het via vt-d doorgeven van de sata controller incl disks als ik de esxi en datastore op de ssd zet?
Te Koop:24 Core Intel Upgradeset
Oke top. Daar ging ik al een van uit na het lezen van dit topic. Maar toch voor de zekerheid nog even vragen|sWORDs| schreef op donderdag 04 augustus 2016 @ 13:18:
......
Nee, de SSD is PCIe en zit dus niet op de controller.
Dan snap ik het wel VT-d is voor mij ook een reden om van mijn i5 2400 over te stappen in de toekomst in combinatie met PCI-e SSD voor de VM's zodat je de Intel controller voor NAS kan gebruiken.dnacid schreef op donderdag 04 augustus 2016 @ 13:02:
[...]
Dat is idd ook een optie waar ik naar gekeken heb. Echter zou ik ook wel weer eens wat nieuwe dingen willen proberen zoals vt-d. Tevens verwacht ik met de nieuwe setup iets energiezuiniger te zijn.
Ik ga er van uit dat deze server weer een jaar of 5 gaat draaien dus daar wil ik ook best wat extra voor uitgeven.
# | Product | Prijs | Subtotaal |
1 | Supermicro X10SDV-4C-TLN4F | € 536,50 | € 536,50 |
2 | WD Red WD30EFRX, 3TB | € 110,50 | € 221,- |
1 | Samsung M393A4K40BB0-CPB | € 151,50 | € 151,50 |
1 | Samsung SM961 512GB | € 251,92 | € 251,92 |
Bekijk collectie Importeer producten | Totaal | € 1.160,92 |
Even niets...
[ Voor 14% gewijzigd door Zenix op 05-08-2016 14:47 ]
Tja, daar heb je dan ook weer gelijk in... Bord heeft gelukkig 4 sloten dus kan dan altijd nog fatsoenlijk upgraden.FireDrunk schreef op vrijdag 05 augustus 2016 @ 13:57:
Zou je niet liever voor Dual Channel gaan? Bij een goedekope simpele setup zou ik er niet zo om malen dat je Single Channel gaat draaien, maar voor een 'dikke' beefy Xeon-D vind ik het toch een beetje jammer van het performanceverlies
Haha, maak het me nu niet moeilijker dan dat het al is... Is ook wel een mooie optie. Enkel de TDP van 100+ maakt het allemaal wat minder zuinig denk ik dan maar....Zenix schreef op vrijdag 05 augustus 2016 @ 14:46:
http://m.ebay.com/itm/151989476551?_mwBanner=1 kan je ook overwegingen als derde optie icm met X99 of server chipset. Heb je namelijk wel meer CPU Power.
Bij die verkoper heb je ook Low Power varianten met tdp van 70dnacid schreef op vrijdag 05 augustus 2016 @ 22:45:
[...]
Haha, maak het me nu niet moeilijker dan dat het al is... Is ook wel een mooie optie. Enkel de TDP van 100+ maakt het allemaal wat minder zuinig denk ik dan maar....
[ Voor 86% gewijzigd door Zenix op 05-08-2016 23:00 ]
|sWORDs| schreef op woensdag 25 mei 2016 @ 12:02:
[...]
De 2630L is geen gekke CPU. De base frequency is 1.8 vs 2.6, maar de base is eigenlijk alleen van toepassing als de koeling niet goed is (bij een L loop je mogelijk wel tegen de TDP, ik heb nog geen turbo bin testen gezien van een L). De all core turbo is 2.5 vs 2.8 en de 4 core turbo is 3.1 vs 3.2.
De 2699 is trouwens 145Watt, geen 85.
Maar je leest die hardware.info review wel verkeerd, die 81,6W is voor het hele systeem (server met twee CPU's), twee 2650L v3's (65W) halen maar 7,6W minder idle. De performance per Watt is zelfs beter bij de 2699 v4's. Het totale stroomverbruik voor een Povray benchmark is minder met de 2699 v4's. Zie race to idle.
De C state power is trouwens gelijk:
2630L v4 2630 v4 2650L v3 2699 v4 2699 v4 ES 2650 v3 ES 2630 v4 ES TDP 55W 85W 65W 145W 145W 105W 85W Max Power 110W 170W 130W 290W 290W 210W 170W Cores 10 10 12 22 22 10 10 Base Frequency 1.8 2.2 1.8 2.2 2.1 2.2 2.2 All Core Turbo Frequency 2.5 2.8 2.1 3.0 2.4 2.5 2.3 4 Core Turbo Frequency 3.1 3.2 2.2 3.7 2.4? 2.5? 2.3? C1E 35W 35W 38W 55W 55W? 43W? 35W? C3 25W 25W 38W 35W 38W? 33W? 25W? C1 12W 12W 13W 14W 14W? 13W? 12W? Price $612 $667 $1329 $4115 $939 $175 $199
Het laatste probleem met de CPU is dat de 2630L eigenlijk wat goedkoper moet zijn dan de 2630, maar hier is ie (veel) duurder.
Als je echt wil besparen op stroom, waarom neem je dan een board met een LSI3008 en quad Gbit? Mocht je passthrough willen doen kun je ook de 10 C610 poorten in 6 en 4 knippen. En als het je enige server in huis is, hoe ga je dan ooit meer dan 2 Gbit lijnen vol trekken?
[ Voor 80% gewijzigd door |sWORDs| op 06-08-2016 10:53 ]
Te Koop:24 Core Intel Upgradeset
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G4400 Boxed | € 56,49 | € 56,49 |
1 | Fujitsu D3417-B | € 142,77 | €142,77 |
1 | Sapphire HD 6450 1GB DDR3 | € 32,62 | € 32,62 |
1 | WD Green HDD, 2TB | € 79,90 | € 79,90 |
1 | Sharkoon USB3.0 Host Controller Card | € 11,95 | € 11,95 |
1 | Corsair Carbide Air 240 Zwart | € 93,95 | € 93,95 |
1 | Intel Pro/1000 PT Dual Port | € 156,01 | € 156,01 |
1 | Samsung M391A2K43BB1 | € 77,50 | € 77,50 |
1 | be quiet! Pure Power L8 300W | € 43,95 | € 43,95 |
1 | Samsung 950 Pro 256GB | € 185,95 | € 185,95 |
Bekijk collectie Importeer producten | Totaal | € 738,32 |
[ Voor 74% gewijzigd door |sWORDs| op 06-08-2016 14:10 ]
Te Koop:24 Core Intel Upgradeset
Waarom doe je dat? Hiermee blokkeer je feitelijk 11GB geheugen. Je kan memory management beter aan ESXi overlaten, is veel flexibeler. Je hebt geheugen genoeg namelijk.Addsz schreef op zaterdag 06 augustus 2016 @ 12:41:
Voor alle VM's heb ik memory reservations gemaakt. Freenas 8GB, Ubuntu 1GB en Win10 2GB.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Als je toch geen memory overcommit hebt is het juist goed om reserve all memory te doen, scheelt ook een zooi swap files.Microkid schreef op zaterdag 06 augustus 2016 @ 15:04:
[...]
Waarom doe je dat? Hiermee blokkeer je feitelijk 11GB geheugen. Je kan memory management beter aan ESXi overlaten, is veel flexibeler. Je hebt geheugen genoeg namelijk.
Te Koop:24 Core Intel Upgradeset
Dè developers podcast in je moerstaal : CodeKlets Podcast
Te Koop:24 Core Intel Upgradeset
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-6500 Tray | € 193,- | € 193,- |
1 | Gigabyte GA-B150M-D3H | € 83,50 | € 83,50 |
4 | Toshiba DT01ACA300, 3TB | € 83,75 | € 335,- |
1 | be quiet! Pure Rock | € 29,50 | € 29,50 |
1 | Crucial CT2K16G4DFD824A | € 125,50 | € 125,50 |
1 | Delock MiniPCIe I/O PCIe full size 2 x SATA 6 Gb/s | € 19,51 | € 19,51 |
1 | Seasonic G-series 360 watt | € 58,95 | € 58,95 |
1 | Crucial MX300 2,5" 275GB | € 71,14 | € 71,14 |
Bekijk collectie Importeer producten | Totaal | € 916,10 |
o.o
[ Voor 15% gewijzigd door Zenix op 08-08-2016 18:09 ]
Ik was eigenlijk van plan om gewoon een linux vm met openvpn te draaien, zo light-weight mogelijk.Deem007492 schreef op maandag 08 augustus 2016 @ 15:51:
Als je openvpn wilt gebruiken, wil je dat dan met pfsense doen? Zo ja, dan heb je minimaal 2 nics nodig.
Esxi met Freenas, pfsense, Windows etc. gaat prima.
o.o
Waarom heb je twee NICS nodig met OpenVPN?Deem007492 schreef op maandag 08 augustus 2016 @ 15:51:
Als je openvpn wilt gebruiken, wil je dat dan met pfsense doen? Zo ja, dan heb je minimaal 2 nics nodig.
Esxi met Freenas, pfsense, Windows etc. gaat prima.
Als je maar weinig VPN connecties tegelijk hebt kan ik OpenVPN Access Server aanraden, is als appliance te downloaden voor VMware of zeer makkelijk te installeren. Is de meer commerciële versie van OpenVPN. Zeer gebruiksvriendelijk, alleen maar 2 VPN connecties tegelijk.Kage Musha schreef op maandag 08 augustus 2016 @ 20:06:
[...]
Ik was eigenlijk van plan om gewoon een linux vm met openvpn te draaien, zo light-weight mogelijk.
[ Voor 4% gewijzigd door Zenix op 08-08-2016 20:19 ]
[ Voor 3% gewijzigd door Microkid op 08-08-2016 20:23 ]
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Ik begrijp je punt. Maar misschien is het handig dat je dan ook aangeeft wat dat algemene topic dan wel mag zijn. Dit topic lijkt het defacto ESXi topic te zijn geworden. En het gaat al heeeel lang niet meer om zuinige esxi servers.Microkid schreef op maandag 08 augustus 2016 @ 20:21:
Mag ik even wijzen op de topic warning?
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Dus graag weer on-topic over zuinige ESXi servers.
Dè developers podcast in je moerstaal : CodeKlets Podcast
TouchéOMX2000 schreef op maandag 08 augustus 2016 @ 21:04:
[...]
Ik begrijp je punt. Maar misschien is het handig dat je dan ook aangeeft wat dat algemene topic dan wel mag zijn. Dit topic lijkt het defacto ESXi topic te zijn geworden. En het gaat al heeeel lang niet meer om zuinige esxi servers.
[ Voor 13% gewijzigd door Microkid op 08-08-2016 21:29 ]
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Even nieuwsgierig .. helpt het als je de power settings binnen vmware guests tweaked???Microkid schreef op vrijdag 22 juli 2016 @ 19:25:
Update 23/7:
Op verzoek wat waardes van het stroomverbruik:
- Systeem uit: 4.8W
- Tijdens boot: 32W
- In het BIOS scherm: 47W (geen powermanagement, dus cpu op vol vermogen)
- ESXi op high performance: 33W (leeg), 34W (met 2 VM's draaiend)
- ESXi op balanced performance : 26W (leeg), 27W (met 2 VM's draaiend), 31W met 12VM's
- ESXi op low power : 26W (leeg), 27W (met 2 VM's draaiend)
- Alle power management in de BIOS uitgeschakeld en ESXi op high performance: ongeveer 45-50W.
Ik heb de power instellingen altijd op balanced staan, dus het stroomverbruik zal straks rond de 30W schommelenPer jaar dus ongeveer 263kWh, dus ongeveer 55 euro aan electra.
Tja vanalles
Ja dat helpt, maar voor productie machines (enterprise) wordt het afgeraden. Power management van de host en VM's zetten we normaal gesproken uit zodat je een voorspelbare performance hebt.vso schreef op dinsdag 09 augustus 2016 @ 01:11:
[...]
storage zal ik apart onderzoeken, het gaat me nu voornamelijk voor bovenstaand combo,
liever 2x 600,- euro voor dubbele host(s) .. maar dat betwijfel ik ..
[...]
Even nieuwsgierig .. helpt het als je de power settings binnen vmware guests tweaked???
helpt dit uberhaupt binnen vm's of niet .. (denk aan concurenten) is ga er eigenlijk van uit dat Vmware hier leidend op is.
[ Voor 25% gewijzigd door |sWORDs| op 09-08-2016 12:13 ]
Te Koop:24 Core Intel Upgradeset
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-6400 Boxed | € 183,50 | € 183,50 |
1 | Asus Q170M2 | € 154,25 | € 154,25 |
2 | WD Red WD30EFRX, 3TB | € 110,50 | € 221,- |
1 | Kingston HyperX Fury black HX421C14FBK2/32 | € 141,95 | € 141,95 |
1 | Samsung SM961 512GB | € 244,43 | € 244,43 |
Bekijk collectie Importeer producten | Totaal | € 945,13 |
Nee, power settings binnen een VM hebben geen directe toegang tot de CPU dus zal je hier niets mee kunnen winnen. Het enige dat werkt is de power saver optie, de VM gaat dan vanzelf na zoveel minuten in suspend.vso schreef op dinsdag 09 augustus 2016 @ 01:11:
Even nieuwsgierig .. helpt het als je de power settings binnen vmware guests tweaked???
helpt dit uberhaupt binnen vm's of niet .. (denk aan concurenten) is ga er eigenlijk van uit dat Vmware hier leidend op is.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Niet helemaal mee eens, hoewel aantal enterprise zaken extra "bonus" zijn, zijn de volgende zaken echt key|sWORDs| schreef op dinsdag 09 augustus 2016 @ 12:10:
[...]
Ja dat helpt, maar voor productie machines (enterprise) wordt het afgeraden. Power management van de host en VM's zetten we normaal gesproken uit zodat je een voorspelbare performance hebt.
Twee hosts heeft voordelen maar zeker voor thuis meer nadelen.
Voordelen:Nadelen:
- HA (maar aangezien je andere onderdelen zoals router en switch waarschijnlijk bij bijvoorbeeld stroom uitval plat gaan heb je er niet heel veel aan)
- Makkelijk updaten. Doordat je twee componenten hebt kun je VUM gebruiken en mocht je de host updaten die VUM/vCenter draait vMotion-ed die over.
- Shared storage nodig
- Netwerk is al snel je bottle neck
- Kosten, dubbele kasten, CPU etc.
- Stroomverbruik
inderdaad powersaving binnen een VM kan wel issues geven zoals ik lees..Microkid schreef op dinsdag 09 augustus 2016 @ 12:17:
[...]
Nee, power settings binnen een VM hebben geen directe toegang tot de CPU dus zal je hier niets mee kunnen winnen. Het enige dat werkt is de power saver optie, de VM gaat dan vanzelf na zoveel minuten in suspend.
Tja vanalles
# | Product | Prijs | Subtotaal |
1 | Jetway JC-110-B | € 0,- | € 0,- |
1 | Intel Core i3-6100 Boxed | € 117,95 | € 117,95 |
1 | ASRock H110M-ITX | € 67,87 | € 67,87 |
1 | Crucial CT2K16G4DFD8213 | € 131,51 | € 131,51 |
1 | Crucial MX300 2,5" 275GB | € 71,14 | € 71,14 |
Bekijk collectie Importeer producten | Totaal | € 388,47 |
Er zijn wat problemen met een Asrock B150 en unix achtige besturingssystemen. Dit hoeft bij de H110 niet zo te zijn, maar ik zou voor de zekerheid misschien een ander merk pakken, ook gezien deze:M-slayer schreef op dinsdag 09 augustus 2016 @ 15:59:
Ik ben al een tijdje aan het rondkijken om een homelabje op te zetten rond de 400 euro.
Wat denken jullie van deze setup? Geen rare componenten die niet werken met esxi?
Ik wil er mijn Plex media server op draaien en mijn studie pruts servers (MCSA 2016)
# Product Prijs Subtotaal 1 Jetway JC-110-B € 0,- € 0,- 1 Intel Core i3-6100 Boxed € 117,95 € 117,95 1 ASRock H110M-ITX € 67,87 € 67,87 1 Crucial CT2K16G4DFD8213 € 131,51 € 131,51 1 Crucial MX300 2,5" 275GB € 71,14 € 71,14 Bekijk collectie
Importeer productenTotaal € 388,47
Cranberry schreef op dinsdag 02 februari 2016 @ 09:23:
Iemand hier bij wie een zelfgebouwde ESXi-host niet echt uit gaat als je een poweroff/shutdown geeft?
Twee maanden geleden heb ik zelf een ESXi-server samengesteld obv een ASRock H170M Pro4. Nu ik eindelijk ben toegekomen aan het spelen met deze machine, valt het me op dat de machine niet uit gaat als ik een Shutdown geef. De machine blijft aan en blijft 35/37W verstoken (idle plm 26W).
Vanuit Windows 10 gaat 'ie wel netjes uit. Iemand hier ook al eens tegenaan gelopen? Een zoektocht op internet leverde me tot op heden weinig zinvolle informatie.
Wie heeft een idee?
[ Voor 12% gewijzigd door |sWORDs| op 10-08-2016 11:31 ]
Te Koop:24 Core Intel Upgradeset
Even niets...
Eerder hebben jullie opgemerkt dat ik vanaf datastorage via grub kan booten vanaf mijn SSD's. Daardoor kan het OS op de SSD's blijven. Twee vraagjes:FireDrunk schreef op donderdag 21 juli 2016 @ 15:56:
Hoeft niet, je kan op de virtuele disk alleen grub zetten, en je root partitie wel op de controller zetten.
Dat je er niet van kan booten wil niet zeggen dat je root partitie er niet op kan.
Twee verschillende dingen
[ Voor 24% gewijzigd door CurlyMo op 10-08-2016 22:15 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Dit zijn meer esxi specifieke vragen dan zuinige server vragen ..CurlyMo schreef op woensdag 10 augustus 2016 @ 22:13:
[...]
Eerder hebben jullie opgemerkt dat ik vanaf datastorage via grub kan booten vanaf mijn SSD's. Daardoor kan het OS op de SSD's blijven. Twee vraagjes:
1. Kan je de SSD partitioneren zodat ik alle OS' op mijn SSD's kan zetten (ZFS-on-Root mirror) en dan telkens via grub booten van de juiste partitie?
2. Kan je dan voor de datastore een SD naar SATA adapter gebruiken. Dan kan ik voor 4 euro klaar zijn. SD kaarten heb ik genoeg en als dat ding alleen maar grub hoeft te laten is de performance penalty minimaal.
[ Voor 5% gewijzigd door vso op 11-08-2016 00:19 ]
Tja vanalles
Het voorkomen van inzetten van extra SSD's of HDD's is toch juist om goedkoop en zuinig te blijven? Ik verwacht dat zo'n SD naar Sata ding minder stroom verbruikt.vso schreef op donderdag 11 augustus 2016 @ 00:16:
Dit zijn meer esxi specifieke vragen dan zuinige server vragen ..
Dat snapte ik en is het ook idee om de route van ESXi te bewandelen.toevoeging je splitst dus je machine in meerde virtuele machines op en draait ze tegelijken bent dus af van het multiboot concept (deprecated wegens virtualisatie check virtualbox/vm workstation)
Sinds de 2 dagen regel reageer ik hier niet meer
Ik snap nog steeds niet wat je wil. Je wil de "Virtualisatie" van storage in ESXi overslaan ten faveure van ZFSonRoot in het Guest OS?CurlyMo schreef op donderdag 11 augustus 2016 @ 06:57:
[...]
Het voorkomen van inzetten van extra SSD's of HDD's is toch juist om goedkoop en zuinig te blijven? Ik verwacht dat zo'n SD naar Sata ding minder stroom verbruikt.
[...]
Dat snapte ik en is het ook idee om de route van ESXi te bewandelen.
Maar ik kan dus niet mij SSD inzetten via:
1) SSDp1 -> FreeBSD
2) SSDp2 -> Ubuntu
3) SSDp3 -> Windows
etc.
en dan op de SD
1) VM 1 -> SD grub -> boot van SSDp1
2) VM 2 -> SD grub -> boot van SSDp2
3) VM 3 -> SD grub -> boot van SSDp3
Het idee is dat ik idealiter mijn ZFSonRoot direct met mijn SSD wil laten communiceren en niet via een RDM of andere virtuele manier.
Even niets...
1) Nee, VT-d is 1:1 en bij RDM mag er maar 1 device schrijven naar de mapping en je kunt niet mappen naar een partitie. Met SR-IOV zou dit mogelijk kunnen, maar er is geen storage ondersteuning voor SR-IOV in ESXi (en ik denk de andere hypervisors ook nog niet) en de SSD moet dit ook kunnen (alleen Intel NVMe drives kunnen dit voor zo ver ik weet).CurlyMo schreef op woensdag 10 augustus 2016 @ 22:13:
[...]
Eerder hebben jullie opgemerkt dat ik vanaf datastorage via grub kan booten vanaf mijn SSD's. Daardoor kan het OS op de SSD's blijven. Twee vraagjes:
1. Kan je de SSD partitioneren zodat ik alle OS' op mijn SSD's kan zetten (ZFS-on-Root mirror) en dan telkens via grub booten van de juiste partitie?
2. Kan je dan voor de datastore een SD naar SATA adapter gebruiken. Dan kan ik voor 4 euro klaar zijn. SD kaarten heb ik genoeg en als dat ding alleen maar grub hoeft te laten is de performance penalty minimaal.
Te Koop:24 Core Intel Upgradeset
Ik had eerst drie Xeon e3 hosts en een NAS. Voor services die je dubbel kunt uitvoeren zonder clustering zoals AD, DNS en DHCP werkt dat prima. Maar er blijven altijd SPOF's over als je geen enterprise grade switches (distributed LACP, meerdere storage controllers zijn onbetaalbaar) gebruikt. Switch of NAS down = alles down. Je zou crosslinks voor storage kunnen gebruiken, maar je kunt niet crosslinks leggen naar alles waar je bij wil kunnen. Ook beperk je zonder 10GBe de snelheid heel erg:vso schreef op dinsdag 09 augustus 2016 @ 13:15:
[...]
Niet helemaal mee eens, hoewel aantal enterprise zaken extra "bonus" zijn, zijn de volgende zaken echt key
- dhcp
- centraal aanmelden (roaming profiles??)
- dns / internet access.
Je kan een N+1 bouwen het zij active/active of active/passive .. tuurlijk heb je overhead in HW die je relatief kan beperken.. maar waar ligt je waarde grens redundantie of zuinig zijn .. ?
een crosslinkkabel vs switch bv ..
2x 50watt (load) systeem overtreft mijn huidge 1x host + 1x nas (totaal 230w) , en uit ervaring is de W.A.F en persoonlijk niet happy als 1 v.d 2 faalt. zelfs UPS helpt niet tegen "iets wat over zijn nek gaat"
ik offer liever raid 10 op, en doe liever via raid 1 per host in een mirror opslag.
[ Voor 19% gewijzigd door |sWORDs| op 11-08-2016 11:10 ]
Te Koop:24 Core Intel Upgradeset
VT-d is voor passthrough van HW, echter je kan al sinds jaar en dag een raw disk 1:1 doormappen .. VT-D gebruik je voor je GPU, Satacontroller en usb (hub) in het geval van zijn vraag heeft hij dat alleen "nodig" voor usb to serieel meuk (wat ik niet zou doen)|sWORDs| schreef op donderdag 11 augustus 2016 @ 09:54:
1) Nee, VT-d is 1:1 en bij RDM mag er maar 1 device schrijven naar de mapping en je kunt niet mappen naar een partitie. Met SR-IOV zou dit mogelijk kunnen, maar er is geen storage ondersteuning voor SR-IOV in ESXi (en ik denk de andere hypervisors ook nog niet) en de SSD moet dit ook kunnen (alleen Intel NVMe drives kunnen dit voor zo ver ik weet).
2) Je kunt SD wel voor boot gebruiken, maar niet zomaar als datastore. Volgens mij was er wel iets mogelijk met FAT16, maar niet supported en erg traag. Een alternatief zou SD boot met USB datastore kunnen zijn, maar dat zou ik ook niet aanraden.
Als ik nou kijk naar wat je wil dan zou ik voor zoiets gaan:
1 NVMe drive voor ESXi boot en als datastore voor alle VM's.
2 Onboard Sata controller in passthrough voor je ZFS storage disks.
Beste performance, meest flexibel, gemakkelijk te installeren/upgraden etc.
Er zijn meer wegen naar Rome .. daar mee komt natuurlijk dat je wat "inlevert"|sWORDs| schreef op donderdag 11 augustus 2016 @ 10:27:
[...]
Ik had eerst drie Xeon e3 hosts en een NAS. Voor services die je dubbel kunt uitvoeren zonder clustering zoals AD, DNS en DHCP werkt dat prima. Maar er blijven altijd SPOF's over als je geen enterprise grade switches (distributed LACP, meerdere storage controllers zijn onbetaalbaar) gebruikt. Switch of NAS down = alles down. Je zou crosslinks voor storage kunnen gebruiken, maar je kunt niet crosslinks leggen naar alles waar je bij wil kunnen. Ook beperk je zonder 10GBe de snelheid heel erg:
Single server met NVMe = 1400-3200MB/s read voor al je VM's. VM naar VM networking = 800-1000MB/s.
NAS met dual GBe = 130-200MB/s voor al je VM's. VM naar VM networking across hosts = 110MB/s.
Mijn volgende setup trap ik mijn nas de deur uit en ga ik voor 1:1 concept.. (2 hosts) hoewel externe storage prettig kan zijn. zijn er ook veel methodes om eromheen te werken.. DFS,Rsync clustering .. om er een paar te noemen. . en ook technieken om data te beperken binnen een host.Ook heb je dan dus de power usage voor bijvoorbeeld drie i5/e3 machines en niet voor één Xeon-D.
In mijn geval had ik niet voldoende geheugen en niet voldoende IO. Ik had er een vierde host bij moeten plaatsen en alles met 10GBe NICs (+switch) uit moeten rusten. Overstappen naar een single dual e5 server met virtuele NAS was goedkoper (en waarschijnlijk ook goedkoper in stroom), maar het is wel wat lastiger updaten. Soms zit ik er aan te denken om een NUCje met alleen een server voor vCenter+VUM en een extra AD/DNS/DHCP server er naast te zetten (en dan een VC/VUM voor de NUC op de e5), maar is al dat sluimer verbruik het gemak bij updaten wel waard...
Wat ik aan mijn oude oplossing erg gemakkelijk vond is dat als de NAS plat ging vrijwel niets meer werkte en ik de kritieke services dus net zo goed als VM's op de NAS kon draaien. Dus de NAS verzorgde de storage naar de hosts en draaide AD/DNS/DHCP, vCenter+VUM, SQL. Dat maakte ESXi bijwerken appeltje eitje en voor ik de NAS bijwerkte schakelde ik alle ESXi VM's uit. Ook kon ik één IO intensive VM direct op de NAS draaien waardoor ik niet op 110MB/s disk IO bleef zitten. Maar met de nieuwe oplossing heb ik meerdere NVMe drives en een heel stuk meer IO naar meer VM's.
Geheugenverbruik met TPS aan en 60-65% van de totale stack geïnstalleerd:
[afbeelding]
Tja vanalles
Wat hij wil doen is VM's draaien zonder storage virtualisatie. Daar zijn twee opties voor: VT-d van de controller of RDM. Wat hij verder wil doen is partities mappen. Dat kan met beide niet.vso schreef op donderdag 11 augustus 2016 @ 20:45:
[...]
VT-d is voor passthrough van HW, echter je kan al sinds jaar en dag een raw disk 1:1 doormappen .. VT-D gebruik je voor je GPU, Satacontroller en usb (hub) in het geval van zijn vraag heeft hij dat alleen "nodig" voor usb to serieel meuk (wat ik niet zou doen)
Intel controllers zijn gewoon aanbevolen.vso schreef op donderdag 11 augustus 2016 @ 20:45:
[...]
ZFS heeft zoals je in het grote zfs topic kan lezen erg specifieke controller eisen .. komt je performance niet ten goede..
Daar hebben we nu VSAN voor en je kunt natuurlijk sharen wat je wil vanuit een VM, ook terug naar de host.vso schreef op donderdag 11 augustus 2016 @ 20:45:
[...]
vmware had een appliance waarmee je een storage kon sharen ? discontued .. wellicht omdat anderen dat beter kunnen
Er worden geen (nauwelijks?) omgevingen meer gebouwd zonder 10Gbit. En lees mijn stukje over de storage nog eens, 110MB/s is niet meer van deze tijd, zeker niet als je dat (of een paar tientallen meer met MPIO) moet delen met veel machines. Heb je weinig VM's of gebruik je local storage dan heb je het niet nodig, maar dan heb je dus geen HA op virtualisatie level.vso schreef op donderdag 11 augustus 2016 @ 20:45:
[...]
10gbit nic in een vmware omgeving heb je niet echt nodig, je omgeving is dan wel erg slecht ingericht of erg specifiek. Het profijt zit hem eerder in "versimpeling" voor netwerk beheer/storage/backup en dus wel erg prettig.
Te Koop:24 Core Intel Upgradeset
Hmmm dat merkte ik al op in 1ste reactie .. alleen omschreven dat de aanpak anders is dan hij denkt.|sWORDs| schreef op donderdag 11 augustus 2016 @ 21:24:
[...]
Wat hij wil doen is VM's draaien zonder storage virtualisatie. Daar zijn twee opties voor: VT-d van de controller of RDM. Wat hij verder wil doen is partities mappen. Dat kan met beide niet.
[...]
Intel controllers zijn gewoon aanbevolen.
[...]
Daar hebben we nu VSAN voor en je kunt natuurlijk sharen wat je wil vanuit een VM, ook terug naar de host.
[...]
Er worden geen (nauwelijks?) omgevingen meer gebouwd zonder 10Gbit. En lees mijn stukje over de storage nog eens, 110MB/s is niet meer van deze tijd, zeker niet als je dat (of een paar tientallen meer met MPIO) moet delen met veel machines. Heb je weinig VM's of gebruik je local storage dan heb je het niet nodig, maar dan heb je dus geen HA op virtualisatie level.
Tja vanalles
De sterretjes staan wat vaag, maar als je een NVMe in het PCI-e slot kan proppen dan gaat dat waarschijnlijk goed. Scheelt weer een extra controller kopen voor kleinschalige oplossingen.|sWORDs| schreef op donderdag 11 augustus 2016 @ 09:54:
Als ik nou kijk naar wat je wil dan zou ik voor zoiets gaan:
1 NVMe drive voor ESXi boot en als datastore voor alle VM's.
2 Onboard Sata controller in passthrough voor je ZFS storage disks.
[ Voor 204% gewijzigd door sphere op 11-08-2016 22:31 ]
ZFS: Wie heeft het over RAID? Er is geen directe disk toegang, het gaat bij SAS en SATA altijd via een controller.vso schreef op donderdag 11 augustus 2016 @ 22:11:
[...]
Hmmm dat merkte ik al op in 1ste reactie .. alleen omschreven dat de aanpak anders is dan hij denkt.
vd-t is niet praktisch omdat je de gehele controller doorzet .... tenzij je maar 1 disk eraanhangt.
ZFS is niet geschreven voor 1 controller, maar voor direct contact met de fysieke disk. ga je een sw/hw raid er tussen zetten zal het wel werken maar je prestatie komt het zeker niet ten goede.
Dat merk x controlers beter presteren is een ander verhaal...
VSAN lijkt me niet goedkoop voor @home![]()
Als je mijn reactie gelezen had maak ik onderscheid tussen @home en bedrijf en heb ik het ook nog over dimensionering. cpu/ram/netwerkspeed/storage kan je beter limiteren zodat je bottlenecks creëert dan gelijk maximaal je systeem te belasten .. 99% van een nieuwe omgeving word niet getest en na een jaar performance problemen hebben is gehuil zonder addequate oplossingen te hebben...
Dit levert je vitale monitoring data op voor capicity management, uitgaande dat je limieten wel realistisch zijn.
10gbit op een bladechassis zeg ik natuurlijk!, maar dan praat je ook over meer dan 5 servers ofzo ..
maar een simple 8 core host..in dit verhaal is het wel belangrijk dat je een referentie kader hebt.
Ik kan enorm veel bedrijven aanwijzen die bij wijze van spreken nog op 100mbit kunnen draaien.
en dan noem ik je boven de 200 tot 500 gebruikers .. ik heb menig server park gezien / beheerd en serverruimtes van 16+ racks is niet vreemd. of multitenant . goed dan wel 1gbit..
Nogmaals 10gbit voor die paar euro is niet een reden om met alle kranen wagenwijd open je netwerk vol te stampen.. als je dat niet goed in controle hebt creëer je meer problemen dan je oplost.
Een backup oplossing die je 10gbit lijn dicht kan trekken is de enige reden waarom ik zo snel zou willen, en dit is puur omdat een gebruikers werkdag van 5:00 tot 01:00 duurt .. of 24x7 de rest moet gewoon op andere manieren efficient van 1gbit gebruik maken.. (uitgezonderd storage en dus backup)
Hiermee ben je cirkel rond want een efficent serverpark is ook zuiniger
Te Koop:24 Core Intel Upgradeset
Er zit ook een M.2 slot op. Wel raar, 24 lanes uitdelen, misschien is het x4 slot shared.sphere schreef op donderdag 11 augustus 2016 @ 22:27:
[...]
De sterretjes staan wat vaag, maar als je een NVMe in het PCI-e slot kan proppen dan gaat dat waarschijnlijk goed. Scheelt weer een extra controller kopen voor kleinschalige oplossingen.
http://www.asrock.com/mb/...0Pro4/?cat=Specifications
Te Koop:24 Core Intel Upgradeset
If M2_1 is occupied by a SATA-type M.2 device, SATA3_0 and SATA3_1 will be disabled.
IK heb het over RAID, en ja er is "directe" disk toegang. controllers zijn tegenwoordig redelijk intelligent en voor ZFS moet je "domme" doorgeefluik modus aanzetten voor welke controller je ook pakt. Teminste dat is wat Ch1p3r IMHO de ZFS guru op dit forum zal beamen.. hierom is een disk doorzetten in "raw" modus denk ik relatief handig .. en zou je vd-t niet nodig hebben van uitgaande dat je de controler tijdens boot of via firmware flash in "domme" modus zet.|sWORDs| schreef op donderdag 11 augustus 2016 @ 23:13:
ZFS: Wie heeft het over RAID? Er is geen directe disk toegang, het gaat bij SAS en SATA altijd via een controller.
huh ?? sorry maar het zal me een rotzorg zijn de pieken .. en ik heb liever dat als hij piekt max CPU pakt.. zodat hij sneller weer idle kan gaan doen..Bottlenecks: Een goede oplossing zit met vrijwel alles (CPU/MEM/IO) tijdens pieken op 80% van zijn kunnen. Verdere limieten aanbrengen is meestal niet verstandig en raden we daarom ook af.
met gbit kom je prima weg .. waarom denk je dat we niet direct van de amsix de meest uber verbinding hebben ? Je wilt een backbone infra hebben waarbij een domme applicatie niet je hele lijn verzadigdQua 10GBe, aantal servers maakt niet uit, als dat zou kloppen zou men alleen de uplinks op 10GBe hebben. Sinds storage er bij gekomen is kom je met gbit niet weg tenzij je echt zeer kleinschalig draait of eigenlijk geen load hebt.
Het is niet voor niets dat we gbit ten zeerste afraden voor VSAN.
Een simpele SSD doet al 550MB/s en dat gebruiken we voor desktops. 110MB/s delen met veel VM's (Of ook nog netwerk) is niet verstandig, tenzij je geen load hebt.
Qua VSAN kosten voor thuis, zie de eerder aan gehaalde thuislicentie.
Wat hij hierzegt is dat als je m2 erin mikt 2 fysieke poorten op je mobo kwijt raakt .. dus van heb je 8 sata poorten beschikbaar en geen M2 in gebruik OF je hebt .. 6 sata poorten beschikbaar en een M2 kaart erin geproptsphere schreef op donderdag 11 augustus 2016 @ 23:23:
Ik denk dat als je de controller doorgeeft je niet meer kan booten vanaf M.2 omdat die (kennelijk) aan de sata controler hangt:
[...]
[ Voor 11% gewijzigd door vso op 11-08-2016 23:44 ]
Tja vanalles
Nee, als je een mSATA device in M.2 (M2_1) stopt dan schakelt de PCH die door. Bij PCIe AHCI/NVMe (M2_2) is dat niet zo. Dit is trouwens ook gelijk het antwoord waarom ze 24 lanes doorgeven. De 4 lanes naar het M.2_2 slot komen dus uit de PCH die met DMI naar de CPU gaat. Je shared die lanes dus met LAN, USB en SATA. Bij de meeste borden is er 1 M2 slot die beide kan of een M2 slot direct aan de CPU (geen mSATA support).sphere schreef op donderdag 11 augustus 2016 @ 23:23:
Ik denk dat als je de controller doorgeeft je niet meer kan booten vanaf M.2 omdat die (kennelijk) aan de sata controler hangt:
[...]
Ik werk voor VMware en mijn team schrijft de EUC Reference Architectures, VMworld sessies, blogposts, trained intern personeel (waaronder de trainers die de cursussen geven) en doet de top 25 EUC projecten wereldwijd.vso schreef op donderdag 11 augustus 2016 @ 23:40:
[...]
Overgens adviseert VMware in training/cursus [...]
ik ben geen guru
[...]
Amsix? Ik heb het over het interne netwerk tussen de servers. En over storage.vso schreef op donderdag 11 augustus 2016 @ 23:40:
[...]
met gbit kom je prima weg .. waarom denk je dat we niet direct van de amsix de meest uber verbinding hebben ? Je wilt een backbone infra hebben waarbij een domme applicatie niet je hele lijn verzadigd. yeah voor
QoS
en
packateers
[...]
Dat domme doorgeefluik krijg je juist met een Intel controller in VT-d en niet met RDM. Lees anders dit topic eens door, je zal zien dat vrijwel iedereen VT-d met ZFS gebruikt. Voor deze discussie waren er dit jaar nog maar 9 posts met RDM (slechts twee in combinatie met ZFS en beide hadden het al een tijd) erin in dit topic, toen VT-d nog op minder CPU's beschikbaar was zag je het veel meer, maar ook problemen, met VT-d van een aanbevolen controller nog geen probleem gezien. RDM heeft zijn use cases, maar meerdere drives voor ZFS zou ik daar niet meer onder rekenen. (En er gaan zo een aantal reageren die het nog doen en nog geen problemen hebben gehad.)vso schreef op donderdag 11 augustus 2016 @ 23:40:
[...]
IK heb het over RAID, en ja er is "directe" disk toegang. controllers zijn tegenwoordig redelijk intelligent en voor ZFS moet je "domme" doorgeefluik modus aanzetten voor welke controller je ook pakt. Teminste dat is wat Ch1p3r IMHO de ZFS guru op dit forum zal beamen.. hierom is een disk doorzetten in "raw" modus denk ik relatief handig .. en zou je vd-t niet nodig hebben van uitgaande dat je de controler tijdens boot of via firmware flash in "domme" modus zet.
[...]
Ik heb het net nog eens gelezen, maar ik snap niets van wat daar staat en al helemaal niet hoe dat overeenkomt met de algemene aanbevelingen.vso schreef op donderdag 11 augustus 2016 @ 23:40:
[...]
Daarnaast waarom heb ik het nu over limieten ??? dat heb ik ook verklaart wel graag inhoudelijk reageren.
[...]
Nee, de Intel controller heeft 6 poorten, waarbij er twee (waarom is mij een raadsel, meestal is dat één) uitgeschakeld worden als je een mSATA in de M2_1 stopt. Maar je kunt dus prima een NVMe drive in M2_2 stoppen, de Intel controller in VT-d zetten en de NVMe voor je VM's en als bootdisk voor ESXi/een storage VM gebruiken, de datadisks zitten dan aan de Intel controller in VT-d.vso schreef op donderdag 11 augustus 2016 @ 23:40:
[...]
Wat hij hierzegt is dat als je m2 erin mikt 2 fysieke poorten op je mobo kwijt raakt .. dus van heb je 8 sata poorten beschikbaar en geen M2 in gebruik OF je hebt .. 6 sata poorten beschikbaar en een M2 kaart erin gepropt
dit zegt nog niks over je boot mogelijkheid .. maar dit is wel handig om te weten als je opeens 2 disks mist nadat je boot als je een M2 erin hebt gepropt ..of waarom je niet alle disks ziet
[ Voor 127% gewijzigd door |sWORDs| op 12-08-2016 22:57 ]
Te Koop:24 Core Intel Upgradeset
...in die post voor het eerst, niet in de post die door sWORDs wordt gequotevso schreef op donderdag 11 augustus 2016 @ 23:40:
IK heb het over RAID
...thuis... @work heb ik liever dat de "piek" zelfs niet boven de 50% uit komt want dan kunnen we geen datacenter-uitval meer opvangen zonder performanceverlies. Als je op de milliseconde gaat kijken mag hij best naar de 100%, maar met VM's die over het algemeen maar één of twee cores krijgen en draaien op een server met 2x 10 core + HT wordt dat erg lastighuh ?? sorry maar het zal me een rotzorg zijn de pieken .. en ik heb liever dat als hij piekt max CPU pakt.. zodat hij sneller weer idle kan gaan doen..
Je haalt 2 dingen door elkaar: Je internetverbinding en de verbinding met je storage. Die serverruimtes met 16 racks vol, hadden die shared storage? Zo nee: De allereerste SATA-standaard had al 1.5 GBit/s. Zo ja, hoe was dat ontsloten? 2 GB FC is (voor computertermen) al "eeuwen" oud, de meeste datacentra zullen op 2x (want redundancy) 8 GB FC of zelfs 2x16 GBit FC draaien. Als ze iCSCI gebruiken dan zal dat zelden slechts op 1 GBit zijn, terwijl ze de goedkoopst mogelijke 8/1 ADSL-lijn hebben liggen om wat mailtjes te kunnen sturen / ontvangen.met gbit kom je prima weg .. waarom denk je dat we niet direct van de amsix de meest uber verbinding hebben ?
Kan VMware een controller die je met VT-d doorgeeft nog zelf gebruiken? Lijkt me nietWat hij hierzegt is dat als je m2 erin mikt 2 fysieke poorten op je mobo kwijt raakt ..
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
# | Product | Prijs | Subtotaal |
1 | Intel Core i7-6700 Boxed | € 319,90 | € 319,90 |
1 | Asus Z170M-PLUS | € 125,63 | € 125,63 |
1 | Corsair Carbide Air 240 Wit | € 93,95 | € 93,95 |
1 | Noctua NH-D9L | € 49,01 | € 49,01 |
4 | Kingston ValueRAM KVR21N15D8/16 | € 68,- | € 272,- |
1 | Seasonic G-series 450 watt | € 74,95 | € 74,95 |
1 | Crucial BX200 480GB | € 125,95 | € 125,95 |
Bekijk collectie Importeer producten | Totaal | € 1.061,39 |
Waarom een Z bord bij een niet K CPU, zou een H170M-Plus niet logischer zijn of een Q170 voor vPro met AMT?Red Boll schreef op zaterdag 13 augustus 2016 @ 00:36:
Mijn setup die het nu al enkele maanden zonder problemen doet.
# Product Prijs Subtotaal 1 Intel Core i7-6700 Boxed € 319,90 € 319,90 1 Asus Z170M-PLUS € 125,63 € 125,63 1 Corsair Carbide Air 240 Wit € 93,95 € 93,95 1 Noctua NH-D9L € 49,01 € 49,01 4 Kingston ValueRAM KVR21N15D8/16 € 68,- € 272,- 1 Seasonic G-series 450 watt € 74,95 € 74,95 1 Crucial BX200 480GB € 125,95 € 125,95 Bekijk collectie
Importeer productenTotaal € 1.061,39
Te Koop:24 Core Intel Upgradeset
Joh!?!|sWORDs| schreef op zaterdag 13 augustus 2016 @ 07:49:
[...]
Waarom een Z bord bij een niet K CPU, zou een H170M-Plus niet logischer zijn of een Q170 voor vPro met AMT?
Dus ik geef mijn beide SSD's via vDisks door aan mijn client en binnen mijn client draai ik een ZFS-on-Root mirror op die vDisks?FireDrunk schreef op donderdag 11 augustus 2016 @ 09:15:
[...]
Als ik het goed begrijp wil je ZFSonRoot in je VM's met zo min mogelijk "kans" dat het mis gaat.
VMFS is an sich een prima filessystem, en honoreert keurig sync requests, waardoor ZFS in een VM op een vDisk draaien op VMFS helemaal niet slecht is. Vanuit de VM is het effect hetzelfde om ZFSonRoot te gebruiken. Er veranderd niets voor de werking er van.
Sinds de 2 dagen regel reageer ik hier niet meer
Even niets...
Er is niets mis mee, maar ik denk dat je het systeem post als voorbeeld voor anderen. Een Z170 bord is gelijk aan H170 bord op het overklokken, kunnen opdelen CPU lanes, meer lanes vanuit PCH (maar DMI is gelijk, wat heb je aan de lanes als je ze shared) en twee extra USB 3 poorten (8->10) en zo'n 25 euro verschil na. Allemaal niet erg nuttig voor ESXi, dus vandaar dat ik toch even wil noemen dat men nog 25 euro kan besparen. Tenzij je de CPU lanes wilt kunnen opdelen.Red Boll schreef op zaterdag 13 augustus 2016 @ 09:36:
[...]
Joh!?!![]()
Ik heb even geen idee waarom dat logischer zou zijn.De originele setup was met een ASRock B150M Pro4S en dat werkte niet goed (4Ghz CPU utilisatie bij idle + errors). Een collega vertelde dat dit moederbord deze problemen niet gaf dus heb ik die aangeschaft.
Er draaien nu actief 4 VM's (en wat klein grut af en toe) op en de CPU blijft onder de 700Mhz steken.
Chipset | Z170 | H170 | Q170 | C236 |
Overklok (met K CPU) | ja | nee | nee | nee |
Chipset lanes | 20 | 16 | 20 | 20 |
CPU PCIe op te delen | ja | nee | ja | ja |
Max USB 2 | 14 | 14 | 14 | 4 |
Max USB 3 | 10 | 8 | 10 | 10 |
Max SATA 3 | 6 | 6 | 6 | 8 |
vPRO met AMT (met vPRO CPU) | nee | nee | ja | ja |
Xeon support | nee | nee | nee | ja |
ECC support | nee | nee | nee | ja |
[ Voor 45% gewijzigd door |sWORDs| op 13-08-2016 12:39 ]
Te Koop:24 Core Intel Upgradeset
Bedankt voor je uitgebreide reactie. Dat is een goede tip voor de volgende koper van onderdelen voor zijn/haar server.|sWORDs| schreef op zaterdag 13 augustus 2016 @ 11:14:
[...]
Er is niets mis mee, maar ik denk dat je het systeem post als voorbeeld voor anderen. Een Z170 bord is gelijk aan H170 bord op het overklokken, kunnen opdelen CPU lanes, meer lanes vanuit PCH (maar DMI is gelijk, wat heb je aan de lanes als je ze shared) en twee extra USB 3 poorten (8->10) en zo'n 25 euro verschil na. Allemaal niet erg nuttig voor ESXi, dus vandaar dat ik toch even wil noemen dat men nog 25 euro kan besparen. Tenzij je de CPU lanes wilt kunnen opdelen.
Te Koop:24 Core Intel Upgradeset
CurlyMo schreef op vrijdag 22 juli 2016 @ 10:01:
[...]
Volgens mij hebben we die info in ons midden, want het lijkt bij @stuffer wel te werken met een pricewatch: Delock MiniPCIe I/O PCIe full size 2 x SATA 6 Gb/s (ASM1061) i.c.m. het pricewatch: ASRock Z87E-ITX (Haswell) moederbord.
Ook hier bevestigd
Sinds de 2 dagen regel reageer ik hier niet meer
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G4400 Boxed | € 56,49 | € 56,49 |
1 | MSI H110I Pro | € 75,- | € 75,- |
1 | Fractal Design Array R2 Mini ITX NAS Case | € 0,- | € 0,- |
2 | Kingston ValueRAM KVR21N15D8/16 | € 68,- | € 136,- |
1 | Delock Controller SATA, 4 port with Raid | € 23,- | € 23,- |
Bekijk collectie Importeer producten | Totaal | € 290,49 |
1
2
3
4
5
6
7
8
9
10
| cd /tmp mkdir ahci cd ahci vmtar -x /bootbank/sata_ahc.v00 -o sata_ahc.tar tar xvf sata_ahc.tar rm sata_ahc.tar echo "regtype=linux,bus=pci,id=PID:VID 0000:0000,driver=ahci,class=storage" >> etc/vmware/driver.map.d/ahci.map tar cvf sata_ahc.tar etc usr vmtar -c sata_ahc.tar -o sata_ahc.vgz mv sata_ahc.vgz /bootbank/sata_ahc.v00 |
[ Voor 153% gewijzigd door |sWORDs| op 15-08-2016 13:37 ]
Te Koop:24 Core Intel Upgradeset
Waarom geen:wetsteyn schreef op maandag 15 augustus 2016 @ 08:34:
Goedemorgen,
Heb deze lijst samen gesteld maar kan niet vinden of de controller werkt op het mobo icm met EXSI.
Ik heb nu gisteren voor het eerst ESXi draaien met nu (nog) 3 VM's op een Quad Core / 16GB Mem / 128GB SSD:Microkid schreef op zaterdag 06 augustus 2016 @ 15:04:
[...]
Waarom doe je dat? Hiermee blokkeer je feitelijk 11GB geheugen. Je kan memory management beter aan ESXi overlaten, is veel flexibeler. Je hebt geheugen genoeg namelijk.
[ Voor 46% gewijzigd door CurlyMo op 15-08-2016 10:05 ]
Sinds de 2 dagen regel reageer ik hier niet meer
[ Voor 99% gewijzigd door CurlyMo op 15-08-2016 10:05 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Nice!
Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Ik verwacht geen verschil in verbruik omdat ik de disks niet liet downspinnen. Een PicoPSU met mijn verbruik heeft onvoldoende zin omdat het verbruik daar niet laag genoeg voor is.stuffer schreef op maandag 15 augustus 2016 @ 10:40:
[...]
Nice!
Wat is btw je stroomverbruik nu?
2weken geleden is de seasonic bij mij overleden en heb hem vervangen door een picopsu met 80watt adapter.
Idle verbruik is gezakt naar 26watt.
[ Voor 32% gewijzigd door CurlyMo op 15-08-2016 11:44 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Max 16GB ondersteuning DDR3.
Thanks ga hiereens induiken|sWORDs| schreef op maandag 15 augustus 2016 @ 09:08:
Sata 150, SIL3114 based. Klinkt niet super, die chip is deprecated en unsupported sinds ESXi 5.5.
Dit zijn trouwens de enige twee betaalbare (>100 euro) controllers met 4 of meer SATA600 poorten en de vereiste PCIe bandbreedte in de pricewatch:
pricewatch: Delock PCI Express Card > Hybrid 4 x internal SATA 6 Gb/s RAID - ... -> Marvell 88SE9215, zou kunnen werken (met een aanpassing aan?) de community ahci driver.
pricewatch: Highpoint Rocket 640L -> Marvell 88SE9230, zou kunnen werken met een aanpassing aan de community ahci driver.
Als hij niet in de community driver zit kun je het ook zelf doen met PID en VID van de kaart:
code:
1 2 3 4 5 6 7 8 9 10 cd /tmp mkdir ahci cd ahci vmtar -x /bootbank/sata_ahc.v00 -o sata_ahc.tar tar xvf sata_ahc.tar rm sata_ahc.tar echo "regtype=linux,bus=pci,id=PID:VID 0000:0000,driver=ahci,class=storage" >> etc/vmware/driver.map.d/ahci.map tar cvf sata_ahc.tar etc usr vmtar -c sata_ahc.tar -o sata_ahc.vgz mv sata_ahc.vgz /bootbank/sata_ahc.v00
Boven de 100 euro kun je beter een LSI van Ebay trekken.
[ Voor 50% gewijzigd door wetsteyn op 15-08-2016 12:42 ]
Goed punt, het is jammer genoeg schipperen tussen SATA poorten en geheugen.wetsteyn schreef op maandag 15 augustus 2016 @ 12:41:
Max 16GB ondersteuning DDR3.
Ik zie DDR4 met 32GB toch meer geschikt voor 4VM's + ZFS als opslag.
Sinds de 2 dagen regel reageer ik hier niet meer
Hier is een stukje (WIP) wat misschien handig kan zijn:
|sWORDs| schreef op zondag 14 augustus 2016 @ 11:46:
[...]
Opslag:
Boot:
ESXi kan booten vanaf ATA/SATA/SAS/SCSI/NVMe zolang er een driver aanwezig is, mocht je een custom driver nodig hebben kun je die in de iso integreren.
Naast reguliere storage devices kan er ook geboot worden via PXE, iSCSI, SAN, USB (UHCI) of SD (EHCI/XHCI).
SATA:
Out of the box heeft ESXi een gefilterde generic AHCI driver waarbij het filter (etc/vmware/driver.map.d/ahci.map) de volgende controllers bevat:Er is een community driver die deze filterlijst uitbreid met bijvoorbeeld Marvell(88SE9xxx)/JMicron(JMB36x)/ASMedia (ASM106x) SATA controllers of je kunt de lijst zelf aanpassen in de tar file (/bootbank/sata_ahc.v00).
- AMD FCH/SB7x0/SB8x0/SB9x0
- Apple PCIe SSD
- Intel 5/6/7/8/100, Atom C2000/NM10, ICH 6/7/8/9/10, C200/210/220/600(X79)/610(X99), 31/32/5400
- nVidia MCP78/MCP89
- ULi M5288
- Unknown (1b62:2923)
- Samsung SM951 AHCI
Verder zitten er in ESXI niet AHCI SATA drivers voor:ATA:
- Adaptec AAR-1210SA (Silicon Image)
- Apple
- nVidia CK804, MCP04/51/55/61/65/67, nForce2/3
- Promise 376/378/779/TX2(xxx)/TX4(xxx)
- Serverworks K2, Raidcore xC4000, HT1000, HT1100
- Silicon Image 3112, 3114, 3124, 3132, 3512, 3531
Alleen AMD/ATI, Intel, Highpoint, Promise, Serverworks, Silicon Image en VIA PATA drivers zitten out of the box in ESXi. (Let op dat sommige SATA in IDE mode zijn!)
USB:
Standaard is USB alleen beschikbaar als boot device, maar als je het niet erg vind om USB passthrough op te offeren kun je USB ook als datastore gebruiken.
SAS/SCSI/HW iSCSI:
Alleen Adaptec, QLogic, Cisco, HP en LSI drivers zitten out of the box in ESXi.
NVMe:
Er zit een generic NVMe driver in ESXi, voor de Intel 750/P3500/P3600/P3700 kun je qua performance beter de Intel VIB installeren.
[...]
Te Koop:24 Core Intel Upgradeset
Ik zit er ook al redelijk lang naar te kijken. Mijn grootste bezwaar is dat alles aan de PCH hangt en er dus 'maar' 3940MB/s beschikbaar is. Echt jammer dat de M2's en ThunderBolt niet aan de CPU hangen. En twee extra sodimm sloten zou hem perfect maken.Cranberry schreef op woensdag 17 augustus 2016 @ 16:43:
Gisteren heb ik de Intel Skull Canyon (nuc6i7kyk) binnengekregen. Installatie van ESXi (6.0u2) ging prima, mits de Thunderbird-controller is uitgeschakeld.
Idle-verbruik met 32GB ram en 'n Samsung EVO 950 512GB M2 SSD is 17,5W.
'k Heb geprobeerd de Iris Pro Graphics 580 via passthrough/vDGA werkend te krijgen in een Win10 VM, maar dat is (nog) niet gelukt (iets wat met XenServer wel schijnt te werken).
Al met al vind ik het een prima systeem. 32GB is niet heel ruim, maar er kunnen toch behoorlijk wat VM's op draaien.
[ Voor 8% gewijzigd door |sWORDs| op 18-08-2016 10:58 ]
Te Koop:24 Core Intel Upgradeset
Even niets...
Zo ver ik weet is het officieel niet eens supported?FireDrunk schreef op donderdag 18 augustus 2016 @ 09:29:
@|sWORDs|, heb jij ergens (misschien vanuit VMware zelf?) een lijst met welke USB(3) NIC's werken onder ESXi?
[ Voor 12% gewijzigd door renedis op 18-08-2016 09:46 ]
Niets werkt out of the box, je kunt een Linux driver waar de source van is compilen, maar dat is niet altijd even gemakkelijk. AX88179 based met VIB heeft de grootste kans van slagen zoals Renedis zegt. Mocht je ook Thunderbolt hebben dan is de Apple TB adapter ook iets wat werkt of voor een NUC een Mini PCIe dual/single i350/i354, maar dan zal of de kap losmoeten of er gaatje(s) met de Dremel gemaakt moeten worden.FireDrunk schreef op donderdag 18 augustus 2016 @ 09:29:
@|sWORDs|, heb jij ergens (misschien vanuit VMware zelf?) een lijst met welke USB(3) NIC's werken onder ESXi?
[ Voor 23% gewijzigd door |sWORDs| op 18-08-2016 09:59 ]
Te Koop:24 Core Intel Upgradeset
Verwijderd
Even niets...
Ik zag trouwens dat de Brix ook leverbaar is met twee NICs. Ook op mijn shortlist als extra server.FireDrunk schreef op donderdag 18 augustus 2016 @ 09:58:
Heb sinds gister mijn HTPC NUC (i3/8GB) omgezet naar ESXi6, en dat werkt eigenlijk prima. De onboard Intel NIC werkte out of the box, en ik hoefde dus geen drivers te injecteren.
Helaas ondersteund die NIC geen Jumbo Frames. En 1 NIC is ook maar zo... karig...
Vandaar het idee om een extra NIC toe te voegen.
Ik weet niet of VT-d werkt via TB en als het al kan dan moet de Pegasus ook nog een reset mode ondersteunen. Ik denk dat het antwoord nee is.Verwijderd schreef op donderdag 18 augustus 2016 @ 09:55:
Iemand een idee of het mogelijk is een Promise Pegasus 2 als passthrough door te geven aan een VM in ESXI 6u2?
Heb een Mac Mini draaien met ESXi 6, Promise Pegasus 2 eraan (in JBOD) schijven worden gezien onder devices en heb middels RDM (niet officieel ondersteund) deze in een VM staan. De VM maakt middels ZFS een RAIDZ1 ervan. Heb dit in zowel een Debian VM als een macOS VM gedaan en beide lopen na een week vast. Kan dan niks meer en moet dan ESXi herstarten.
Nu kan het issue een paar oorzaken hebben:
- RDM disks verkeerd ingesteld of niet geschikt voor wat ik wil. (staat als SCSI disks ingesteld met opties independant / persistant.
- OpenZFS / ZFS on Linux die vastloopt door onbekende redenen. (Heb hiervoor een zelfbouw Hack gehad waar ik jaren OpenZFS (mac) in heb gedraaid en gaf nooit problemen.
Iemand nog ideen?
[ Voor 61% gewijzigd door |sWORDs| op 18-08-2016 11:03 ]
Te Koop:24 Core Intel Upgradeset
Klinkt interessant.Cranberry schreef op woensdag 17 augustus 2016 @ 16:43:
Gisteren heb ik de Intel Skull Canyon (nuc6i7kyk) binnengekregen. Installatie van ESXi (6.0u2) ging prima, mits de Thunderbird-controller is uitgeschakeld.
Idle-verbruik met 32GB ram en 'n Samsung EVO 950 512GB M2 SSD is 17,5W.
'k Heb geprobeerd de Iris Pro Graphics 580 via passthrough/vDGA werkend te krijgen in een Win10 VM, maar dat is (nog) niet gelukt (iets wat met XenServer wel schijnt te werken).
Al met al vind ik het een prima systeem. 32GB is niet heel ruim, maar er kunnen toch behoorlijk wat VM's op draaien.
Ik vind het nog wel meevallen, 130-140 euro, tientje meer dan niet SODIMM.pitchdown schreef op donderdag 18 augustus 2016 @ 16:07:
[...]
Klinkt interessant.
Welk geheugen heb je gebruikt? Die modules zijn volgens mij niet goedkoop...
[ Voor 20% gewijzigd door |sWORDs| op 18-08-2016 16:25 ]
Te Koop:24 Core Intel Upgradeset
Apple iPhone 16e LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq