Gewoon een heel grote verzameling snoertjes
Unmap geeft volgens mij wel een TRIM door aan de SATA controller met EnableBlockDelete op 1 en PVSCSI als controller in VM via de Windows Optimize Drives utility. Of als de drives op een VAAI compatible storage staan.Compizfox schreef op zondag 30 augustus 2015 @ 22:45:
[...]
Het lijkt me niet dat je daar iets aan hebt, want dat geeft nog steeds niet door aan de SSD-controller dat de blokken leeg zijn. Daar heb je nou juist TRIM voor nodig.
[ Voor 20% gewijzigd door |sWORDs| op 31-08-2015 11:11 ]
Te Koop:24 Core Intel Upgradeset
Nadeel is vooral dat de AHCI driver van ESXi het (voor zover ik weet) niet kan. Dus de guest kan wel een UNMAP sturen via PVSCSI, maar zodra het bij de AHCI controller in de VMKernel aan komt, wordt dat omgezet naar een regulier wipe commando
Even niets...
http://tweakers.net/pricewatch/zoeken/?keyword=X10SDV
De xeon D-1500 familie lijkt veel belovend.
"De kans dat een snee brood op een nieuw tapijt valt met de beboterde zijde onderaan, is recht evenredig met de prijs van het tapijt"
https://azerty.nl/0-3022-...-x10sdv-f-moederbord.html
Aan die prijzen toch ook niet zo interessant vind ik.
Er zijn meerdere uitvoeringen:

Bron: klikkuhhh
En daar zijn ook verschillende prijzen aan gekoppeld
[ Voor 20% gewijzigd door ErikCornelissen op 01-09-2015 19:16 ]
Da's niet de echte prijs mag ik hopen?IceTeaGX schreef op dinsdag 01 september 2015 @ 13:11:
http://www.amazon.com/Sup...Motherboard/dp/B00X69UX54
https://azerty.nl/0-3022-...-x10sdv-f-moederbord.html
Aan die prijzen toch ook niet zo interessant vind ik.
Gewoon een heel grote verzameling snoertjes
Das de te verwachten prijsCompizfox schreef op dinsdag 01 september 2015 @ 20:25:
Da's niet de echte prijs mag ik hopen?
http://www.servethehome.c...dv-tln4f-review-platform/
"[Update] We just received word that the Supermicro X10SDV-TLN4F has a MSRP of $958. Expect some vendors to undercut this by a bit."
https://www.reddit.com/r/..._review_tell_me_why_this/
I can see a few issues:
Price: ~900 USD
http://www.newegg.com/Pro...dv-_-13-182-963-_-Product
http://www.lambda-tek.com...6967&origin=skinflint17.8
http://geizhals.de/superm...-x10sdv-f-o-a1247766.html
Gewoon een heel grote verzameling snoertjes
Echter wordt 2011-3 voor die prijs dan ook wel erg interessant.
[ Voor 9% gewijzigd door |sWORDs| op 02-09-2015 10:13 ]
Te Koop:24 Core Intel Upgradeset
Zoals een hdd het doet: markeren. Verder lijkt GC bij veel SSDs iets te doen wat verdacht veel lijkt op defragmenteren (en dat is wel weer rekenwerk als in: waar staat wat en hoe zet ik alles zo efficient mogelijk bij elkaar).Compizfox schreef op zondag 30 augustus 2015 @ 23:21:
Hoe gaat dat dan met die "berekening"? De GC kan toch niet zomaar data gaan lopen weggooien waarvan hij 'gokt' dat het leeg is?
Functioneel != precieze technische implementatie. Functioneel doen zowel GC als TRIM hetzelfde: cellen die opnieuw gebruikt mogen worden leeggooien zodat het wegschrijven later sneller gaat omdat deze stap overgeslagen kan worden. TRIM doet dat efficiënter omdat daar de exacte locaties kunnen worden doorgegeven (of dat ook echt gebeurd is vers 2).Dat een bepaalde page leeg is moet de SSD-controller horen van het OS, en die techniek heet TRIM. TRIM is niet simpelweg een "iets efficiëntere manier van GC", het is iets totaal anders.
Btw, het artikel waar je naar linkt impliceert in de allerlaatste alinea dat TRIM en GC wel degelijk van hetzelfde team zijn ("it will make your GC work better").
Waarom is de ervaring (aka praktijk) dan anders?Overprovisioning heeft er juist alles mee te maken. Wat ik hierboven beschreef werkt namelijk allemaal als het OS een LBA wil wijzigen, maar zonder TRIM heeft de SSD geen manier om te weten dat er (en, belangrijker, welke) data verwijderd wordt.
Ook hier wordt weer de situatie volledig vergeten terwijl nou juist die dicteert wat er gebeurd. Workloads, controllers, firmware, etc. zijn allemaal niet hetzelfde. Buiten dat is dit ook niets meer dan uitstel van executie. Geheugencellen gaan op den duur gewoon stuk. In de praktijk blijken ook heel veel mensen geen enkel probleem met performance te hebben terwijl hun SSDs nog nooit iets anders dan GC hebben gedaan.Als je geen TRIM hebt en ook geen OP, zullen dus steeds meer pages volraken. Althans, dat denkt de SSD, want zonder TRIM wordt die niet op de hoogte gesteld van verwijderde data.
En dat is de reden dat je OP nodig hebt als je geen TRIM hebt. OP zorgt er in dit geval voor dat je een bepaalde 'reserve' aan blokken hebt waarvan de SSD gegarandeerd weet dat ze leeg zijn, simpelweg om het feit dat ze nooit beschreven zijn en ook nooit beschreven zullen worden (omdat het ongepartitioneerde ruimte is). OP is natuurlijk niet zo'n mooie techniek als TRIM omdat je er je opslagruimte mee verkleint, maar het is wel nodig omdat zonder TRIM en zonder OP, er na een tijd geen onbeschreven blok meer zal overblijven. En dat heeft directe consequenties voor de performance.
Verbazingwekkend hoe weinig mensen lezen wat daar staat:Meer leesvoer: http://arstechnica.com/ga...o-i-dont-need-trim-right/
Here’s the skinny: TRIM is never a requirement, but it always helps, and you’re always better off with it than without it. In this (relatively) short article, I'm going to explain why.
Dat artikel legt exact uit wat ik in simpelere bewoordingen hier neerzet. TRIM is geen requirement omdat GC ook gewoon al goed werkt maar het is wel fijn om te hebben omdat gewoon een stuk efficiënter werkt. Heb je het en kun je het inschakelen dan moet je dat vooral niet laten. Heb je die mogelijkheid niet dan is er echt niks aan de hand. Andere sites die de praktijk hebben lopen testen laten steevast zien dat de theoretici vooral bezig zijn met paniekvoetbal. Pas wanneer je het als cache disk in een grote NAS omgeving gaat gebruiken zul je moeten gaan nadenken over de settings en dingen gaan tunen (wat zich overigens niet alleen tot de SSD zal beperken).TRIM isn’t magical, and you don’t have to have it. Modern SSDs with garbage collection will work fine without it (and most SSD OEMs have utilities available to "refresh" SSDs that are being used in non-TRIM environments).
Die theorie is allemaal leuk maar men moet niet zo panisch over zaken als TRIM en levensduur van een SSD doen. Er zijn namelijk praktijkvoorbeelden te over (tot aan tests van aantal websites aan toe) die laten zien dat het allemaal weinig voorstelt. Kijk liever naar de toepassing, het gebruik, enz.
Ik denk dat je niet begrijpt wat ik bedoel (of ik begrijp niet wat jij bedoelt
Dat klopt, dat is in feite wat het is ja. Een SSD doet het alleen om een heel andere reden.Verder lijkt GC bij veel SSDs iets te doen wat verdacht veel lijkt op defragmenteren (en dat is wel weer rekenwerk als in: waar staat wat en hoe zet ik alles zo efficient mogelijk bij elkaar).
TRIM zorgt er inderdaad voor dat GC efficiënter wordt, door de overhead bij GC te verhelpen. Maar het is geen vervanging van GC, maar een aanvulling. TRIM en GC verzorgen niet dezelfde taak: TRIM 'helpt' GC in het geval van verwijderde bestanden.[...]
Btw, het artikel waar je naar linkt impliceert in de allerlaatste alinea dat TRIM en GC wel degelijk van hetzelfde team zijn ("it will make your GC work better").
Ik snap even niet wat je hiermee probeert te zeggen. FireDrunk legde uit dat ongepartitioneerde ruimte alleen door de SSD als OP wordt herkend als je een secure erase hebt gedaan. Dat is inderdaad zo; als je dat niet doet heb je simpelweg geen OP[...]
Waarom is de ervaring (aka praktijk) dan anders?Er wordt veel te vaak TRIM gebruld terwijl men niet kijkt naar de situatie zelf. Zoals FireDrunk ook al opmerkt telt het ook hoe je die overprovisioning realiseert.
Tja, definieer "probleem"... Vaak gaat de performance toch een beetje achteruit. Veel mensen zullen daar misschien geen probleem van maken. Bovendien merk je de invloed van TRIM natuurlijk niet als er niet vaak bestanden worden verwijderd.[...]
Ook hier wordt weer de situatie volledig vergeten terwijl nou juist die dicteert wat er gebeurd. Workloads, controllers, firmware, etc. zijn allemaal niet hetzelfde. Buiten dat is dit ook niets meer dan uitstel van executie. Geheugencellen gaan op den duur gewoon stuk. In de praktijk blijken ook heel veel mensen geen enkel probleem met performance te hebben terwijl hun SSDs nog nooit iets anders dan GC hebben gedaan.
Maar je begrijpt neem ik aan wel dat de performanceverlaging niet komt door het 'stukgaan' van de SSD? Hoewel write amplification zonder TRIM natuurlijk iets hoger wordt (wat bijdraagt aan de slijtage van de SSD), is dat niet het grootste probleem. De performanceverlaging is een direct effect van de GC-overhead. Even voor de duidelijkheid.
Impliceer je nu dat ik het artikel niet gelezen heb? Dat heb ik namelijk wel.[...]
Verbazingwekkend hoe weinig mensen lezen wat daar staat:
Nou ja, "niets aan de hand"... Zoals je zelf al zegt, dat hangt ook weer af van de workload. En vandaar dat het me geen slecht idee lijkt om OP toe te passen als je geen TRIM kunt gebruiken.[...]
[...]
Dat artikel legt exact uit wat ik in simpelere bewoordingen hier neerzet. TRIM is geen requirement omdat GC ook gewoon al goed werkt maar het is wel fijn om te hebben omdat gewoon een stuk efficiënter werkt. Heb je het en kun je het inschakelen dan moet je dat vooral niet laten. Heb je die mogelijkheid niet dan is er echt niks aan de hand.
Gewoon een heel grote verzameling snoertjes
Wat ik er mee wil gaan doen is in ieder geval is:
- Pfsence met VPN
- Download bakje
- Owncloud voor backup van apparaten
- Plex
- Teamspeak server
- Op den duur ZFS
Als er verder nog op of aanmerkingen zijn sta ik hier voor open.
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1245 v3 Boxed | € 298,40 | € 298,40 |
1 | Supermicro X10SL7-F | € 254,95 | € 254,95 |
1 | WD Blue WD10EZEX, 1TB | € 49,95 | € 49,95 |
1 | WD Red SATA 6 Gb/s WD60EFRX, 6TB | € 258,95 | € 258,95 |
1 | Cooler Master N300 (KKN1, closed) | € 35,95 | € 35,95 |
1 | Delock 83292 | € 5,65 | € 5,65 |
2 | Kingston DataTraveler Special Edition 9 8GB Grijs | € 3,58 | € 7,16 |
1 | Kingston ValueRAM KVR16E11K4/32 | € 250,49 | € 250,49 |
1 | Samsung SE-208GB Zwart | € 24,14 | € 24,14 |
1 | Seasonic G-series 450 watt | € 79,95 | € 79,95 |
Bekijk collectie Importeer producten | Totaal | € 1.299,04 |
Ik gebruik zelf hetzelfde bordje met een 6x3TB setup in RAIDZ2.
[ Voor 23% gewijzigd door FREAKJAM op 06-09-2015 17:13 ]
is everything cool?
Te Koop:24 Core Intel Upgradeset
Dat hoeft echt geen enkel probleem te zijn|sWORDs| schreef op zondag 06 september 2015 @ 18:09:
En wil je 5 a 6 VM's gaan draaien op een enkele SATA spinning disk?
Al met al 7 VM's en 6 jails die allemaal op één SATA vdev draaien. De enige keren wanneer die setup het lastig krijgt is wanneer mijn vrouw een film kijken (Plex aan het transcoden), ik aan het Minecraften ben en wat vrienden 7 Days 2 Die aan het spelen zijjn, en als ik dan ga kijken waar het aan ligt is niet niet eens de harddisk maar de CPU
Uiteraard, YMMV, maar het aantal VM's zegt niet zo heel veel, wat die VM's daadwerkelijk doen is veel belangrijker
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Hij somt alleen 5/6 dingen op die hij met de server wil gaan doen, dat betekent niet direct dat die ook allemaal in een eigen VM moeten|sWORDs| schreef op zondag 06 september 2015 @ 18:09:
En wil je 5 a 6 VM's gaan draaien op een enkele SATA spinning disk?
Aan 3 VM heb je voor die taken in principe voldoende:
- pfSense: Router/VPN
- Linux: Download, Teamspeak
- FreeBSD: ZFS, Owncloud, Plex
Gewoon een heel grote verzameling snoertjes

Even niets...
Kan ook. Betekent wel dat Plex je films via NFS moet benaderen als die op je FreeBSD-VM staan.
Mag ik vragen waarom trouwens? Ik draai Plex onder FreeBSD, werkt prima.
Gewoon een heel grote verzameling snoertjes
Het is nogal kort door de bocht om zo'n statement te maken.Zenix schreef op zondag 06 september 2015 @ 19:45:
Ik had eerst i3 2100 met HDD, wat zat ik mij te ergeren met een HDD. Het is al een flinke bottleneck met een desktop pc, laat staan ESXi. Alles deed het wel goed, maar je haalt nooit potentie uit je server die erin zit.
Ja, voor desktop-use is een SSD een must. Een HDD is veel te traag om een vlotte gebruikservaring te houden bij het opstarten van programma's e.d.
Een server is echter iets heel anders. In de 'steady state' start je geen software op of iets dergelijks: de software die je gebruikt draait gewoon en veroorzaakt niet echt veel I/O. Hangt natuurlijk ook weer af van wat je ermee doet; er zullen vast wel use-cases zijn waar I/O een grote factor is. In zo'n geval is een SSD dan misschien wel weer handig.
Ikzelf gebruik m'n server voor van alles en nog wat (storageserver, webserver, mailserver, printserver, TS3, RADIUS, OpenVPN, Asterisk) maar ik heb nog nooit echt het gevoel gehad dat ik een SSD nodig heb.
[ Voor 10% gewijzigd door Compizfox op 06-09-2015 19:55 ]
Gewoon een heel grote verzameling snoertjes
Zoals het er nu naar uit ziet en de prijzen van schijven dalen, denk ik dat op het moment dat ik meer ruimte nodig heb het wel een stuk goedkoper zal zijnFREAKJAM schreef op zondag 06 september 2015 @ 17:07:
Je schijven kan je doorgeven via de onboard LSI 2308 controller die op de Supermicro zit. Je moet de controller wel eerst naar IT-mode flashen. Waarom neem je drives van maar liefst 6TB groot? Als je in de toekomst met ZFS wil gaan spelen kom je meestal op een setup uit van 3 drives (RAIDZ1) en wanneer je nog meer zekerheid wil dan wordt meestal een RAIDZ2 setup aangeraden met minimaal 5 drives. Wordt dan best wel een duur prijskaartje.
Ik gebruik zelf hetzelfde bordje met een 6x3TB setup in RAIDZ2.

Voor als het eventueel misschien een keer nodig is om een cd/dvd te spelen. (hier ga ik ook backup's mee maken van laptops waar geen brander in zit)|sWORDs| schreef op zondag 06 september 2015 @ 18:09:
Vanwaar de USB brander? En wil je 5 a 6 VM's gaan draaien op een enkele SATA spinning disk?
Ik zoals hierboven aangeven word, hoop ik dat dat wel los zal lopen met het aantal vm's
Te Koop:24 Core Intel Upgradeset
Ik vind het niet kort door de bocht. Simpelweg het sneller installeren en starten van VM's vind ik al een goed argument om een SSD te nemen of een storage oplossing met hogere IOPS dan één HDD. Mijn i3 2100 ging toen eindelijk eens af en toe naar de 100%.Compizfox schreef op zondag 06 september 2015 @ 19:48:
[...]
Het is nogal kort door de bocht om zo'n statement te maken.
Ja, voor desktop-use is een SSD een must. Een HDD is veel te traag om een vlotte gebruikservaring te houden bij het opstarten van programma's e.d.
Een server is echter iets heel anders. In de 'steady state' start je geen software op of iets dergelijks: de software die je gebruikt draait gewoon en veroorzaakt niet echt veel I/O. Hangt natuurlijk ook weer af van wat je ermee doet; er zullen vast wel use-cases zijn waar I/O een grote factor is. In zo'n geval is een SSD dan misschien wel weer handig.
Ikzelf gebruik m'n server voor van alles en nog wat (storageserver, webserver, mailserver, printserver, TS3, RADIUS, OpenVPN, Asterisk) maar ik heb nog nooit echt het gevoel gehad dat ik een SSD nodig heb.
Ik kan er niet zonder:
- De mappen van alle gameservers worden sneller geladen, waardoor ik makkelijk 20 gameservers kan draaien. Ik heb overigens ook Teamspeak met gemiddeld 60~100 man erop, maar dat gebruikt amper iets en werkt zelfs goed op een Rasperry Pi ofzo.
- Spelen met OpenStack en andere virtualisatie oplossingen, dat duurt eeuwen met een SATA schijfje.
- Maken van back-ups, wegschrijven van back-ups met Veeam is zo klaar.
- Als je keer wat wilt testen en je hebt net te weinig geheugen, dan is swappen naar een SSD toch wel een stuk fijner.
- En zo zijn er inderdaad nog veel meer use cases te verzinnen zoals jezelf aangeeft.
Die zaken die jij allemaal aangeeft gebruiken inderdaad weinig IOPS. Maar had jij geen alles-in-één oplossing met ZFS en dat je dan storage weer aanbied aan je host? Dat is natuurlijk ook niet te vergelijken met één schijfje draaien zoals ik in mijn voorbeeld aangaf, waarop mijn statement is gebaseerd. Ik heb ook nog drie Hitachi Ultrastars met xpenology waarvan ik een deel aanbied aan de host en dat werkt ook prima. Tevens zijn naar mijn mening SSD's van de goede merken betrouwbaarder omdat ze geen bewegende onderdelen bevatten. De Samsung 830 hierboven is 40 maanden misbruikt en is nog 100% volgens de diverse tools.
Maar als je zoals poster hierboven bijvoorbeeld een dure Xeon met Supermicro bord aanschaft en dan geen SSD van 60~100 euro? Dat staat niet in verhouding.
Ik denk dat de conclusie is dat het enorm afhangt van je use-caseZenix schreef op zondag 06 september 2015 @ 20:32:
[...]
Ik vind het niet kort door de bocht. Simpelweg het sneller installeren en starten van VM's vind ik al een goed argument om een SSD te nemen of een storage oplossing met hogere IOPS dan één HDD. Mijn i3 2100 ging toen eindelijk eens af en toe naar de 100%.
Ik kan er niet zonder:
- De mappen van alle gameservers worden sneller geladen, waardoor ik makkelijk 20 gameservers kan draaien. Ik heb overigens ook Teamspeak met gemiddeld 60~100 man erop, maar dat gebruikt amper iets en werkt zelfs goed op een Rasperry Pi ofzo.
- Spelen met OpenStack en andere virtualisatie oplossingen, dat duurt eeuwen met een SATA schijfje.
- Maken van back-ups, wegschrijven van back-ups met Veeam is zo klaar.
- Als je keer wat wilt testen en je hebt net te weinig geheugen, dan is swappen naar een SSD toch wel een stuk fijner.
- En zo zijn er inderdaad nog veel meer use cases te verzinnen zoals jezelf aangeeft.
Ja...Die zaken die jij allemaal aangeeft gebruiken inderdaad weinig IOPS. Maar had jij geen alles-in-één oplossing met ZFS
... nee, dat niet. Al mijn VMs staan gewoon op een enkele HDD.en dat je dan storage weer aanbied aan je host?
Gewoon een heel grote verzameling snoertjes
+1
Ik zou ook inderdaad voor Linux gaan. FreeBSD ondersteunt trouwens ook de Premium Library Feature niet.
is everything cool?
In het geval van Plex -> RPM? en dus makkelijk updaten?
Even niets...
Dat ook, hoewel er ook scripts zijn die het nog makkelijker maken. Voor FreeNAS bestaat trouwens wel een soortgelijk script.FireDrunk schreef op maandag 07 september 2015 @ 07:21:
Ik gebruik eigenlijk voor alles liever Linux. Maar dat is vooral persoonlijk.
In het geval van Plex -> RPM? en dus makkelijk updaten?
is everything cool?
Ehm, er is onder FreeBSD gewoon een port voor Plex hoor. Dus ik zie niet echt in wat nou het voordeel is om het op Linux te draaien, zeker als je alle NAS-taken al op een FreeBSD-VM hebt.FireDrunk schreef op maandag 07 september 2015 @ 07:21:
Ik gebruik eigenlijk voor alles liever Linux. Maar dat is vooral persoonlijk.
In het geval van Plex -> RPM? en dus makkelijk updaten?
Gewoon een heel grote verzameling snoertjes
Eerlijk gezegd vraag ik me af of een TVS versie van QNAP niet een betere optie is. De VM's kun je draaien in Virtualization Station en een hoop services op de host of in Container Station. Ook kun je dan gebruik van Quick Sync voor de conversies maken.VIPmaster schreef op zondag 06 september 2015 @ 16:48:
Na heel wat pagina's op tweakers te hebben gelezen en aardig wat google werk, ben ik er achter gekomen dat esxi iets voor mij is.
Wat ik er mee wil gaan doen is in ieder geval is:Het enige waar ik nog mee zit zal de 6TB herkent worden en eventueel doorgegeven kunnen worden.
- Pfsence met VPN
- Download bakje
- Owncloud voor backup van apparaten
- Plex
- Teamspeak server
- Op den duur ZFS
Als er verder nog op of aanmerkingen zijn sta ik hier voor open.
# Product Prijs Subtotaal 1 Intel Xeon E3-1245 v3 Boxed € 298,40 € 298,40 1 Supermicro X10SL7-F € 254,95 € 254,95 1 WD Blue WD10EZEX, 1TB € 49,95 € 49,95 1 WD Red SATA 6 Gb/s WD60EFRX, 6TB € 258,95 € 258,95 1 Cooler Master N300 (KKN1, closed) € 35,95 € 35,95 1 Delock 83292 € 5,65 € 5,65 2 Kingston DataTraveler Special Edition 9 8GB Grijs € 3,58 € 7,16 1 Kingston ValueRAM KVR16E11K4/32 € 250,49 € 250,49 1 Samsung SE-208GB Zwart € 24,14 € 24,14 1 Seasonic G-series 450 watt € 79,95 € 79,95 Bekijk collectie
Importeer productenTotaal € 1.299,04
Te Koop:24 Core Intel Upgradeset
Even niets...
In beide gevallen is het toch makkelijk om te upgraden? Ik zie je punt niet...
Gewoon een heel grote verzameling snoertjes
In eerste instantie zal dit dienen voor een specifiek project. Later zou de server kunnen dienen voor CCIE studies.
Heeft iemand hier ervaring met een ESXI server te gebruiken icm Cisco CSR1000v om zijn labo te maken?
Ik ben momenteel een leek in virtualisatie, (ik gebruik enkel af en toe eens een virtualbox vm), dus zal me nog moeten inlezen uiteraard.
Ik moet dus nog op zoek naar de exacte vereisten, maar ik wil graag eerst weten of iemand het met nu zo al gebruikt.
Misschien dat het aan mij ligt, maar ik voel meer voor RPM dan ports. Al moet ik zeggen dat het al weer een tijdje geleden is dat ik met Ports gewerkt heb. In de periode dat ik er mee gewerkt heb, heb ik het niet echt als plezierig ervaren...Compizfox schreef op maandag 07 september 2015 @ 10:44:
[...]
In beide gevallen is het toch makkelijk om te upgraden? Ik zie je punt niet...
Even niets...
Is misschien een optie maar ik wil zelfbouw (in het verleden vervelende ervaringen mee gehad)|sWORDs| schreef op maandag 07 september 2015 @ 09:49:
[...]
Eerlijk gezegd vraag ik me af of een TVS versie van QNAP niet een betere optie is. De VM's kun je draaien in Virtualization Station en een hoop services op de host of in Container Station. Ook kun je dan gebruik van Quick Sync voor de conversies maken.
Maar bedankt voor het meedenken.
Ben op zoek naar een vervanger van mijn huidige server
Wat kan/ga ik overnemen
- Kingston SSD 120GB
- 7x WD 2TB disken
- 2x Kingston 4GB DIMM DDR3 PC3-10700U DDR3-1334
- 2x OCZ 2GB DIMM DDR3 PC3-8500U DDR3-1066
- HighPoint 640L
Op de nieuwe server zouden dan een paar (3à4) virtuals moeten draaien (download, plex, windows server, ...)
Ik dacht aan het volgende:
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-4460 Boxed | € 179,70 | € 179,70 |
1 | ASRock B85M Pro4 | € 63,- | € 63,- |
1 | Cooler Master N300 (KKN1, closed) | € 35,95 | € 35,95 |
Bekijk collectie Importeer producten | Totaal | € 278,65 |
Ik zou dan ESXI op een usb-stick installeren, en de vm's op de SSD.
De harde schijven zou ik via een controller moeten doorgeven aan de vm die gaat zorgen als fileserver.
Kan hiervoor de highpoint 640L gebruikt worden, of beter een IBM ServeRaid M1015/Dell PERC H200 kopen.
Qua geheugen heb ik nu 12GB over van mijn oude server (zie hierboven). Kan ik dit herbruiken, of toch beter nieuw/ander geheugen voorzien?
Welke voeding ik moet voorzien, heb ik helemaal geen idee van. Er moeten zowiezo 8 schijven worden gevoed, dus ook 8 sata voeding connectoren?
De kast is wel voldoende denk ik (voorlopig), Er gaan daar 7 schijven in.
Maar wat als ik in de toekomst nog extra schijven aankoop, dan is de kast te klein denk ik.
Ik dacht dat de Highpoint Controller zich niet zomaar door liet geven via VT-d, maar mijn geheugen kan mij in de steek laten... Een M1015 of H200 zou een betere optie zijn naar mijn idee.
Geheugen is prima, gewoon houden.
Qua voeding zou ik een Seasonic G-Series 360 (beste kwaliteit) nemen of als je iets minder uit wil geven een BeQuiet System Power 7 (Iets mindere kwaliteit, maar acceptabel).
Over die connectoren zou ik me niet druk maken, daar heb je hele mooie verloopjes voor.
Er zijn prima molex->sata power plugjes maar ook sata power splitters te koop voor minder dan 10 euro per stuk (van 1 naar 4).
Je gaat wel voor een relatief oud platform (B85 is al 2 generaties oud), op zich werkt het prima, en zijn de nieuwe platformen nou niet super veel zuiniger, maar het is misschien wat zonde.
(De H97, Z97 en H170 en Z170 chipsets zijn bijvoorbeeld nieuwer)
Even niets...
Start gelijk op van die SSD, dan heb je die USB stick al niet nodig.
Even niets...
Dat kan volgens mij prima. Het probleem is het vinden van een goede controller die je niet doorgeeft en waar je je datastore aan kunt hangen.FireDrunk schreef op woensdag 09 september 2015 @ 09:16:
ESXi op een USB stick en VM's op de SSD klinkt prima.
Ik dacht dat de Highpoint Controller zich niet zomaar door liet geven via VT-d, maar mijn geheugen kan mij in de steek laten...
Gewoon een heel grote verzameling snoertjes
ESX past op een 1GB usb stick, dus ik zou die ook lekker op de SSD zettenFireDrunk schreef op woensdag 09 september 2015 @ 09:42:
Meh, kost je weer ruimte op je SSD, terwijl ESXi prima draait vanaf USB
[ Voor 49% gewijzigd door Teaclo op 09-09-2015 09:45 ]
Keep smiling
Ik wil dat nooit (ik heb lak aan swap), waardoor je weer een paar GB bespaart op je SSD.
Uiteraard moet je het lekker zelf weten
Even niets...
Plus, dat kan je zelf aanpassen in de instellingen.
Maar als we echt zuinig willen zijn, is een device minder altijd winst (zelfs "maar" een USB stick)
Persoonlijk heb ik voor een USB stick gekozen omdat je dan VSAN kan gebruiken. Je kan een device niet gebruiken voor VSAN als je er ook van Boot.
Even niets...
Qua voeding , is er ook een goede (budget) voeding die modulair is, is iets makkelijker qua inbouwen.
Heeft er iemand nog advies voor een goede (budget) kast met veel ruimte voor schijven
compleet mijn ongezouten subjectieve mening:garciake schreef op woensdag 09 september 2015 @ 10:32:
Ok dan zal ik eens kijken naar Z97/H97 platform.
Qua voeding , is er ook een goede (budget) voeding die modulair is, is iets makkelijker qua inbouwen.
Heeft er iemand nog advies voor een goede (budget) kast met veel ruimte voor schijven
fractal design define r4 pearl black
lekker veel plaats voor trays, en een nette kast.
Keep smiling
Niemand?d--amo schreef op maandag 07 september 2015 @ 11:57:
Ik ben momenteel op zoek naar een server waarop ik een cisco lab kan maken.
In eerste instantie zal dit dienen voor een specifiek project. Later zou de server kunnen dienen voor CCIE studies.
Heeft iemand hier ervaring met een ESXI server te gebruiken icm Cisco CSR1000v om zijn labo te maken?
Ik ben momenteel een leek in virtualisatie, (ik gebruik enkel af en toe eens een virtualbox vm), dus zal me nog moeten inlezen uiteraard.
Ik moet dus nog op zoek naar de exacte vereisten, maar ik wil graag eerst weten of iemand het met nu zo al gebruikt.
Alvast even concreet dan maar. In hoeverre kan ik de laatste BBG gebruiken? 16Gb RAM is in principe goed om te beginnen, mogelijks dien ik dat later nog uit te breiden naar 32GB.
De server zal dus dienen om een Cisco lab te maken met VIRL. Verder wil ik ook graag wat experimenteren met PfSense en Kali Linux.
Ik las dat dit moederbord geen RAID ondersteund. Echter is het niet de bedoeling hier storage van te maken, gezien ik daar een NAS voor heb.
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-4460 Boxed | € 179,70 | € 179,70 |
1 | ASRock B85M Pro4 | € 63,- | € 63,- |
1 | Cooler Master N300 (KKN1, closed) | € 35,95 | € 35,95 |
1 | Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU | € 74,95 | € 74,95 |
1 | be quiet! System Power 7 300W | € 32,95 | € 32,95 |
1 | Crucial BX100 250GB | € 82,95 | € 82,95 |
Bekijk collectie Importeer producten | Totaal | € 469,50 |
Waarom zou Virtualbox op je eigen pc niet voldoen? Zo'n Cisco speelvm vreet amper resources?
Verder prima server om mee te beginnen. Je CPU is wel erg zwaar. Een G1820 voldoet prima joh
[ Voor 21% gewijzigd door FireDrunk op 09-09-2015 15:14 ]
Even niets...
InderdaadFireDrunk schreef op woensdag 09 september 2015 @ 09:48:
Zodra je installeert naar een SSD, gaat ESXi volgens mij een SWAP partitie aanmaken ter grootte van je geheugen
Ik wil dat nooit (ik heb lak aan swap), waardoor je weer een paar GB bespaart op je SSD.
Uiteraard moet je het lekker zelf wetenAls je de GB's kan missen, vooral doen inderdaad.
Vorige week ging ik even mijn SSD vervangen met alle vm's, migratie was zo voltooid met Veeam quick migration. Als ik ESXi op SSD had gehad was dat niet zo makkelijk gegaan en had ik ESXi opnieuw moeten installeren met meer downtime tot gevolg. Op USB stick is een stuk flexibeler.
Even niets...
Cisco VIRL draait zeker op ESXI, daar zijn genoeg ervaringen van te vinden. Echter hebben ze het daar nooit over de exacte build die ze gebruiken. RAM geheugen zal ik voldoende nodig hebben, maar het is mij niet duidelijk hoe belangrijk de cpu is.FireDrunk schreef op woensdag 09 september 2015 @ 15:13:
Een ESXi server is zo samengesteld, maar of je daar mee je Cisco speelgoed kan doen.
Waarom zou Virtualbox op je eigen pc niet voldoen? Zo'n Cisco speelvm vreet amper resources?
Verder prima server om mee te beginnen. Je CPU is wel erg zwaar. Een G1820 voldoet prima joh
Wat maakt dat je voor een celeron, i3 of i5 gaat kiezen voor zo'n server?
Ik wil zeker niet nodeloos veel geld uitgeven, maar wil uiteraard wel dat alles gewoon vlot draait.
Voor een iets of wat deftig lab zal ik 15-20 routers moeten draaien. Mijn laptop heeft momenteel 8GB ram, dat zal te krap worden.
Verder is het ook handig dat het lab gewoon kan blijven draaien en dat ik er remote bijkan. dat zal niet mogelijk zijn met virtualbox.
Ik gebruik momenteel een i3 Intel NUC als mediaplayer met Kodi. Dat is in feite overkill enkel voor dat. Ik zou eventueel het ram daarin kunnen upgraden, en deze gebruiken als server ipv mediaplayer.
Onderstaande is gewoon mogelijk neem ik aan? Ik heb dan enkel het ram nog te kopen..
# | Product | Prijs | Subtotaal |
1 | Intel Next Unit of Computing (V3) Core i3-4010U | € 259,95 | € 259,95 |
1 | Corsair Vengeance CMSX16GX3M2B1600C9 | € 89,50 | € 89,50 |
1 | Crucial M500 mSata 120GB | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 349,45 |
[ Voor 45% gewijzigd door d--amo op 10-09-2015 13:43 ]
Ben nog aant twijfelen tussen
# | Product | Prijs | Subtotaal |
1 | ASRock H97 Anniversary | € 70,95 | € 70,95 |
1 | ASRock H97 Pro4 | € 84,49 | € 84,49 |
1 | Asus H97-PLUS | € 97,50 | € 97,50 |
Bekijk collectie Importeer producten | Totaal | € 252,94 |
Welke zou ik het best kiezen
Kan ik ze alle 3 gebruiken in combinatie met ESXI
is everything cool?
Maar er werd me aangeraden om naar een h97/z97 moederbord te kijken
Daarom de vraag
garciake schreef op woensdag 09 september 2015 @ 08:28:
Hello
Ben op zoek naar een vervanger van mijn huidige server
Wat kan/ga ik overnemen
- Kingston SSD 120GB
- 7x WD 2TB disken
- 2x Kingston 4GB DIMM DDR3 PC3-10700U DDR3-1334
- 2x OCZ 2GB DIMM DDR3 PC3-8500U DDR3-1066
- HighPoint 640L
Op de nieuwe server zouden dan een paar (3à4) virtuals moeten draaien (download, plex, windows server, ...)
Ik dacht aan het volgende:
# Product Prijs Subtotaal 1 Intel Core i5-4460 Boxed € 179,70 € 179,70 1 ASRock B85M Pro4 € 63,- € 63,- 1 Cooler Master N300 (KKN1, closed) € 35,95 € 35,95 Bekijk collectie
Importeer productenTotaal € 278,65
Ik zou dan ESXI op een usb-stick installeren, en de vm's op de SSD.
De harde schijven zou ik via een controller moeten doorgeven aan de vm die gaat zorgen als fileserver.
Kan hiervoor de highpoint 640L gebruikt worden, of beter een IBM ServeRaid M1015/Dell PERC H200 kopen.
Qua geheugen heb ik nu 12GB over van mijn oude server (zie hierboven). Kan ik dit herbruiken, of toch beter nieuw/ander geheugen voorzien?
Welke voeding ik moet voorzien, heb ik helemaal geen idee van. Er moeten zowiezo 8 schijven worden gevoed, dus ook 8 sata voeding connectoren?
De kast is wel voldoende denk ik (voorlopig), Er gaan daar 7 schijven in.
Maar wat als ik in de toekomst nog extra schijven aankoop, dan is de kast te klein denk ik.
Wellicht dat ik hier mijn antwoord kan vinden/krijgen.
Ik ben op zoek naar een firewall/router oplossing maar zie door de bomen het bos niet meer.
Ik heb al eens zitten spelen met PfSense maar dat is niet voor uit te branden. de GUI reageert soms helemaal niet terwijl ik naar mijn mening toch echt genoeg power heb toegewezen (2 CPU, 4GB mem, 32GB disk op SSD datastore). Mijn eerste ervaring is dus niet positief, of heb ik iets verkeerd gedaan?
Ook UnTangle geprobeerd. Ik was geen fan van deze oplossing eerlijk gezegd. Ze lokken je met "basis" addons om je vervolgens de betaalde versie te laten nemen.
Toen probeerde ik ClearOS. Echter na configuratie kan ik helemaal de web interface niet benaderen
Nu heb ik het topic doorgelezen en kom ik de volgende opties tegen:
- PfSense
- IPFire
- ClearOS
- Sophos
- UnTangle
- OPNsense
Zoals je kunt lezen, een legio aan oplossingen.
Mijn wens is om een firewall/router te laten draaien in een VM met 2 NICS via passthrough en 1 virtuele NIC. 1 NIC voor Ziggo modem in bridge modus, 1 NIC voor fysieke apparaten en 1 virtuele NIC voor mijn VM's. Wellicht nog een NIC voor mijn AP's?
Ik ben op zoek naar een VM oplossing die dit kan. Volgens mij kunnen ze dit allemaal.
Echter wil ik ook graag een virusscan + antimalware e.d.. Wellicht ook een access portal voor de wifi en in de toekomst misschien een remote access pagina voor VDI/terminal server.
Iemand een suggestie voor een goede firewall/router die aansluit bij mijn wensen?
Mijn LAN poort gaat trouwens weer naar een accesspoint die ik gebruik als switch en wifipunt.
[ Voor 42% gewijzigd door FREAKJAM op 17-09-2015 12:52 ]
is everything cool?
Wil jij mij willen vertellen hoeveel je aan PfSense heb toegewezen?FREAKJAM schreef op donderdag 17 september 2015 @ 12:49:
Bovenstaande kan sowieso met pfSense kan ik uit ervaring zeggen. Ik heb zelf ook een Ziggo modem in bridge modus draaien. OPNsense is een fork van pfSense dus daarmee moet het ook geen probleem zijn. Sophos UTM heb ik al eens mee gespeeld, maar nog niet aan de praat gekregen. (Had wel internet op de Sophos VM, maar het instellen van de regels in Sophos vind ik iets lastiger, maar niet te lang mee gespeeld want ik had natuurlijk daardoor geen internet, dus weer teruggegaan naar pfSense).
Mijn LAN poort gaat trouwens weer naar een accesspoint die ik gebruik als switch en wifipunt.
Ik had er 2 CPU/4GB/2NIC(passthrough)/1NIC virtueel aan toegewezen. Maar de interface is echt belabberd te laden en wilt soms helemaal niet laden. Ik vraag mij af wat ik dan verkeerd doe
pfSense heeft helemaal niet zoveel resources nodig. Ik heb een harddisk van 2GB maar die zou je wellicht iets groter kunnen maken, ligt er maar net aan hoeveel packages je extra wilt installeren. Zoals je ziet heb ik Sophos nog draaien als experiment, maar eigenlijk doe ik er niets mee. En de Sophos VM krijgt op dit moment toch geen WAN adres, omdat pfSense draait. Als ik de Sophos VM WAN wil geven moet mijn modem een tijdje van het stroom af en de pfSense uit. Met DMZ doe ik eigenlijk ook vrij weinig. Voor de rest staan er CentOS 7 VM's (vandaar de munt-namen) in mijn LAN en vSphere.renedis schreef op donderdag 17 september 2015 @ 12:54:
[...]
Zou jij mij willen vertellen hoeveel je aan PfSense heb toegewezen?
Ik had er 2 CPU/4GB/2NIC(passthrough)/1NIC virtueel aan toegewezen. Maar de interface is echt belabberd te laden en wilt soms helemaal niet laden. Ik vraag mij af wat ik dan verkeerd doe
Bij deze mijn config:


[ Voor 21% gewijzigd door FREAKJAM op 17-09-2015 13:02 ]
is everything cool?
Bedankt voor de informatie. Ik ben nu bezig om PfSense nogmaals te installeren. Hoop dat het straks beter gaat.
Volg de ESXi guide op pfSense, kan eigenlijk niet mis gaan.renedis schreef op donderdag 17 september 2015 @ 13:05:
[...]
Bedankt voor de informatie. Ik ben nu bezig om PfSense nogmaals te installeren. Hoop dat het straks beter gaat.
is everything cool?
~ beware of misinformation.
Even niets...
Dit gaat misschien ook media zijn, dus weet ik niet.FireDrunk schreef op donderdag 17 september 2015 @ 13:53:
Wil je de data zelf ook clusteren?

~ beware of misinformation.
Dan is alles high available (mits de andere storage dit is) behalve je ZFS VM.
Maar wat wil je bereiken? Spelen met clustering en zfs tegelijk?
Of wil je permanent iets maken wat high available is?
Wil je ZFS persé testen onder ESXi, of wil je gewoon zo min mogelijk machines?
Even niets...
Uit principe wil ik graag ZFS gebruiken. Verder wil ik ook wat met clustering spelen, maar een permanente high available setup is wel een vereiste omdat ik van plan ben hier in de toekomst wat op te gaan draaien. (tv, domotica, ..)FireDrunk schreef op donderdag 17 september 2015 @ 14:13:
Tja, je kan 1 VM draaien op een cluster met een VT-d controller en daar ZFS in.
Dan is alles high available (mits de andere storage dit is) behalve je ZFS VM.
Maar wat wil je bereiken? Spelen met clustering en zfs tegelijk?
Of wil je permanent iets maken wat high available is?
Wil je ZFS persé testen onder ESXi, of wil je gewoon zo min mogelijk machines?
Eerst dacht ik kleine esxi nodetjes te maken met een 8-bay ZFS server, maar als je zfs server neergaat is alles koek.

[ Voor 9% gewijzigd door Nindustries op 17-09-2015 14:16 ]
~ beware of misinformation.
Nu is het zo dat de SSD waarop mijn VM's staan thin provisioning heeft, en daarom de adapter niet om kan zetten voor de andere schijf die ik wil delen.
Kan ik dit makkelijk oplossen door mijn VM's te verplaatsen, de schijf opnieuw in te delen en dan de VM's terug plaatsen? Of moet ik dan alles opnieuw gaan instellen omdat de eigenschappen van de schijf zijn aangepast?
Dat zou namelijk veel tijd en gedoe schelen aangezien ik PfSense heb draaien in een VM
Misschien begrijp ik je niet helemaal goed. Maar je kan toch simpelweg the thin VMDK's inflaten naar thick?thedon46 schreef op donderdag 17 september 2015 @ 14:19:
Toen ik een schijf wou gaan delen tussen 2 VM's kwam ik er achter dat je dan Thick provisioning moet gebruiken in ESXi.
Nu is het zo dat de SSD waarop mijn VM's staan thin provisioning heeft, en daarom de adapter niet om kan zetten voor de andere schijf die ik wil delen.
Kan ik dit makkelijk oplossen door mijn VM's te verplaatsen, de schijf opnieuw in te delen en dan de VM's terug plaatsen? Of moet ik dan alles opnieuw gaan instellen omdat de eigenschappen van de schijf zijn aangepast?
Dat zou namelijk veel tijd en gedoe schelen aangezien ik PfSense heb draaien in een VM
Vmware link:
http://kb.vmware.com/self...playKC&externalId=2014832
[ Voor 6% gewijzigd door renedis op 17-09-2015 14:56 ]
Is dat überhaupt wel een goed idee? Krijg je dan geen problemen als beide VMs dezelfde blocks willen accessen/modifyen?thedon46 schreef op donderdag 17 september 2015 @ 14:19:
Toen ik een schijf wou gaan delen tussen 2 VM's kwam ik er achter dat je dan Thick provisioning moet gebruiken in ESXi.
Waarom wil je dit precies? Is het niet beter om het te verwezenlijken met een file-level protocol zoals NFS?
Gewoon een heel grote verzameling snoertjes
VM 1: Ubuntu server voor algemene taken
VM 2: Ubuntu server voor Download taken
Het idee was dan om te downloaden naar VM2 en Kodi en Plex te draaien in VM1 zodat het download gedeelte afgeschermd kan worden van de rest van mijn netwerk.
Als ik Kodi en Plex in VM2 zet dan moet mijn HTPC daar ook connectie mee kunnen maken en andersom. daarom dacht ik dit apart te doen.
Maar misschien maak ik het mezelf dan te moeilijk.
NFS shares, kan dat 1 wegsverkeer zijn? dat VM1 wel bij 2 kan maar niet andersom?
In dat geval zal ik toch echt voor NFS gaan. Ik denk dat je problemen krijgt met op block-level een schijf te delen met twee VMs (tenminste, in het geval dat de kans bestaat dat beide VMs tegelijkertijd bepaalde data kunnen accessen)thedon46 schreef op donderdag 17 september 2015 @ 15:23:
Ok ik zal iets duidelijker zijn
VM 1: Ubuntu server voor algemene taken
VM 2: Ubuntu server voor Download taken
Het idee was dan om te downloaden naar VM2 en Kodi en Plex te draaien in VM1 zodat het download gedeelte afgeschermd kan worden van de rest van mijn netwerk.
In het geval van NFS geef je in ESXi de VHD aan één van de twee VMs. De andere VM biedt dan een bepaalde map via NFS aan aan de andere VM, die die map via NFS mount. In dat opzicht werkt het precies hetzelfde als andere file-level protocollen zoals SMB.Als ik Kodi en Plex in VM2 zet dan moet mijn HTPC daar ook connectie mee kunnen maken en andersom. daarom dacht ik dit apart te doen.
NFS shares, kan dat 1 wegsverkeer zijn? dat VM1 wel bij 2 kan maar niet andersom?
Dus ja, het is per definitie '1-wegsverkeer'.
Ja, misschien wel. Zit je niet teveel verschillende taken 'uit elkaar te trekken' die eigenlijk wel op één enkele VM passen? Je geeft al aan dat je voor beide VMs Ubuntu wil draaien. Waarom kan één VM niet beide taken afhandelen?Maar misschien maak ik het mezelf dan te moeilijk.
Ik weet dat sommige mensen graag een aparte VM hebben voor elke 'taak', maar ik zie daar persoonlijk meer nadelen aan dan voordelen. Als je per se taken gescheiden wilt houden maar geen verschillende OSen nodig hebt, is het misschien beter om containers/jails te gebruiken dan VMs.
[ Voor 25% gewijzigd door Compizfox op 17-09-2015 15:50 ]
Gewoon een heel grote verzameling snoertjes
- Pantagruel
- Registratie: Februari 2000
- Laatst online: 26-09 15:29
Mijn 80486 was snel,....was!
:strip_icc():strip_exif()/u/3454/i486.jpg?f=community)
Je kunt 1 en dezelfde disk niet aan 2 vm's koppelen, ik gok dat ESXi gaat mekkeren als je t probeert. Mocht je idd toch één disk tussen 2 vm's kunnen delen, dan denk ik dat je tegen permissie problemen gaat lopen (file/dir eigenaar etc)Compizfox schreef op donderdag 17 september 2015 @ 15:44:
[...]
In dat geval zal ik toch echt voor NFS gaan. Ik denk dat je problemen krijgt met op block-level een schijf te delen met twee VMs (tenminste, in het geval dat de kans bestaat dat beide VMs tegelijkertijd bepaalde data kunnen accessen)
Je kunt idd een een map/dir van de ene vm naar de andere delen, je kunt in de nfs export de rechten van de share beperken, zelfs zodat slechts één client toegang heeft:[...]
In het geval van NFS geef je in ESXi de VHD aan één van de twee VMs. De andere VM biedt dan een bepaalde map via NFS aan aan de andere VM, die die map via NFS mount. In dat opzicht werkt het precies hetzelfde als andere file-level protocollen zoals SMB.
Dus ja, het is per definitie '1-wegsverkeer'.
1
2
3
4
| R/W toegang tot de dir /data/movies dir vanaf de machine met ip 92.168.1.203. #/etc/exports /data/movies 192.168.1.203/32(rw,sync) |
Daarnaast is het niet zo dat je NFS client automagisch shares vindt en ze maar voor je mount, dit geef je doorgaans op in /etc/fstab zodat de share tijdens de bootstrap fase gemount gaat worden.
1
2
3
| #/etc/fstab #Directory...................Mount Point.....Type 192.168.1.100:/data/movies /mnt/nfs/movies nfs |
Tja, het is maar net wat je voorkeur heeft, persoonlijk zie ik het nut van het uitsplitsen van taken over vm's wel zitten. Mijn webpresence en email vm mag zeer 'lean and mean' zijn en hoeft geen dingen als sab/sick/coach/headphones/autosub/ ieder andere media stofzuiger te draaien.[...]
Ja, misschien wel. Zit je niet teveel verschillende taken 'uit elkaar te trekken' die eigenlijk wel op één enkele VM passen? Je geeft al aan dat je voor beide VMs Ubuntu wil draaien. Waarom kan één VM niet beide taken afhandelen?
Ik weet dat sommige mensen graag een aparte VM hebben voor elke 'taak', maar ik zie daar persoonlijk meer nadelen aan dan voordelen. Als je per se taken gescheiden wilt houden maar geen verschillende OSen nodig hebt, is het misschien beter om containers/jails te gebruiken dan VMs.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Dan ga ik het verder gewoon laten zoals het is en het via NFS oplossen.
Het idee is inderdaad om de kritieke taken apart te houden van de VM waar ongecontroleerd en automatisch bestanden van het internet worden geplukt. Tot nu toe gaat het altijd goed, maar ´when the shit hits the fan´ wil ik natuurlijk dat dingen die wel belangrijk zijn daar geen last van ondervinden.
Maar het wil niet ('Multiboot could not setup the video subsystem') en hier: http://yellperil.blogspot...ay-2014-release-0034.html lees ik ook dat het niet gaat werken.
* ThinkPad had toch wat beter moeten zoeken vooraf.
Hyper-V werkt blijkbaar ook niet. Iemand nog een ander goed idee om er toch VM's met enigszins redelijke performance op te kunnen draaien? Of tips voor een vergelijkbaar doosje die wel ESXi kan draaien?
Ik wist dat het ding geen VT-d had, maar zonder dat moet je ook prima ESXi kunnen draaien toch? Dat het ding geen dijk van een performance neer zou zetten had ik mij ook al op voorbereid. Maar dat het gewoon NIET werkt is dan wel jammer....Deveon schreef op vrijdag 18 september 2015 @ 17:59:
ESX op een Celeron, what were you thinking?De NUC's met i3, i5 en i7 kunnen wel prima ESX draaien.
Proxmox 4 beta2 erop vlammenThinkPadd schreef op vrijdag 18 september 2015 @ 18:00:
[...]
Ik wist dat het ding geen VT-d had, maar zonder dat moet je ook prima ESXi kunnen draaien toch? Dat het ding geen dijk van een performance neer zou zetten had ik mij ook al op voorbereid. Maar dat het gewoon NIET werkt is dan wel jammer....
- Deze advertentie is geblokkeerd door Pi-Hole -
Die fout van thinkpad heeft niets met de CPU te maken maar met de UEFI implementatie volgens mij.
[ Voor 26% gewijzigd door FireDrunk op 22-09-2015 14:27 ]
Even niets...
Bepaalde opterons uit de 2xxx en 8xxx serie (Barcelona) werken niet omdat deze expliciet uitgesloten zijn in de ESX code vanwege de TLB bug in de b2 stepping, de B3 stepping van deze serie werkt wel gewoonFireDrunk schreef op dinsdag 22 september 2015 @ 14:26:
Er zijn weinig CPU's die totaal niet werken met ESXi. (alleen oudere Opterons dat ik weet werken niet, vanwege een te oud instructieset maar toch 64bit ofzo).
Die fout van thinkpad heeft niets met de CPU te maken maar met de UEFI implementatie volgens mij.
Volgens mij moet die qua specs prima ESXi kunnen draaien, maar lijkt het mij meer een probleem met het moederbord/UEFI idd.
[ Voor 4% gewijzigd door FireDrunk op 22-09-2015 14:35 ]
Even niets...
Vergeet ook deze niet met ingang vanaf 6.0:FireDrunk schreef op dinsdag 22 september 2015 @ 14:35:
@wannial, Ah! Dat was het! Ik dacht dat het met de incomplete instructieset te maken had. Weer wat geleerd!
Upgrades and Installations Disallowed for Unsupported CPUs
vSphere 6.0 supports only processors available after June (third quarter) 2006. Comparing the processors supported by vSphere 5.x, vSphere 6.0 no longer supports the following processors:
AMD Opteron 12xx Series
AMD Opteron 22xx Series
AMD Operton 82xx Series
During an installation or upgrade, the installer checks the compatibility of the host CPU with vSphere 6.0. If your host hardware is not compatible, a purple screen appears with an incompatibility information message, and the vSphere 6.0 installation process stops.
I Don't Know, So Don't Shoot Me
Even niets...
Ze gebruiken in die tutorial nog 5.1 , maar zou de E1001E.tgz ook met ESXi 6 werken? Kan het niet echt vinden op internet...
[ Voor 14% gewijzigd door ThinkPad op 27-09-2015 13:10 ]
Te Koop:24 Core Intel Upgradeset
Zo eens proberen met een ander USB-stickje dan.|sWORDs| schreef op zondag 27 september 2015 @ 13:37:
Die zit toch standaard in 6 en 6.1? http://www.vmware.com/res...&productid=37638&vcl=true
5.1 inmiddels draaien op de NUC DC3217IYE. Stroomverbruik idle in ESXi (profiel 'Balanced') is maar 11W
Edit:
Inmiddels ESXi 6 erop staan en dat werkte idd zonder een driver voor de netwerkkaart te hoeven injecteren. Top, scheelt weer.
Nu met één Ubuntu 14.04 VM doet het ding zo'n 14W. Blij mee.
[ Voor 19% gewijzigd door ThinkPad op 06-10-2015 21:18 ]
Madhouse1979 schreef op vrijdag 25 september 2015 @ 15:30:
Ik heb een probleem met waarschijnlijk mijn DS215J en ik hoop dat jullie me hierbij kunnen helpen.
Ik zal eerst even de situatie schetsen: Ik heb een Intel NUC als ESXi server en daarnaast een DS213 en een DS215J. De DS215J gebruik ik als iSCSI target voor ESXi en om de ongeveer 72u is het ISCSI target offline (zie screenshot) en zijn mijn VM's niet meer bereikbaar. Ik heb de DS215J bewust gekocht hiervoor omdat ik mijn DS213 (had ik eerst als iSCSI) voor andere doeleinden gebruik. Ik heb als test op mijn DS213 een iSCSI target aangemaakt en die blijft gewoon bereikbaar. Het lijkt dus echt aan de DS215J te liggen.
Wie heeft er een idee wat er gebeurt?
EDIT: Als ik op 'Rescan All..' klik in ESXi dan komt het iSCSI target weer online en zijn al mijn VM's weer bereikbaar.
[afbeelding]
www.simraceblog.nl - Over 5 Years of Simracing News & Reviews!
Dè developers podcast in je moerstaal : CodeKlets Podcast
Die Xeon-D's zijn toch al lang te leveren? Ik denk dat de shops ze gewoon niet op voorraad hebben, bij de groothandel zie ik ze al maanden staan.OMX2000 schreef op zondag 27 september 2015 @ 20:27:
Wanneer komen die verrekte Xeon D's of E3 V5's nou? Take my money already!
Te Koop:24 Core Intel Upgradeset
Betekent dat dus ook dat ik prive een plankje kan bemachtigen, of moet dat met allerlei truuks zakelijk?|sWORDs| schreef op maandag 28 september 2015 @ 10:04:
[...]
Die Xeon-D's zijn toch al lang te leveren? Ik denk dat de shops ze gewoon niet op voorraad hebben, bij de groothandel zie ik ze al maanden staan.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Als ik niet zo druk was en meestal in het buitenland zat had ik het wel willen doen, maar qua prijs zal het je niets schelen en via een shop is retourneren veel makkelijker.
[ Voor 39% gewijzigd door |sWORDs| op 28-09-2015 19:04 ]
Te Koop:24 Core Intel Upgradeset
Yes! hier ook een homelab draaien op een Nuc D54250, draait ondertussen alweer 8 linux vm's op, lekker zuinig en toch performt het absoluut niet slecht. Leuk spul!ThinkPadd schreef op zondag 27 september 2015 @ 14:15:
[...]
Nu met één CentOS VM doet het ding zo'n 16 a 17W. Blij mee.
Thnx voor de tip. Ga ik ff rondvragen.|sWORDs| schreef op maandag 28 september 2015 @ 19:01:
Volgens mij kun je een shop die Supermicro in het assortiment heeft gewoon vragen of ze hem kunnen bestellen en wat de levertijd is.
Als ik niet zo druk was en meestal in het buitenland zat had ik het wel willen doen, maar qua prijs zal het je niets schelen en via een shop is retourneren veel makkelijker.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Ik kon er nog niet bijster veel over vinden, maar zou de onderstaande combinatie iig gaan werken met esxi?
ik las wel dat je de allerlaatste esxi zou moeten hebben, anders boot het spul niet.
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-6600 Boxed | € 233,80 | € 233,80 |
1 | ASRock Z170M Pro4S | € 103,95 | € 103,95 |
1 | Fractal Design Node 804 | € 108,- | € 108,- |
1 | Intel PRO/1000 PT Dual Port Adapter (2x1Gbps, PCI-e 4x) | € 174,95 | € 174,95 |
1 | Scythe Mugen 4 | € 35,95 | € 35,95 |
1 | Crucial CT4K8G4DFD8213 | € 196,- | € 196,- |
1 | Seasonic G-series 550 watt | € 76,- | € 76,- |
2 | Crucial MX200 2,5" 500GB | € 169,- | € 338,- |
Bekijk collectie Importeer producten | Totaal | € 1.266,65 |
Is je voeding trouwens niet te zwaar? Ik heb een Xeon 1230v3 cpu met 32GB ram en een Supermicro met 360watt voeding en dat is meer dan voldoende (6 VM's).
[ Voor 141% gewijzigd door FREAKJAM op 30-09-2015 10:33 ]
is everything cool?
Wat mij direct opviel, Bij ESXi5.5 in idle mode draaide mijn intel nuc (met i3-4010u cpu) op ongv. 7,5/8Watt idle.
Met ESXi 6 draait deze op 10/11 watt idle.
Toch een behoorlijke verhoging. Ik meen in het verleden gelezen te hebben dat ESXi6 juist beter zou zijn qua performance per watt.
is everything cool?
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.