Acties:
  • 0 Henk 'm!

Verwijderd

Madhouse1979 schreef op vrijdag 30 oktober 2015 @ 22:37:
Voor de mensen die een NUC willen, dit is mijn ESXi bakkie en draai er probleemloos 7 VM's op. Voor storage heb ik iSCSI target naar mijn NAS. Nadeel blijft toch wel de max van 16GB en twijfel al een tijdje om iets anders te gaan bouwen.

#ProductPrijsSubtotaal
1Kingston DataTraveler Special Edition 9 8GB Grijs€ 3,55€ 3,55
1Intel NUC Kit NUC5i5RYH€ 359,95€ 359,95
2Crucial CT102464BF160B€ 37,95€ 75,90
1Samsung 850 EVO M.2 120GB€ 74,13€ 74,13
Bekijk collectie
Importeer producten
Totaal€ 513,53
Ben zelf aan het kijken naar hetzelfde systeem als die van jou, maar dan met een i3.
Heb je in jouw geval genoeg aan die 120GB SSD?

Ik wil zelf VM's met domoticz, xpenology, voip server, sabnzb, plex, ubuntu testbak, windows 7 testbak, en vast nog wel 1 of 2 erbij draaien, is 8-9 VM's.

E.e.a. is bedoelt om van een paar Rpi's af te komen en om van te leren/mee te spelen.
Voor storage heb ik een Synology staan.

Gaat dat hierop passen of beter een 250GB nemen? :)
(meer is natuurlijk altijd beter ;) )

Acties:
  • 0 Henk 'm!

  • Madhouse1979
  • Registratie: Februari 2008
  • Laatst online: 26-09 19:45
Verwijderd schreef op dinsdag 03 november 2015 @ 20:34:
[...]


Ben zelf aan het kijken naar hetzelfde systeem als die van jou, maar dan met een i3.
Heb je in jouw geval genoeg aan die 120GB SSD?

Ik wil zelf VM's met domoticz, xpenology, voip server, sabnzb, plex, ubuntu testbak, windows 7 testbak, en vast nog wel 1 of 2 erbij draaien, is 8-9 VM's.

E.e.a. is bedoelt om van een paar Rpi's af te komen en om van te leren/mee te spelen.
Voor storage heb ik een Synology staan.

Gaat dat hierop passen of beter een 250GB nemen? :)
(meer is natuurlijk altijd beter ;) )
Ik heb zelf ook de i3 overwogen maar uiteindelijk voor de i5 gekozen omdat de performance beter is. Ik heb zelf 2 DC's, WSUS, WDS + MDT2013 en een beheer server draaien welke 24/7 aan staan, allen 2012 R2. Daarnaast nog 4 test VM's (Server 2016 Preview, Server 2012 R2 Core, GUI en Hyper-V) welke alleen aan gaan als ik ze nodig heb. Ook nog een test Win 10 VM welke ook alleen aan gaat als ik ze nodig heb.

Om eerlijk te zijn zou ik met een 6e Server er bij welke 24/7 aan staat wel aan de max van de NUC komen te zitten denk ik. Ik twijfel daarom zelf om een 2e NUC aan te schaffen voor ESX om de load beter te verdelen (wil ook nog SCCM en Exchange gaan draaien) of een nieuwe bak aan te schaffen en de NUC weg doe. Lastige keuze...

Qua schijfruimte, ik heb 1 DC en mijn beheer server op de 120 GB SSD staan en de rest op de 500 GB SSD, backuppen doe ik nu met Veaam naar mijn NAS. Al mijn VM's zijn Thick Provisioned.

www.simraceblog.nl - Over 5 Years of Simracing News & Reviews!


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 26-09 12:02

MvL

mrmrmr schreef op dinsdag 03 november 2015 @ 20:29:
@MvL

Wat is het idle verbruik en welke hardware heb je?

De settings zijn belangrijk, de schijven kun je laten downspinnen, het verbruik kan misschien omlaag met een zuinigere voeding, minder fans of een beter koelbare behuizing.

De E3-1275v3 is een zuinige en nog up to date processor. Skylake c.s. moederborden zijn voor zover nu bekend niet echt zuiniger, Haswell c.s. moederborden kunnen eerder nog een stuk zuiniger zijn door het ontwerp van de moederborden, ondanks dat het Skylake cpu ontwerp wel zuiniger is. Skylake moederborden zijn ook nog eens flink duurder en voor features wordt veel geld gevraagd (veel teveel naar mijn idee).
Idle verbruik zal ik voor de zekerheid nog een keer morgen meten.

Moederbord een Intel S1200RPL, 32GB geheugen, E3-1275v3 originele cooler, Crucial 256GB SSD en 6 case fans. Misschien kan ik er nog wel een paar case fans uithalen/schakelen. Storage gebeurd op een aparte nas.

Ik heb begrepen dat bv een mac mini maar 11 watt doet als die idle draait vandaar dat ik nog eens kritisch naar mijn hardware kijk.

[ Voor 4% gewijzigd door MvL op 03-11-2015 21:27 ]


Acties:
  • 0 Henk 'm!

  • Tasminos
  • Registratie: September 2003
  • Niet online
Madhouse1979 schreef op dinsdag 03 november 2015 @ 19:52:
[...]

Die heb ik inmiddels draaien en dat ziet er goed uit. Alleen scheduled backuppen kan niet met Veeam, of ik moet iets gemist hebben?
Step 5: Define the Job Schedule

Betreft de instrutie voor Veeam Backup Free Edition 8.0

[ Voor 7% gewijzigd door Tasminos op 04-11-2015 09:57 ]


Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Nu online
Diamond AT schreef op dinsdag 03 november 2015 @ 16:37:
[...]


Ik gebruik zelf Veeam. Je kunt al redelijk uit de voeten met de gratis variant:
Kan je deze gebruiken i.c.m. met de gratis variant van ESXi of ben je afhankelijk van een vCenter server + licentie?

Heb namelijk niet echt de mogelijkheid (capaciteit) om een vCenter server te installeren (licentie is wel aan te komen 8) )

[ Voor 13% gewijzigd door prekz op 05-11-2015 15:36 ]


Acties:
  • 0 Henk 'm!

  • Tasminos
  • Registratie: September 2003
  • Niet online
prekz schreef op donderdag 05 november 2015 @ 15:34:
[...]


Kan je deze gebruiken i.c.m. met de gratis variant van ESXi of ben je afhankelijk van een vCenter server + licentie?

Heb namelijk niet echt de mogelijkheid (capaciteit) om een vCenter server te installeren (licentie is wel aan te komen 8) )
Heb zelf geen losse Vcenter server ingericht. Wel een ESXi machine met licentie.

Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Nu online
Toch maar eens proberen dan :D

Acties:
  • 0 Henk 'm!

  • Madhouse1979
  • Registratie: Februari 2008
  • Laatst online: 26-09 19:45
Diamond AT schreef op woensdag 04 november 2015 @ 09:56:
[...]


Step 5: Define the Job Schedule

Betreft de instrutie voor Veeam Backup Free Edition 8.0
Thanks, draait inmiddels en gaat goed. Nu maar hopen dat ik er geen gebruik van hoef te maken. Als ik iets ga testen maak ik toch altijd ff een snapshot en daarnaast is Veeam Free Edition een mooie toevoeging.

www.simraceblog.nl - Over 5 Years of Simracing News & Reviews!


Acties:
  • 0 Henk 'm!

  • magic_japie
  • Registratie: November 2001
  • Laatst online: 22-09 15:47
*knip* Ga eens weg.

[ Voor 88% gewijzigd door br00ky op 08-11-2015 16:51 ]

Fritzbox 7490, 1x Netgear GS108E, 2x TP-Link SG105E, HP2520-8G-POE


Acties:
  • 0 Henk 'm!

  • Farg0
  • Registratie: Juli 2009
  • Laatst online: 20:00
Waarom niet gewoon een Veeam NFR key aanvragen ?

http://go.veeam.com/free-nfr-veeam-availability-suite.html

Acties:
  • 0 Henk 'm!

  • Geckx
  • Registratie: November 2008
  • Laatst online: 23-05-2022
Na lang twijfelen toch besloten om voor een ESXi oplossing te gaan.
Voor slechts één reden, dat is de mogelijkheid om een pci-e kaart (in mijn geval LSI kaartje) volledig door te geven aan een VM (in mijn geval: ZFS storage server). Wat niet mogelijk is met, het voor mij meer vertrouwde, Hyper-V

Virtualiseren doe ik om energiekosten uit te sparen.

nu:
aparte bak als NAS/SAN (BSD)
aparte bak als DC (Windows)
aparte bak als firewall/router (BSD)

Ik zou graag nog een file/print server bij installeren, dus in totaal al 4 servers.
= beter VM's van maken.

De 1e doelstelling is om een zo laag mogelijk stroomvebruik (vooral idle) te verwezenlijken.

Zelf heb ik al vrij veel opzoekingswerk verricht en kwam uit bij een Athlon 5350 icm met MSI AM1l itx bordje.
Maar ik kan nergens bevestigd zien (eerder het tegendeel) dat deze bordjes ondersteuing bieden voor DirectPath I/O (voor het doorgeven van de pci-e LSI controller). De CPU zelf is oké met AMD-V, maar in BIOS geen optie om IOMMU te enablen?

Hebben jullie ervaring met deze hardware en voldoet dit aan mijn eisen?
Zo nee, kunnen jullie alternatieven aanraden (zelfde prijsklasse, zelfde stroomverbruik) waar dit zeker wel mee zal lukken?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
VT-d is vaak een wat duurdere aangelegenheid. Er zijn wat uitzonderingen qua CPU's die VT-d hebben.
Deze bijvoorbeeld: pricewatch: Intel Pentium G4400 Boxed

Anders zit je al snel aan een i5 (of hoger) of een Xeon.

Ik heb alleen nog geen builds gezien recentelijk die ESXi (6.0) combineren met SkyLake en VT-d. Dus het is een gokje.

Even niets...


Acties:
  • 0 Henk 'm!

  • Geckx
  • Registratie: November 2008
  • Laatst online: 23-05-2022
Bedankt voor de reactie.

Het is inderdaad vrij moeilijke combinatie wat ik zoek :p

Die Pentium G4400 is oké voor prijs en vermoedelijk oké voor stroomvebruik (mits wat ondervolten). Zal ik ook is wat opzoekinswerk rond verrichten.

[ Voor 12% gewijzigd door Geckx op 09-11-2015 00:01 ]


Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 20:07
Ik wil in mijn NUC een grotere SSD plaatsen, de 80GB waar nu de datastore op staat is te klein aan het worden.

Kan ik dan gewoon de VM's afsluiten, de VMDK's naar m'n Synology parkeren, nieuwe SSD erin, datastore van maken en dan weer terugpompen, toevoegen aan inventory en alles draait weer zoals het was?

Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 17:46
ThinkPadd schreef op zondag 08 november 2015 @ 16:45:
Ik wil in mijn NUC een grotere SSD plaatsen, de 80GB waar nu de datastore op staat is te klein aan het worden.

Kan ik dan gewoon de VM's afsluiten, de VMDK's naar m'n Synology parkeren, nieuwe SSD erin, datastore van maken en dan weer terugpompen, toevoegen aan inventory en alles draait weer zoals het was?
Wat je best doet is heel de map met je vmdk's en andere files te kopieren naar je synology.
Je doet "remove from inventory" in je esxi.
Dan steek je de nieuwe schijf erin. Je kopieert al je mappen terug.
Als je dan naar je map gaat waar de vm zit klik je op de .vmx file en doe "add to inventory". Start daarna de vm terug op.

Edit: Je zal de nieuwe schijf ook moeten instellen.

[ Voor 3% gewijzigd door Yarisken op 08-11-2015 16:52 ]


Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 20:07
Yarisken schreef op zondag 08 november 2015 @ 16:51:
[...]


Wat je best doet is heel de map met je vmdk's en andere files te kopieren naar je synology.
Je doet "remove from inventory" in je esxi.
Dan steek je de nieuwe schijf erin. Je kopieert al je mappen terug.
Als je dan naar je map gaat waar de vm zit klik je op de .vmx file en doe "add to inventory". Start daarna de vm terug op.

Edit: Je zal de nieuwe schijf ook moeten instellen.
Thanks. Ik was eerst bezig via de vSphere Client en daarna ook nog met WinSCP, maar dat gaat tergend traag (9MB/s terwijl NUC, PC, NAS allemaal Gigabit zijn aangesloten).

Nu de NAS als NFS datastore toegevoegd in ESXi en daarna 'Move' gedaan in de Datastore Browser. Nu gaat het een stuk vlotter, volgens de Synology met zo'n 100 - 122MB/s :9 _/-\o_

Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Vraagje (hoop dat ik hier goed zit):

Heb nu 2x een Xeon 2630Lv3 met 32GB DDR4 op een pricewatch: Supermicro X10DRL-i moederbord.

Helaas ben ik er achter gekomen dat het niet mogelijk is om de onboard controller (Intel C612) via passthrough te laten werken.

Nu ben ik dus op zoek naar een (snelle) raid/HDD controller die werkt met passthrough. Iemand een suggestie voor een controller die redelijk betaalbaar is?

Lijkt mij dat FreeNAS met ZFS om die vervolgens aan te bieden via NFS/iSCSI de beste keuze is? Gezien dan ook SSD cache mogelijk is, toch?

Ben nog niet echt een kenner op dat gebied, dus advies is gewenst O+

Acties:
  • +1 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
renedis schreef op maandag 09 november 2015 @ 10:11:
Nu ben ik dus op zoek naar een (snelle) raid/HDD controller die werkt met passthrough. Iemand een suggestie voor een controller die redelijk betaalbaar is?

Lijkt mij dat FreeNAS met ZFS om die vervolgens aan te bieden via NFS/iSCSI de beste keuze is? Gezien dan ook SSD cache mogelijk is, toch?
Als je met ZFS in de weer wilt zou ik geen RAID-controller nemen maar gewoon een HBA. De m1015 of een van zijn vele afgeleiden is daar volgens mijn nog steeds erg goed in (8x SATA-600 / SAS 2.0).

Qua SSD-cache zijn er 2 opties: read-cache (L2ARC) en synced write-"cache" (SLOG voor je ZIL).

Al je writes gaan door je ZIL, hoofdzaak is dus flink overprovisionen. Als ik het goed heb begrepen bevat je ZIL op zijn hoogst 2 transaction groups, of 10 seconde aan data. Als je met 500 MB/sec weg kunt schrijven moet je ZIL dus 5 GB groot zijn.

Verder kost een entry in je L2ARC ook een beetje RAM, waardoor je (L1)ARC kleiner wordt. Een L2ARC kan in theorie dus performance kosten. Het zegt ook dat een te grote L2ARC niet nuttig is. 20 GB L2ARC, 5 GB SLOG/ZIL, 10x overprovisioning -> 250 GB SSD?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Paul schreef op maandag 09 november 2015 @ 10:48:
[...]
Als je met ZFS in de weer wilt zou ik geen RAID-controller nemen maar gewoon een HBA. De m1015 of een van zijn vele afgeleiden is daar volgens mijn nog steeds erg goed in (8x SATA-600 / SAS 2.0).

Qua SSD-cache zijn er 2 opties: read-cache (L2ARC) en synced write-"cache" (SLOG voor je ZIL).

Al je writes gaan door je ZIL, hoofdzaak is dus flink overprovisionen. Als ik het goed heb begrepen bevat je ZIL op zijn hoogst 2 transaction groups, of 10 seconde aan data. Als je met 500 MB/sec weg kunt schrijven moet je ZIL dus 5 GB groot zijn.

Verder kost een entry in je L2ARC ook een beetje RAM, waardoor je (L1)ARC kleiner wordt. Een L2ARC kan in theorie dus performance kosten. Het zegt ook dat een te grote L2ARC niet nuttig is. 20 GB L2ARC, 5 GB SLOG/ZIL, 10x overprovisioning -> 250 GB SSD?
Ik heb de volgende SSD's tot mijn beschikking:
- 320GB Fusion IO drive PCI-E
- 250GB Samsung 850 EVO m.2 (naar SATA converter is aanwezig)
- 500GB Samsung 850 EVO m.2 (naar SATA converter is aanwezig)

Mijn idee was om de Fusion IO te gebruiken voor SSD cache gezien deze SLC chips bevat. De 500GB voor VM's als local datastore. De 256GB als "extra".

Ik snap het nog niet helemaal, zoals ik zei, ik ben geen kenner op gebied van disks/RAID/ZFS.
Ik heb de volgende disks:
- 4TB
- 4TB
- 3TB
- 2TB

Mijn idee daar bij is:
- 3TB + 2TB mirrored. (voor mijn "belangrijke" data)
- 4TB + 4TB striped. (voor mijn downloads e.d.)
Dit is echter gebaseerd op RAID, geen idee wat ZFS kan betekenen voor mij.


Edit:
Bedankt voor de tip over de m1015 controller. Is het niet slim om een mem cached 512MB/1G controller te nemen? Of zal de SSD cache voldoende moeten zijn? Excuses voor de misschien wat minder slimme vraag :P

[ Voor 7% gewijzigd door renedis op 09-11-2015 11:12 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
Nice!

ZFS is (ongeveer) RAID maar dan niet voor de snelheid of het opvangen van uitval van een harde schijf, maar om de betrouwbaarheid van je data beter te waarborgen. Uitval van een (of meer) harde schijven is daar onderdeel van en afhankelijk van je opstelling is het ook sneller dan een enkele schijf.

Met een 2TB-schijf en een 3 TB-schijf in mirror hou je netto 2 TB over, maar ik neem aan dat je dat al wist :) Met ZFS kan die opstelling net zo goed en werkt redelijk hetzelfde. De bonus van ZFS is dat het systeem veel meer soorten datacorruptie kan ontdekken dan (bijvoorbeeld) NTFS of Ext3, en in geval van mirroring of RAIDZ/Z2/Z3 ook kan herstellen.

In jouw geval krijg je twee pools. Let op dat je niet je 4 TB schijven als los vdev toevoegt aan de pool met je mirror, want dan kun je opnieuw beginnen. Wat je ook kunt overwegen is je 2 en 3 verkopen en er 4 TB-schijven voor terugkopen, en dan 4 schijven in RAIDZ te zetten. Je hebt dan 12 TB en kunt de uitval van 1 schijf tolereren, in de andere opstelling heb je 10 TB en is er maar 2 TB beschermd tegen uitval van één schijf.

De Fusio IO-kaart is uitstekend geschikt als cache, ik lees berichten in 2014 dat het niet supported zou zijn out of the box, maar de user guide van 9.3.1 vindt van wel, dus dat is sindsdien verbeterd :P Ik zou heb low level formatten ( https://www.thomas-krenn....rive_Low-Level_Formatting ) en dan een 6 GB SLOG maken en een 25 GB L2ARC, dan heb je de rest van de ruimte als overprovisioning zodat het lekker snel blijft.
Bedankt voor de tip over de m1015 controller. Is het niet slim om een mem cached 512MB/1G controller te nemen? Of zal de SSD cache voldoende moeten zijn?
ZFS leunt zwaar op RAM, en doet zelf al een heleboel aan caching. Writes bijvoorbeeld worden opgespaard en dan als één stream weggeschreven, waardoor het sequential wordt in plaats van random (mits je voldoende vrije ruimte hebt :) ). Je SSD komt pas kijken als je te weinig RAM hebt (L2ARC) of veel synced writes.

Om de betrouwbaarheid te kunnen waarborgen wil ZFS echter wel zo dicht mogelijk op de hardware zitten, vandaar dat je met VT-x je harddiskcontroller (en je Fusion I/O-kaart) doorgeeft aan je VM. Een controller met cache verbergt echter heel veel voor het OS; vaak is het een RAID-controller en kun je de individuele schijven niet eens aan, en zelfs als je tegen de controller zegt dat het de schijven 1-op-1 door moet geven worden er over het algemeen een aantal RAID0 of JBOD's gemaakt van ieder één schijf en zit er nog altijd een abstractielaag tussen en doet allemaal trucjes waardoor ZFS niet doorheeft dat wat het op de schijf ziet niet is wat de schijf zelf aangeeft.

Hoe dommer de controller, hoe beter; ZFS neemt alle betrouwbaarheids- en snelheidstaken (in die volgorde) over, maar moet daarbij dus niet gehinderd worden door een controller die slim denkt te doen.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

renedis schreef op maandag 09 november 2015 @ 11:01:
[...]


Ik heb de volgende SSD's tot mijn beschikking:
- 320GB Fusion IO drive PCI-E
- 250GB Samsung 850 EVO m.2 (naar SATA converter is aanwezig)
- 500GB Samsung 850 EVO m.2 (naar SATA converter is aanwezig)

Mijn idee was om de Fusion IO te gebruiken voor SSD cache gezien deze SLC chips bevat. De 500GB voor VM's als local datastore. De 256GB als "extra".
Leuke speledingetjes :p
Ik snap het nog niet helemaal, zoals ik zei, ik ben geen kenner op gebied van disks/RAID/ZFS.
Ik heb de volgende disks:
- 4TB
- 4TB
- 3TB
- 2TB

Mijn idee daar bij is:
- 3TB + 2TB mirrored. (voor mijn "belangrijke" data)
- 4TB + 4TB striped. (voor mijn downloads e.d.)
Dit is echter gebaseerd op RAID, geen idee wat ZFS kan betekenen voor mij.
Dat kan allemaal met ZFS.
Je kunt vdev's:

'mirror' (equivalent RAID1), je hebt dan checksum data van je files en als een van de disks de pijp aan Maarten geeft dan heb je een kopie van de data op de 2e disk.

'strippen' (equivalent RAID0), je hebt dan checksum data van je files maar je als een van de disks de pijp aan Maarten geeft dan is het ;w naar de data.
Edit:
Bedankt voor de tip over de m1015 controller. Is het niet slim om een mem cached 512MB/1G controller te nemen? Of zal de SSD cache voldoende moeten zijn? Excuses voor de misschien wat minder slimme vraag :P
Het is al vaker ter berde gebracht:

Nee, GEEN hardware RAID controller als je ZFS gaat gebruiken.

De logica van de RAID adapter zit ZFS enkel in de weg en steekt hem een stok in de spaken. Voor meer info, het grote ZFS topic.

Gewoon een 'domme' SATA/SAS HBA en de software zijn werk laten doen. Een M1015 of ieder andere HBA op basis van een LSI/Avago SAS2008 chip (of opvolger) doet het goed. IT firmware flashen en gaan met die banaan.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
25GB vind ik persoonlijk aan de hoge kant. Dan houd ik nog 7GB over voor mijn resterende VM's.
Misschien gewoon maar doen en later nog eens 2x 16GB bijkopen.

Ik heb zojuist een M1015 gekocht hier op Tweakers.

Ik wil jullie bedanken voor de uitleg, het heeft mij veel geholpen!


Edit:

Dit is neem ik aan het slimst om met FreeNAS te configureren? Of hebben jullie nog andere suggesties.

[ Voor 9% gewijzigd door renedis op 09-11-2015 11:54 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
renedis schreef op maandag 09 november 2015 @ 11:52:
25GB vind ik persoonlijk aan de hoge kant. Dan houd ik nog 7GB over voor mijn resterende VM's.
Die 25 GB die ik noem is je L2ARC, de partitie op je SSD die je toewijst als read-cache, niet het RAM wat je aan je FreeNAS-VM toewijst :)

Ik weet niet hoeveel VM's je wil gaan draaien, maar met 4 of 8 GB (ik zou 8 doen) kan FreeNAS al goed uit de voeten :) Er valt online genoeg te vinden hoe je moet kijken waar die 8 GB door gebruikt worden en of dat te veel of te weinig is :) Meten is weten, zo vooraf valt er natuurlijk niet heel veel over te zeggen.
Dit is neem ik aan het slimst om met FreeNAS te configureren?
Dat ligt er aan wat je wil en wat je kennisniveau is. Uit het feit dat je dat hier vraagt zou ik zeggen: ja :P Ik gebruik het zelf ook, ik gebruik zelfs de jails die FreeNAS biedt, ondanks dat ik ESXi heb draaien. In FreeNAS aanvinken dat je Plex of OwnCloud wilt gebruiken is een stuk simpeler dan het zelf optuigen in een nieuwe VM :+

[ Voor 40% gewijzigd door Paul op 09-11-2015 12:18 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • ZaZ
  • Registratie: Oktober 2002
  • Laatst online: 27-09 00:06

ZaZ

Tweakers abonnee

Ik ben nu mijn computer in elkaar aan het zetten. Ik heb een Xeon e5 1650 in een Supermicro 813 zitten en zie nu pas dat er geen stock cooler bij de processor zit. Maar het valt me ook meteen op dat die waarschijnlijk niet eens gaat passen omdat de behuizing heel plat is.
Weet iemand wat voor koeling de Xeon nodig heeft? Kan ik daar een passieve koeler opzetten?

Lekker op de bank


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

renedis schreef op maandag 09 november 2015 @ 11:52:
[...]


[...]

25GB vind ik persoonlijk aan de hoge kant. Dan houd ik nog 7GB over voor mijn resterende VM's.
Misschien gewoon maar doen en later nog eens 2x 16GB bijkopen.

Ik heb zojuist een M1015 gekocht hier op Tweakers.

Ik wil jullie bedanken voor de uitleg, het heeft mij veel geholpen!

Edit:

Dit is neem ik aan het slimst om met FreeNAS te configureren? Of hebben jullie nog andere suggesties.
Ik gok dat je een leesfout begaat, de 25 GB die Paul aanhaalt is mbt je Fusion-IO drive en niet mbt je RAM.
ZaZ schreef op maandag 09 november 2015 @ 12:22:
Ik ben nu mijn computer in elkaar aan het zetten. Ik heb een Xeon e5 1650 in een Supermicro 813 zitten en zie nu pas dat er geen stock cooler bij de processor zit. Maar het valt me ook meteen op dat die waarschijnlijk niet eens gaat passen omdat de behuizing heel plat is.
Weet iemand wat voor koeling de Xeon nodig heeft? Kan ik daar een passieve koeler opzetten?
SuperMicro heeft een compat. matrix mbt cpu coolers. Passieve koeling in 1U kun je met zo'n Xeon (140W TDP vlgs de spec sheet) wel vergeten, doorgaans is een 1U CPU cooler afhankelijk van de luchtaanvoer die de kast zelf genereert (je hebt ook wel actief gekoelde 1U CPU coolers), dat is dan ook de reden dat die 1U 'pizza' dozen zoveel herrie maken.

[ Voor 45% gewijzigd door Pantagruel op 09-11-2015 12:38 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
ZaZ schreef op maandag 09 november 2015 @ 12:22:
Ik ben nu mijn computer in elkaar aan het zetten. Ik heb een Xeon e5 1650 in een Supermicro 813 zitten en zie nu pas dat er geen stock cooler bij de processor zit. Maar het valt me ook meteen op dat die waarschijnlijk niet eens gaat passen omdat de behuizing heel plat is.
Weet iemand wat voor koeling de Xeon nodig heeft? Kan ik daar een passieve koeler opzetten?
Het is een 1U behuizing, daar gaat inderdaad een passieve koeler in. De airflow komt van de 4cm screamers / stofzuigers / power-to-noise-converters die in die behuizing zitten.

Je kunt op de site van Supermicro zien welke koeler(s) je nodig hebt: http://www.supermicro.nl/ResourceApps/Heatsink_Matrix.aspx

Welk moederbord heb je (Narrow of square ILM)? Ik gok even de SNK-P0047PS of de SNK-P0047P

[ Voor 12% gewijzigd door Paul op 09-11-2015 12:47 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Wederom bedankt voor de informatie. Ik heb het inderdaad verkeerd begrepen.
Vanavond de M1015 ophalen, Vervolgens zal het geklooi gaan beginnen :+

Ik zal laten weten of het is gelukt :)

Heb ook het ZFS topic (start post) doorgelezen. Dat had ik veel eerder moeten doen :+

[ Voor 9% gewijzigd door renedis op 09-11-2015 12:54 ]


Acties:
  • 0 Henk 'm!

  • ZaZ
  • Registratie: Oktober 2002
  • Laatst online: 27-09 00:06

ZaZ

Tweakers abonnee

Bedankt!

edit:


Overigens een narrow ILM (X10SRL-F)

[ Voor 10% gewijzigd door ZaZ op 09-11-2015 13:09 ]

Lekker op de bank


Acties:
  • 0 Henk 'm!

  • Cybot12999
  • Registratie: November 2007
  • Laatst online: 17:28
Beste Tweakers,

Ben een ESXI build aan het samenstellen waarop de volgende servers komen te draaien:
- Xpenology
- Mailserver (Ubuntu 14.04)
- OwnCloud (Ubuntu 14.04)
- Plex mediaserver (mogelijk later)

Geen VT-d nodig.

Heb hiervoor de volgende build samengesteld, hoop tussen 10-15W idle uit te komen:

#ProductPrijsSubtotaal
1Intel Pentium G3250 (SR1K7) Boxed€ 53,49€ 53,49
1ASRock H81TM-ITX R2.0€ 74,90€ 74,90
1WD Red SATA 6 Gb/s WD30EFRX, 3TB€ 0€ 0
1Cooler Master Elite 110€ 36,95€ 36,95
1Cooler Master NA 90€ 27,95€ 27,95
1Kingston ValueRAM KVR16LS11/8€ 39,93€ 39,93
Bekijk collectie
Importeer producten
Totaal€ 234,17

Qua adapter, NA 65 of NA 90?! Max TDP processor is 53W, + 5W schijf + 5W mobo = < 65W?

Ben benieuwd wat jullie van de build vinden. :)

Acties:
  • 0 Henk 'm!

  • Bobbeh
  • Registratie: Januari 2009
  • Laatst online: 07-07 11:54
Ik heb voor (heel) weinig geld een HP ProDesk 600 G1 SFF opgepikt. Dit leek mij een mooie aangelegenheid om een ESXi avontuur aan te gaan.

Wat ik wil gaan draaien:
  • ZFSGuru
  • Windows Server 2012
  • Webserver
  • Kali (met de nodige vulnerable vm's)
  • Aantal testlabs
#ProductPrijsSubtotaal
1WD Blue SATA 3 Gb/s, 500GB€ 0,-€ 0,-
1WD Blue WD5000AAKX, 500GB€ 45,25€ 45,25
1Intel Gigabit CT Desktop Adapter€ 27,-€ 27,-
1Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU€ 76,95€ 76,95
1Conceptronic PCI Express Card SATA 600€ 25,20€ 25,20
1Kingston SSDNow V300 120GB€ 45,95€ 45,95
1HP ProDesk 600 G1 SFF (H5U24EA#ABH)€ 787,82€ 787,82
Bekijk collectie
Importeer producten
Totaal€ 1.008,17

De WD Blue's had ik nog liggen en op de RAM na heb ik alles in huis.

De SSD functioneert als datastorage voor de vm's.

Via passthrough van de Conceptronic kaart heeft ZFSGuru de twee WD Blue's tot zijn beschikking, die in een RAID0 pool staan. Er komt geen belangrijke data op te staan en ben op dit moment meer opzoek naar performance. Is dit een juiste oplossing of kan ik binnenkort problemen verwachten, read/write is prima.
code:
1
2
3
4
5
6
ZFSguru 0.3.1 (10.3.004) pool benchmark
Pool            : Blue (928G, 1% full)
Test size       : 32 GiB
normal read : 178 MB/s
normal write    : 150 MB/s
I/O bandwidth   : 32 GB/s


De onboard NIC word ondersteund door ESXi, ook heb ik er een Intel CT Desktop bij geprikt. Hoe kan ik het beste mijn NIC's verdelen? Teaming met loadbalance, de vm's onderverdelen, of????

Het is nog niet gelukt om mijn iGPU (HD4600) door te geven aan een vm, zou dit wel moeten kunnen of zijn hier nog andere handelingen voor vereist?

Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Cybot12999 schreef op maandag 09 november 2015 @ 18:31:
Beste Tweakers,

Ben een ESXI build aan het samenstellen waarop de volgende servers komen te draaien:
- Xpenology
- Mailserver (Ubuntu 14.04)
- OwnCloud (Ubuntu 14.04)
- Plex mediaserver (mogelijk later)

Geen VT-d nodig.

Heb hiervoor de volgende build samengesteld, hoop tussen 10-15W idle uit te komen:

#ProductPrijsSubtotaal
1Intel Pentium G3250 (SR1K7) Boxed€ 53,49€ 53,49
1ASRock H81TM-ITX R2.0€ 74,90€ 74,90
1WD Red SATA 6 Gb/s WD30EFRX, 3TB€ 0€ 0
1Cooler Master Elite 110€ 36,95€ 36,95
1Cooler Master NA 90€ 27,95€ 27,95
1Kingston ValueRAM KVR16LS11/8€ 39,93€ 39,93
Bekijk collectie
Importeer producten
Totaal€ 234,17

Qua adapter, NA 65 of NA 90?! Max TDP processor is 53W, + 5W schijf + 5W mobo = < 65W?

Ben benieuwd wat jullie van de build vinden. :)
Neem de NA90 adapter, niet de NA65 adapter. een schijf verbruikt trouwens 10W, geen 5W. Met de NA90 heb je ook nog wat ruimte voor de toekomst.

Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Gaat helaas nog niet van een leien dakje:

Afbeeldingslocatie: http://i66.tinypic.com/5c0d1t.png

Kan geen mirror selecteren :S

Acties:
  • +1 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
The ZFS Volume Manager is designed to prevent users from inadvertantly creating non-optimal pools. Users who are determined to do so can still use the command line to create their pool.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Proc
  • Registratie: December 2002
  • Laatst online: 10:33

Proc

Grand Admiral

Glival schreef op vrijdag 11 januari 2013 @ 14:58:

Moederbord: goedkoop, 6x SATA, en volgens dit topic heeft 'ie ondersteuning voor VT-d, al is dat het enige wat ik er over kan vinden; heeft iemand er ervaring mee?
Ik kan bevestigen dat de P8H77-I inderdaad VT-d ondersteunt i.c.m. een processor die dit ondersteunt zoals bijv. een i5.

Weet iemand of een P8H77-I USB3.0 ondersteunt onder ESXi6 i.cm. een XHCI capable OS (in mijn geval Windows Server 2012 R2 Datacenter) ? En zo ja, wat moet de setting in het BIOS dan precies zijn?

(en ja, ik weet dat ik reageer op een oud topic)

[ Voor 8% gewijzigd door Proc op 10-11-2015 22:17 ]


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Cybot12999 schreef op maandag 09 november 2015 @ 18:31:
Beste Tweakers,

Ben een ESXI build aan het samenstellen waarop de volgende servers komen te draaien:
- Xpenology

Geen VT-d nodig.

Ben benieuwd wat jullie van de build vinden. :)
Waarom niet enkel Xpenology, dat ding heeft toch packages genoeg. Dan kan je ESX laten voor wat het is.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Na het installeren van 8.3.1 en veel gekloot ben ik er achter gekomen dat het wel mogelijk is om een mirror aan te maken met 9.3.x

Je moet simpelweg bij de volume manager rechts onderin op "handmatig instellen" klikken. 8)7

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Puur uit nieuwsgierigheid, Hoe hebben jullie je datastores genoemd?

Mijn logica is om de snelheid van een store te koppelen aan een metaal:

datastores

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Vanalles :+ ik had vrij lang gewoon, NFS of Storage_01 ofzo. Niet echt nuttige namen :)

Even niets...


  • Silver7
  • Registratie: Januari 2002
  • Laatst online: 23-09 16:56
Ik wil overstappen van grote bakbeest:
- Cooler Master CM Stacker Zilver
- Tyan S2927 (N3600B),
- 2x CPU Opteron 2212
- 2x Zalman-ventilators met die groene ledjes
- Alle geheugenslots gevuld tot 6Gb.
- SilverStone ST60F

Overigens, het kan goed draaien op ESXI 5.5 en ESXI 6.0

Naar:
compacte machine met minimaal 2 netwerkpoorten die naast NAS kan staan.

Het gaat bij mij alleen erom dat ik talloze VM's kan draaien om wat te leren/spelen
Natuurlijk mag het zuinig/stil zijn, maar mijn doelstelling is niet om superzuinig te zijn wel stil.

Dus mijn idee gaat uit naar:

#ProductPrijsSubtotaal
1Intel Core i5-6500 Boxed€ 212,95€ 212,95
1Gigabyte GA-Z170N-WIFI€ 134,95€ 134,95
1Kingston DataTraveler Micro USB 2.0 8GB Zwart€ 3,58€ 3,58
1Kingston HyperX Fury HX426C15FBK2/16€ 99,90€ 99,90
1Seasonic Platinum Series 400 Watt Fanless€ 117,95€ 117,95
Bekijk collectie
Importeer producten
Totaal€ 574,42

Moederbord met Z170 is gekozen, zodat de geheugen op volle snelheid (2667Mhz) kan draaien
Processorkoeling zit al erbij.

Ik heb (nog) geen behuizing genoemd, omdat het een persoonlijke smaak is en ik nog afmetingen moet doen zodat ie naast de NAS kan staan.

Alleen processor, ik heb voor i5 ipv i3 gekozen omdat de prijzen niet veel verschillen.
Of heb ik het verkeerd?

[ Voor 6% gewijzigd door Silver7 op 16-11-2015 09:28 ]


Acties:
  • 0 Henk 'm!

  • sharkzor
  • Registratie: Maart 2000
  • Laatst online: 26-09 20:44
ik zie dat die ibm raid controller die vaak wordt genoemd hier niet meer leverbaar is
pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x

Is er nog een alternatief voor niet teveel geld?
2 poorten raid-1 is alles wat nodig is.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

sharkzor schreef op vrijdag 13 november 2015 @ 11:12:
ik zie dat die ibm raid controller die vaak wordt genoemd hier niet meer leverbaar is
pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x

Is er nog een alternatief voor niet teveel geld?
2 poorten raid-1 is alles wat nodig is.
IBM M1115, Dell Perc H200/H310, even ebay doorzoeken is t devies

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Wil je er ZFS mee draaien? Of juist onder ESXi RAID1?

Even niets...


Acties:
  • 0 Henk 'm!

  • sharkzor
  • Registratie: Maart 2000
  • Laatst online: 26-09 20:44
FireDrunk schreef op vrijdag 13 november 2015 @ 14:22:
Wil je er ZFS mee draaien? Of juist onder ESXi RAID1?
niks fancy,

gewoon een raid1 voor esxi :)
liefst wel een shop ergens in NL.
via de price watch vind ik niet direct iets (of hele dure).

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Tja, NL is duur...

http://www.ebay.nl/itm/HP...536062:g:970AAOSwajVURiEu

Dit is een van de goedkoopste opties gok ik. Of je moet op V&A kijken.

Even niets...


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Gister erachter gekomen dat een UPS geen overbodige luxe is voor ESXi. De stop sloeg door, (water los in de magnetron is niet handig :+ ). Mijn storage machine hangt aan de UPS maar mijn ESXi cluster (nog) niet.

Na de stop terug aangezet te hebben, blijkt dat 1 van de ESXi installaties stuk is. Iets met esx_ui.v00 corrupted...

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op vrijdag 20 november 2015 @ 16:54:
Gister erachter gekomen dat een UPS geen overbodige luxe is voor ESXi. De stop sloeg door, (water los in de magnetron is niet handig :+ ). Mijn storage machine hangt aan de UPS maar mijn ESXi cluster (nog) niet.

Na de stop terug aangezet te hebben, blijkt dat 1 van de ESXi installaties stuk is. Iets met esx_ui.v00 corrupted...
Dang, that sux. Wellicht help dit blogje.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • mhofstra
  • Registratie: September 2002
  • Laatst online: 17:00
sharkzor schreef op vrijdag 13 november 2015 @ 14:32:
[...]


niks fancy,

gewoon een raid1 voor esxi :)
liefst wel een shop ergens in NL.
via de price watch vind ik niet direct iets (of hele dure).
http://www.serverhome.nl/...l/dell-perc-h200-use.html

Acties:
  • 0 Henk 'm!

  • Tijsje
  • Registratie: Februari 2001
  • Laatst online: 07:00
Ik zit er aan te denken om een http://tweakers.net/price.../intel-nuc-nuc5i3ryh.html of een http://tweakers.net/price...-nuc5i5ryh/specificaties/ aan te schaffen om hier Proxmox op te gaan draaien.

Is het hiermee mogelijk om de HDMI en frontusbs direct te gebruiken binnen 1 van de vm's?
Ik wil het systeem in de woonkamer plaatsen met een schermpje en usb toetsenbord zodat mijn vrouw en de kids hier mooi wat op kunnen werken.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Nee, ik verwacht van niet. Hoewel ik het zelf nog nooit geprobeerd heb, is het doorgeven van een Interne GPU niet mogelijk voor zover ik weet.

Zelfs niet als je VT-d hebt en een i5. De Interne GPU is gewoon te nauw verweven in het BIOS om door VT-d doorgegeven te kunnen worden.

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Het rare is dat het volgens Intel allemaal moet werken, maar ik heb nog niemand met Xen of ESX het aan de praat zien krijgen, misschien met KVM? Google maar eens op Intel GVT.

[ Voor 6% gewijzigd door |sWORDs| op 27-11-2015 14:41 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Hey, dat is grappig. Die term kende ik nog niet :+
Even in de gaten houden dus :)

Even niets...


Acties:
  • 0 Henk 'm!

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 13:51
Klinkt inderdaad interessant. Een snelle google en kom uit op onderstaande link, klinkt het in ieder geval alsof KVM er mee om moet kunnen gaan.
KVM en Intel GVT

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Ik zal intern eens rondvragen of wij ook met GVT bezig zijn. Niet dat ik dan het antwoord hier kan geven, maar misschien triggered het een nieuwe functie.

[ Voor 43% gewijzigd door |sWORDs| op 27-11-2015 16:00 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Als ik zo lees, wil het niet zeggen dat je ook daadwerkelijk de HDMI aansluiting doorgeeft, alleen dat alle VM's toegang hebben tot hardwareversnelling via de interne GPU.

Hoewel uiteraard gaaf, is dat natuurlijk niet hetzelfde ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Het ligt aan de modus:
GVT-d/vDGA - 1:1 (passthrough), wel HDMI.
GVT-s/vSGA - 1:n (api forwarding), geen HDMI.
GVT-g/vGPU - 1:n (virtualisatie), geen HDMI.

Soft3D is een software GPU (emulatie op de CPU).
vDGA is gewoon passthrough (VT-d/IOMMU) van de kaart naar de VM, alles wat op de kaart zit is beschikbaar voor de VM (ook HDMI), de standaard vendor driver installeer je alleen in de VM.
vSGA is een software GPU (installeer je in de VM) die API calls doorstuurt naar de kaart die een driver in de hypervisor heeft.
vGPU is een vendor software driver in de VM en hypervisor die samen werken. Het verdelen van de GPU resources gebeurd in de hypervisor driver en de VM driver kan daar direct mee communiceren.

[ Voor 69% gewijzigd door |sWORDs| op 28-11-2015 16:42 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Oh wow, ze hebben er dus echt goed over nagedacht. Dat maakt een virtuele HTPC weer wat makkelijker.

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Ze hebben goed gekeken naar wat VMware/Xen reeds met nVidia hebben. :)
Ik heb in mijn thuislab een Grid K2, wat qua cooling prima gaat met een fan duct, daarmee zijn al die modi al ruime tijd mogelijk.
Afbeeldingslocatie: http://s1.postimg.org/6fbbz8v67/image.jpg

[ Voor 75% gewijzigd door |sWORDs| op 28-11-2015 16:54 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Whut, dat hdmi doorgeven kan toch helemaal niet met nVidia? Of lig ik echt achter :+

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Je hoeft niets door te geven (behalve natuurlijk de kaart zelf), als jij een kaart hebt die werkt met vDGA (Veel ATI kaarten, Quadro, of Geforce gemod naar Quadro) en HDMI heeft dan werkt dat gewoon. Volgens mij zijn er best wat die een hackintosh op ESXi draaien en vDGA/USB passthrough gebruiken voor video, toetsenbord en muis.

YouTube: Esxi 5.5 mavericks gpu passthrough + win 7 + synergy

Vergelijk het met het doorgeven van een USB controller (ipv USB device). Je hoeft dan ook niet alle devices door te geven, met VT-d is dat ook zo, op PCIe niveau wordt de gehele GPU doorgegeven, dus ook de outputs.

[ Voor 110% gewijzigd door |sWORDs| op 28-11-2015 17:05 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Ik heb het wel eens geprobeerd, maar vaak crasht de gpu omdat hij niet zomaar door ESXi losgelaten werd. Misschien is dat met KVM beter. Zeker een zondagmiddag waard om eens naar te kijken.

Even niets...


Acties:
  • 0 Henk 'm!

  • Tijsje
  • Registratie: Februari 2001
  • Laatst online: 07:00
FireDrunk schreef op zaterdag 28 november 2015 @ 16:48:
Whut, dat hdmi doorgeven kan toch helemaal niet met nVidia? Of lig ik echt achter :+
Als er iemand resultaat boekt met de onboard poorten dan roep maar even. Ik blijf het hier wat volgen.

Acties:
  • 0 Henk 'm!

  • goudviske.be
  • Registratie: April 2010
  • Laatst online: 31-08 09:26
Wat denken jullie van dit als ESXi server?
Bedoeling is vooral om wat pfsense te draaien (huidige watchguard vervangen), verder denk ik aan download machine en wat webserver test omgeving. Een 3-4 VM's.
NAS moet het niet worden, dat zit al in een andere machine, omdat ik er geen opslag op ga doen vond ik ECC ook niet meteen noodzakelijk.

#ProductPrijsSubtotaal
1Supermicro A1SRM-2758F (Retail Pack)€ 393,79€ 393,79
1BitFenix Neos Wit/Rood€ 35,01€ 35,01
1Kingston KVR16N11K2/16€ 78,-€ 78,-
1Seasonic G-series 360 watt€ 57,95€ 57,95
Bekijk collectie
Importeer producten
Totaal€ 564,75


Komt een 120GB SSD in, en ik dacht nog een 500GB HD toe te voegen om te downloaden, die 2 heb ik nog spare in de kast.

Supermicro bord vooral gekozen voor de 4x Intel NIC en CPU met QuickAssist en AES-NI (voor het firewall / vpn gedeelte).

Eerst gedacht aan een 4 core variant met ITX bord, maar dan moest ik ECC geheugen gaan gebruiken, wat dan weer een stuk duurder was in sodimms. Deze 8core micro ATC komt een 40 EUR duurder uit, maar dan wel 8 core ipv 4 core.

Ander bord was: Supermicro A1SRi-2558F. Voordeel van ITX is natuurlijk de afmetingen, moet ik er geen grote kast naast gaan zetten.

Over stroomverbruik van die borden vind ik niet echt veel info, de 8 core zal natuurlijk wat meer gebruiken onder load, maar idle denk ik niet dat het veel verschil maakt. Iemand een idee of een micro ATX meer stroom nodig heeft dan mini ITX ?

Wat denken jullie? De zuinigere 4core (met ECC in ITX) of de krachtigere 8 core.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Ik ben eerlijk gezegd sowieso geen fan van Atom's icm ESXi :)
Maar het hangt er natuurlijk vanaf wat die 4 VM's gaan doen of je er iets van merkt...
Als het 4 number crunching SETI VM's worden, of 4 kale installaties van Fedora 23 zonder 1 applicatie, maakt nogal verschil.

Even niets...


Acties:
  • 0 Henk 'm!

  • goudviske.be
  • Registratie: April 2010
  • Laatst online: 31-08 09:26
FireDrunk schreef op donderdag 03 december 2015 @ 08:35:
Ik ben eerlijk gezegd sowieso geen fan van Atom's icm ESXi :)
Maar het hangt er natuurlijk vanaf wat die 4 VM's gaan doen of je er iets van merkt...
Als het 4 number crunching SETI VM's worden, of 4 kale installaties van Fedora 23 zonder 1 applicatie, maakt nogal verschil.
Ik denk niet dat die erg veel gaan te doen hebben 80% van de tijd...
Atom gekozen omwille van low power. Zelf slechte ervaringen mee?

Acties:
  • 0 Henk 'm!

  • VorCha
  • Registratie: November 2004
  • Laatst online: 11-06 21:15
goudviske.be schreef op donderdag 03 december 2015 @ 00:07:
Supermicro bord vooral gekozen voor de 4x Intel NIC en CPU met QuickAssist en AES-NI (voor het firewall / vpn gedeelte).
Waarom zoveel NIC's?

Acties:
  • 0 Henk 'm!

  • goudviske.be
  • Registratie: April 2010
  • Laatst online: 31-08 09:26
4 is nu niet zooo veel he ;)
1x WAN + eventueel 1 failover WAN
1x LAN
1x DMZ misschien

2 leek me vrij beperkend iig :-)

Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 15:05

Kek

3flix

Mobo's worden zo snel duur door de extra NICs, kan je beter een extra pci kaart met 2 of 4 NICs er in doen, stukken goedkoper

Acties:
  • 0 Henk 'm!

  • goudviske.be
  • Registratie: April 2010
  • Laatst online: 31-08 09:26
Kek schreef op donderdag 03 december 2015 @ 10:33:
Mobo's worden zo snel duur door de extra NICs, kan je beter een extra pci kaart met 2 of 4 NICs er in doen, stukken goedkoper
Misschien wel,
Maar probleem is ook dat vele borden geen intel nic's hebben, maar een realtek/atheros chipset, welke vaak niet (goed) werkt in ESX.

Er bestaan wrss wel bordjes met 1x of 2x intel NIC, en daar dan een i3 of dergelijke op.

Zou een configuratie met i3 zuiniger zijn dan zo'n Atom uit Rangely reeks? Die 8 core zit rond de 20W TDP, de 4 core rond de 15W

Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 15:05

Kek

3flix

als je bijvoorbeeld 100 euro bespaard door een ander bordje te kiezen, kan je die 100 euro weer uitgeven aan iets minder zuinigheid qua watt... :)

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Het probleem met Atoms is alles wat single threaded is. Zo'n Atom is single threaded 3 tot 4x langzamer.
Multithreaded zijn 8 Atom cores redelijk gelijk aan een Dual Core Pentium (zoals G3470, maar die hebben natuurlijk geen AES-ni), tenzij je een high frequency i3 neemt zoals de 6320, die is ook multithreaded 65% sneller.
Als je een managed switch voor je ESXi machine hebt kun je natuurlijk ook gewoon trunken, dan zou je ook voor een i5 NUC kunnen gaan, zelfs de "oude" NUC (de nieuwe kan elk moment leverbaar worden) is 3x sneller single threaded en gelijk multithreaded, neem de versie met 2.5" "bay" en je kunt er ook nog extra storage in kwijt naast de mSATA(M2 bij nieuwere types).

Bij de nieuwste gaan er zelf 4 lanes naar het M2 slot, Samsung NVMe M2 er in en gaan met die banaan.

[ Voor 102% gewijzigd door |sWORDs| op 03-12-2015 15:07 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Dat is wel de VSAN droom :+
4 NUC's met een Samsung 951 NVME SSD en wat sata storage :+

Even niets...


Acties:
  • 0 Henk 'm!

  • goudviske.be
  • Registratie: April 2010
  • Laatst online: 31-08 09:26
|sWORDs| schreef op donderdag 03 december 2015 @ 13:58:
Het probleem met Atoms is alles wat single threaded is. Zo'n Atom is single threaded 3 tot 4x langzamer.
Multithreaded zijn 8 Atom cores redelijk gelijk aan een Dual Core Pentium (zoals G3470, maar die hebben natuurlijk geen AES-ni), tenzij je een high frequency i3 neemt zoals de 6320, die is ook multithreaded 65% sneller.
Als je een managed switch voor je ESXi machine hebt kun je natuurlijk ook gewoon trunken, dan zou je ook voor een i5 NUC kunnen gaan, zelfs de "oude" NUC (de nieuwe kan elk moment leverbaar worden) is 3x sneller single threaded en gelijk multithreaded, neem de versie met 2.5" "bay" en je kunt er ook nog extra storage in kwijt naast de mSATA(M2 bij nieuwere types).

Bij de nieuwste gaan er zelf 4 lanes naar het M2 slot, Samsung NVMe M2 er in en gaan met die banaan.
Bedankt voor de info, zeker nuttig.
Een NUC met managed switch, daar had ik nog niet aan gedacht, dat zou inderdaad moeten kunnen. Alleen heb momenteel geen managed switches in huis. Buiten een oude cisco 3750, maar die is alles behalve energie vriendelijk en stil :-)

Toch iets om eens naar te kijken.
Je zou dan gaan voor een Intel NUC met i5 (de NUC6i5SYH) en iets zoals een TP-LINK TL-SG108E ?

[EDIT] lijstje toegevoegd:

Zoiets dus:

#ProductPrijsSubtotaal
1TP-Link TL-SG108E€ 32,67€ 32,67
1Intel NUC NUC6i5SYH€ 449,95€ 449,95
2Kingston ValueRAM KVR21S15D8/8€ 46,06€ 92,12
1Samsung 850 EVO M.2 250GB€ 100,95€ 100,95
Bekijk collectie
Importeer producten
Totaal€ 675,69


[EDIT] Misschien kan ik met 1 device samen firewall + htpc doen, en de "oude" HTPC (met AMD Athlon II X2 240E) uit dienst nemen.

[ Voor 42% gewijzigd door goudviske.be op 04-12-2015 09:52 ]


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Als je een router hebt die kan trunken dan hoef je niet eens een switch (de meeste routers hebben een ingebouwde managed switch) te kopen, zolang de NUC direct aan de router hangt. En ik dacht meer aan:
http://tweakers.net/price...g-sm951-(nvme)-256gb.html
Of:
http://tweakers.net/price...amsung-950-pro-256gb.html
Een 850 is natuurlijk ruim voldoende, maar met NVMe moet het echt vliegen.

[ Voor 12% gewijzigd door |sWORDs| op 04-12-2015 10:12 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • goudviske.be
  • Registratie: April 2010
  • Laatst online: 31-08 09:26
|sWORDs| schreef op vrijdag 04 december 2015 @ 09:54:
Als je een router hebt die kan trunken dan hoef je niet eens een switch (de meeste routers hebben een ingebouwde managed switch) te kopen, zolang de NUC direct aan de router hangt. En ik dacht meer aan deze NVMe drive. Een 850 is natuurlijk ruim voldoende, maar met NVMe moet het echt vliegen.
Ja dat ziet er wel nog wat sneller uit :-)
Toch de 50 eur extra waard...


Ik heb hier op het werk nog een Intel NUC5I3RHY liggen, ik zal in de loop van de volgende week eens kijken als er wat tijd is om die Intel GVT aan de praat te krijgen.

[ Voor 13% gewijzigd door goudviske.be op 04-12-2015 13:07 ]


Acties:
  • 0 Henk 'm!

  • Madhouse1979
  • Registratie: Februari 2008
  • Laatst online: 26-09 19:45
Ik ben me aan het orienteren voor een nieuwe server en ben op het volgend uitgekomen:

#ProductPrijsSubtotaal
1Intel Core i5-4690K Tray€ 249,65€ 249,65
1Shuttle SZ87R6€ 285,50€ 285,50
1Crucial Ballistix Sport BLS4C8G3D1609ES2LX0BEU€ 169,95€ 169,95
Bekijk collectie
Importeer producten
Totaal€ 705,10


Nu heb ik een paar vragen waar ik niet echt antwoord op kan vinden en ben daarnaast benieuwd of er hier mensen zijn met ervaringen met deze componenten?

Schijven heb ik niet nodig, ik heb genoeg SSD's en backups gaan naar mijn NAS.

Ik wil er graag nog een Intel NIC bij hebben, welke zou verstandig zijn? Ik meen dat de Intel Pro 1000 CT goed gaat met ESX? De realtek zou prima als 2e NIC kunnen functioneren en volgens mij achteraf beter te installeren dan de drivers in de iso te pompen.

Hoe zou het zijn qua energie met deze combi?

www.simraceblog.nl - Over 5 Years of Simracing News & Reviews!


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Waarom een Shuttle? Ik zou het een beetje snappen als je schijven/videokaart en een full size BD/DVD speler nodig zou hebben, maar nu is het een raadsel. En waarom een 4th gen K CPU en Z board?
Ik zou eerder voor een i5-6600, iets als de X11SSV-Q en een fraai ITX kastje gaan. Kun je hem ook nog via AMT managen en is er een optie om later nog eens een NVMe M2 toe te voegen.

[ Voor 43% gewijzigd door |sWORDs| op 04-12-2015 17:27 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Madhouse1979
  • Registratie: Februari 2008
  • Laatst online: 26-09 19:45
Geen bewuste keuze hoor voor een Shuttle, ik zat meer uit het oogpunt vanuit mijn budget te kijken. Het budget ligt rond de 700 (max 800) en daar wil iets moois/zuinigs (en het liefst ook stil) voor kopen. De eissen die ik daarnaast heb zijn 32GB geheugen en 2 fysieke NIC's.

Qua hardware vind ik het lastig om een juiste keuze te maken en na wat zoeken kwam ik hier op uit. Suggesties en adviezen voor iets moois binnen dit budget zijn meer dan welkom.

www.simraceblog.nl - Over 5 Years of Simracing News & Reviews!


Acties:
  • 0 Henk 'm!

  • iamzero456
  • Registratie: Juni 2009
  • Laatst online: 19:18
Madhouse1979 schreef op vrijdag 04 december 2015 @ 15:57:
Ik ben me aan het orienteren voor een nieuwe server en ben op het volgend uitgekomen:

#ProductPrijsSubtotaal
1Intel Core i5-4690K Tray€ 249,65€ 249,65
1Shuttle SZ87R6€ 285,50€ 285,50
1Crucial Ballistix Sport BLS4C8G3D1609ES2LX0BEU€ 169,95€ 169,95
Bekijk collectie
Importeer producten
Totaal€ 705,10


Nu heb ik een paar vragen waar ik niet echt antwoord op kan vinden en ben daarnaast benieuwd of er hier mensen zijn met ervaringen met deze componenten?

Schijven heb ik niet nodig, ik heb genoeg SSD's en backups gaan naar mijn NAS.

Ik wil er graag nog een Intel NIC bij hebben, welke zou verstandig zijn? Ik meen dat de Intel Pro 1000 CT goed gaat met ESX? De realtek zou prima als 2e NIC kunnen functioneren en volgens mij achteraf beter te installeren dan de drivers in de iso te pompen.

Hoe zou het zijn qua energie met deze combi?
Volgens mij support geen enkele K versie van een processor de VT-D (Hardware Passtrough) functie in Esxi, correct me if Í'm wrong :)

Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 15:05

Kek

3flix

iamzero456 schreef op vrijdag 04 december 2015 @ 20:04:
[...]


Volgens mij support geen enkele K versie van een processor de VT-D (Hardware Passtrough) functie in Esxi, correct me if Í'm wrong :)
klopt, ik heb vooralsnog geen K versie van een cpu met VT-d gezien

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Kek schreef op vrijdag 04 december 2015 @ 20:26:
[...]


klopt, ik heb vooralsnog geen K versie van een cpu met VT-d gezien
http://ark.intel.com/prod...r-8M-Cache-up-to-4_20-GHz
http://ark.intel.com/prod...r-6M-Cache-up-to-3_90-GHz
Zelfs de Skylake Pentiums hebben nu VT-d:
http://ark.intel.com/prod...-G4400T-3M-Cache-2_90-GHz

[ Voor 14% gewijzigd door |sWORDs| op 04-12-2015 20:51 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 15:05

Kek

3flix

oh nice dat is nieuw in skylake dan, heb een tijd terug daar naar gekeken en toen was dat er nog niet..

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Devil's Canyon ook al zie ik nu:
http://ark.intel.com/prod...r-8M-Cache-up-to-4_40-GHz
http://ark.intel.com/prod...r-6M-Cache-up-to-3_90-GHz

[ Voor 27% gewijzigd door |sWORDs| op 04-12-2015 21:04 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Madhouse1979
  • Registratie: Februari 2008
  • Laatst online: 26-09 19:45
Qua processor had ik daar wel naar gekeken en voor die 10 euro meer vind ik een K versie gevoelsmatig wat beter :D

Maar hebben jullie bijpassende suggesties voor een leuk moederbord, kast en 32GB geheugen en evt. 2 goed NIC's?

www.simraceblog.nl - Over 5 Years of Simracing News & Reviews!


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Madhouse1979 schreef op vrijdag 04 december 2015 @ 21:05:
Qua processor had ik daar wel naar gekeken en voor die 10 euro meer vind ik een K versie gevoelsmatig wat beter :D
De K CPU's hebben geen vPRO en dus geen AMT, wat wel handig is voor remote installatie/upgrade zonder scherm, toetsenbord en muis.
Madhouse1979 schreef op vrijdag 04 december 2015 @ 21:05:
Maar hebben jullie bijpassende suggesties voor een leuk moederbord, kast en 32GB geheugen en evt. 2 goed NIC's?
Geef eens aan wat je precies wil doen, welk os en waar het aan moet voldoen (ook beeld, afmetingen, etc).

[ Voor 31% gewijzigd door |sWORDs| op 04-12-2015 21:20 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Willem_H
  • Registratie: Juli 2012
  • Laatst online: 22-09 20:25
voor de geintresseerde heb ik nog 2x Gigabit Quad nics in de aanbieding

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Willem_H schreef op vrijdag 04 december 2015 @ 21:18:
voor de geintresseerde heb ik nog 2x Gigabit Quad nics in de aanbieding
Welke? i350-t4?

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Madhouse1979
  • Registratie: Februari 2008
  • Laatst online: 26-09 19:45
|sWORDs| schreef op vrijdag 04 december 2015 @ 21:10:
[...]

De K CPU's hebben geen vPRO en dus geen AMT, wat wel handig is voor remote installatie/upgrade zonder scherm, toetsenbord en muis.

[...]

Geef eens aan wat je precies wil doen, welk os en waar het aan moet voldoen (ook beeld, afmetingen, etc).
Dus beter een 4690 zonde K dus.

Ik draai een homelab en een eigen omgeving waarin Exchange en SCCM de zwaarste zijn. De enige beperking die ik nu heb zijn het geheugen (16GB) in de NUC. Ik draai dus enkel Windows Servers. Heb ook al zitten kijken naar de Skylake NUC's maar voor dat geld bouw je ook zelf iets moois in elkaar.

www.simraceblog.nl - Over 5 Years of Simracing News & Reviews!


Acties:
  • 0 Henk 'm!

  • stuffer
  • Registratie: Juli 2009
  • Laatst online: 02-09 15:40

stuffer

Ondertietel

Omdat ik mijn 4x WD red schijven niet in spindown krijg icm esxi 6 en physical RDM op verschillende VM's met verschillende linux distributies zit ik naar een geschikte raidcontroller te kijken.

Nu zag ik de volgende Highpoint RocketRAID 640L: http://tweakers.net/price...traid-640l/specificaties/

alleen kan hem niet in de ACL lijst van VMWare vinden.

Hebben jullie ervaringen? Ik zie hem in het topic een aantal maal voorbijkomen maar niet als bevestigd dat het werkt?

#ProductPrijsSubtotaal
1Intel Core i5 4460 Boxed€ 186,90€ 186,90
1ASRock Z87E-ITX€ 0,-€ 0,-

Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Als je hem via VT-d gaat doorgeven is de HCL van vmware helemaal niet meer van toepassing. Je gaat immers het device in de VM gebruiken, niet in het Host OS.

Even niets...


Acties:
  • 0 Henk 'm!

  • stuffer
  • Registratie: Juli 2009
  • Laatst online: 02-09 15:40

stuffer

Ondertietel

OK, dat wist ik niet.

Alleen is die dan wel in VT-d beschikbaar om door te geven? Of maakt het niet uit welke hardware je koppelt zolang je maar VT-d support hebt?

Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***


Acties:
  • 0 Henk 'm!

  • Willem_H
  • Registratie: Juli 2012
  • Laatst online: 22-09 20:25

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
stuffer schreef op zondag 06 december 2015 @ 13:43:
OK, dat wist ik niet.

Alleen is die dan wel in VT-d beschikbaar om door te geven? Of maakt het niet uit welke hardware je koppelt zolang je maar VT-d support hebt?
Volgens mij klopt dat ja.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Nee, niet alleen je moederbord/BIOS en CPU moeten VT-d support hebben, maar je device ook.
Ik snap sowieso niet helemaal waarom er vaak VT-d wordt gebruikt en niet physical RDM. De meeste storage producten doen helemaal niets met de controller.

[ Voor 49% gewijzigd door |sWORDs| op 06-12-2015 20:31 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • jadjong
  • Registratie: Juli 2001
  • Niet online
stuffer schreef op zondag 06 december 2015 @ 13:43:
OK, dat wist ik niet.

Alleen is die dan wel in VT-d beschikbaar om door te geven? Of maakt het niet uit welke hardware je koppelt zolang je maar VT-d support hebt?
Als VMWare er niets van snapt staat de kaart in de lijst als 'pci device 03.01.00.11 | unknown unknown', in plaatst van 'pci devide 03.01.00.11 | Highpoint RR640L'. Ik heb hier een faxmodem uit de tijd dat VT-D nog een tiepfout was en die doet het prima, zolang de VM die er mee moet communiceren de juiste driver heeft. Enige waar je problemen bij kunt verwachten zijn samengestelde apparaten. Sommige 16-poorts controllers zijn stiekem twee 8-poorts op dezelfde printplaat met een extra chipje om de boel bij elkaar te knopen, dat wil niet altijd goed werken. Je komt dat ook tegen wanneer je enkele onderdelen van een moederbord wilt mappen. Dan krijg je bij het aanklikken van het ene apparaat de andere er gratis bij omdat ze achter dezelfde switch zitten.

Acties:
  • 0 Henk 'm!

  • stuffer
  • Registratie: Juli 2009
  • Laatst online: 02-09 15:40

stuffer

Ondertietel

|sWORDs| schreef op zondag 06 december 2015 @ 20:14:
Nee, niet alleen je moederbord/BIOS en CPU moeten VT-d support hebben, maar je device ook.
Ik snap sowieso niet helemaal waarom er vaak VT-d wordt gebruikt en niet physical RDM. De meeste storage producten doen helemaal niets met de controller.
Heb me nu wat meer ingelezen in VT-d en ben het met je eens. Waar het mij over gaat is dat ik 4x 2TB WD red schijven heb die niet in een spindown willen. Ook niet met een physical RDM naar verschillende linux-vm's.

In bv Debian zie ik met
code:
1
hdparm -y /dev/sdb


code:
1
2
3
/dev/sdb:
 issuing standby command
SG_IO: bad/missing sense data, sb[]:  70 00 00 00 00 00 00 18 00 00 00 00 00 00 00 00 00 00 09 0c 00 00 00 00 00 00 00 00 00 00 40 50


en gaan de schijven niet in spindown.

Met bv:
code:
1
smartctl -a /dev/sdb


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red
Device Model:     WDC WD20EFRX-68AX9N0
Serial Number:    WD-WCCblablabla
LU WWN Device Id: 5 0014ee blablabla
Firmware Version: 80.00A80
User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   9
ATA Standard is:  Exact ATA specification draft version not indicated
Local Time is:    Sun Dec  6 20:55:35 2015 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled


En neem ik aan dat de schijf met een RDM wel volledig uitgelezen kan worden maar niet in een spindown krijgt. :-(

Nu zit het denk ik ook in esxi omdat mijn moederbord 6 sata aansluitingen heeft welke geen van alle worden doorgegeven voor passtrough. (andere onboard apparaten wel)

Volgens deze site:https://communities.vmware.com/message/2451758#2451758 zit het hem in de INTEL Lynx Point AHCI controller die niet ondersteund wordt door esxi. Nu kan ik hem volgens die hack wel gaan proberen door te geven maar dan mis ik weer een sata aansluiting voor de datastore.

Oplossing kan zijn (volgens ook die site) om een
#ProductPrijsSubtotaal
1Delock MiniPCIe I/O PCIe full size 2 x SATA 6 Gb/s€ 19,-€ 19,-


te plaatsen daar waar de interne wifikaart zat.

Nu is mijn leercurve laatste tijd redelijk stijl op esxi maar denken jullie dat dit mogelijk is? Proberen voor die 20euro kan natuurlijk altijd maar het gaat uiteindelijk om de spindown van de 4 disken. (4x5w=snel toch 20w in idle zonder dat het nodig is)
jadjong schreef op zondag 06 december 2015 @ 21:03:
[...]

Als VMWare er niets van snapt staat de kaart in de lijst als 'pci device 03.01.00.11 | unknown unknown', in plaatst van 'pci devide 03.01.00.11 | Highpoint RR640L'. Ik heb hier een faxmodem uit de tijd dat VT-D nog een tiepfout was en die doet het prima, zolang de VM die er mee moet communiceren de juiste driver heeft. Enige waar je problemen bij kunt verwachten zijn samengestelde apparaten. Sommige 16-poorts controllers zijn stiekem twee 8-poorts op dezelfde printplaat met een extra chipje om de boel bij elkaar te knopen, dat wil niet altijd goed werken. Je komt dat ook tegen wanneer je enkele onderdelen van een moederbord wilt mappen. Dan krijg je bij het aanklikken van het ene apparaat de andere er gratis bij omdat ze achter dezelfde switch zitten.
ok dan kan die dus een goede kans hebben van slagen zonder de truc uit te halen zoals hierboven beschreven.

Verder nog een shot van openmediavault zoals die nu de disken ziet:

Afbeeldingslocatie: http://i67.tinypic.com/34hv19g.png

[ Voor 15% gewijzigd door stuffer op 06-12-2015 21:24 ]

Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Welke controller heb je IN je VM? VMWare Paravirtual, LSI Logic SAS of AHCI? Want daar kan het ook nog in zitten...

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Goed punt, spindown had ik niet aan gedacht. Nou moet ik wel zeggen dat op mijn fysieke NAS dit gewoon uit staat, maar je hebt gelijk met physical RDM zal er geen spindown zijn. Wel een voordeel van physical RDM is dat je per schijf aan VM's kunt mappen en niet per hele controller.
FireDrunk schreef op zondag 06 december 2015 @ 21:39:
Welke controller heb je IN je VM? VMWare Paravirtual, LSI Logic SAS of AHCI? Want daar kan het ook nog in zitten...
Mijn advies is trouwens om altijd PVSCSI (en VMXNET3) te gebruiken indien supported op guest os (Windows/Linux). (Alle beperkingen van PVSCSI zijn inmiddels weg, ook voor lage IOPS en zelfs voor MSCS kun je het gebruiken.)

[ Voor 9% gewijzigd door |sWORDs| op 06-12-2015 21:52 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • stuffer
  • Registratie: Juli 2009
  • Laatst online: 02-09 15:40

stuffer

Ondertietel

FireDrunk schreef op zondag 06 december 2015 @ 21:39:
Welke controller heb je IN je VM? VMWare Paravirtual, LSI Logic SAS of AHCI? Want daar kan het ook nog in zitten...
op dit moment Paravirtual:

Afbeeldingslocatie: http://i67.tinypic.com/30k7wpg.png
|sWORDs| schreef op zondag 06 december 2015 @ 21:45:
Goed punt, spindown had ik niet aan gedacht. Nou moet ik wel zeggen dat op mijn fysieke NAS dit gewoon uit staat, maar je hebt gelijk met physical RDM zal er geen spindown zijn. Wel een voordeel van physical RDM is dat je per schijf aan VM's kunt mappen en niet per hele controller.


[...]

Mijn advies is trouwens om altijd PVSCSI (en VMXNET3) te gebruiken indien supported op guest os (Windows/Linux). (Alle beperkingen van PVSCSI zijn inmiddels weg, ook voor lage IOPS en zelfs voor MSCS kun je het gebruiken.)
ok thanx, dat wist ik niet :)

Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Probeer voor de grap eens LSI Logic SAS of AHCI :)
De PVSCSi adapter filtered volgens mij spindown commando's.

AHCI kan je alleen zetten in de ESXi UI (een vmware fling) of via vCenter.

[ Voor 29% gewijzigd door FireDrunk op 06-12-2015 22:00 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 22-09 19:04

|sWORDs|

vSphere/ESXi

Volgens mij hebben ze allemaal in de driver standaard idle power management uit staan. Op Windows kun je de inf of registry aanpassen, maar bij Linux heb ik geen idee. De schijven gaan volgens mij om de 30 minuten ook weer aan doordat ESXi ook SMART uit leest, kun je wel uitzetten, maar dan mis je wel die functionaliteit (en SMART waarschuwingen).

[ Voor 37% gewijzigd door |sWORDs| op 06-12-2015 22:17 ]

Te Koop:24 Core Intel Upgradeset

Pagina: 1 ... 87 ... 116 Laatste

Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!

Lees voor je begint goed de start post en blijf ontopic.