Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Geen matches
FireDrunk schreef op dinsdag 29 april 2014 @ 22:42:
In Enterprise land zijn er inderdaad zoals Paul zegt meerdere redenen om meerdere NIC's te hebben in een server, waarvan de allergrootste reden redundantie is.

Performance technisch valt het allemaal wel mee.
Vergis je niet hoeveel verkeer vMotion kan trekken :) En als je met je vMotion heartbeat-verkeer wegdrukt dan kunnen er rare dingen gaan gebeuren op je omgeving.

Storage en LAN komt bij ons (wederom, enterprise) regelmatig boven de 1 Gbps uit, toen we de hosts een upgrade gaven van 1 Gbit naar 10 Gbit werd Exchange merkbaar sneller :P

In een privéomgeving zou ik, wanneer je geen all-in-one gebruikt, maar 2 netwerkkaarten gebruiken: LAN en storage; bij een AiO zelfs alleen maar LAN :P Ga je all-in met VMware licenties dan zou je nog een 3e netwerkkaart kunnen overwegen voor vMotion, maar de vraag is maar hoe vaak je die echt gaat missen thuis.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Afwezig
  • Registratie: Maart 2002
  • Laatst online: 17-09 23:25
Geen matches
http://azerty.nl/producte...inge.html?channel_code=40

116 euro vandaag, 220 normaal. Foutje of goede deal? Doe er je voordeel mee in ieder geval :p

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
Paul schreef op woensdag 30 april 2014 @ 07:07:
[...]
Vergis je niet hoeveel verkeer vMotion kan trekken :) En als je met je vMotion heartbeat-verkeer wegdrukt dan kunnen er rare dingen gaan gebeuren op je omgeving.

Storage en LAN komt bij ons (wederom, enterprise) regelmatig boven de 1 Gbps uit, toen we de hosts een upgrade gaven van 1 Gbit naar 10 Gbit werd Exchange merkbaar sneller :P

In een privéomgeving zou ik, wanneer je geen all-in-one gebruikt, maar 2 netwerkkaarten gebruiken: LAN en storage; bij een AiO zelfs alleen maar LAN :P Ga je all-in met VMware licenties dan zou je nog een 3e netwerkkaart kunnen overwegen voor vMotion, maar de vraag is maar hoe vaak je die echt gaat missen thuis.
Precies, ik had mijn laatste zin ook moeten herschrijven:

Performance is niet van belang in een thuissituatie.

Even niets...


Acties:
  • 0 Henk 'm!

  • TemmieT
  • Registratie: Juli 2010
  • Laatst online: 18-05-2023
Matched: esxi
FireDrunk schreef op dinsdag 29 april 2014 @ 22:42:
[...]


Je kan Disks niet doorgeven via VT-d (via het Passthrough menutje), dat is alleen bedoeld voor devices (vooral PCIe).

Als je disks direct door wil geven moet je met RDM aan de slag (Raw Device Mapping).

Als ik jou zo begrijp heb je je wel ingelezen maar nog niet helemaal perfect :)

Als je een losse Promise controller hebt om van te booten, kan je de onboard controller inderdaad doorgeven. Dat zou iets met een AHCI controller moeten zijn.
Alle schijven die aan die controller hangen zullen daarna in de VM zichtbaar zijn.

@Dotacom,
Voor een single server build maakt het weinig uit. Als je echt high performance iSCSI / NFS wil doen is het verstandig om 2 NIC's te nemen.

Grootste voordeel is dat je 1 fysieke netwerkkaart op Jumbo Frames kan zetten, en je gewone LAN netwerk op een MTU van 1500 kan houden. Je wil natuurlijk niet ook je laptops op Jumbo Frames moeten zetten ;)

In Enterprise land zijn er inderdaad zoals Paul zegt meerdere redenen om meerdere NIC's te hebben in een server, waarvan de allergrootste reden redundantie is.

Performance technisch valt het allemaal wel mee.
Hoi FireDrunk,

Bedankt voor je antwoord!
Ik wist wel dat je individuele hard disc's niet kan passthroughen maar enkel een controller
Maar mijn probleem is dat de moederbord Ahci controller niet in het lijstje voorkomt van te passtrough'en devices.

Toevallig heb ik vandaag het antwoord gevonden, er schijnt een probleem te zijn met de Haswell Lynx point Ahci controller waardoor je die niet kan passtrough'en.
Bij Vmware is er een forum onderwerp over: https://communities.vmware.com/thread/458324 ( maar geen oplossing )
RDM is idd een optie, maar ik wilde Freenas gaan gebruiken en op de fora wordt RDM sterk afgeraden in combinatie met ZFS.
Om die reden heb ik dit moederbord en processor gekocht, nl om passthrough te voor mijn gevirtualiseerde freenas server.

Nu heb ik een probleem, Ik kan inderdaad passthroughed discs mounten onder een ubuntu virtual machine als ik mijn Promise controller gebruik,
maar om 1 of andere reden kan dat met Freenas niet. Freenas vind de discs niet ( wel de promise controller ).
Enig idee hoe dat kan?

Ik ga morgen eerst maar eens even Freenas installeren zonder Esxi en kijken of drives achter de promise kaart worden herkend.
( de promise kaart staat nl wel gelist als ondersteund door Freenas )

Daarna zie ik de volgende opties:
- koop een sas kaart ( IBM M1015 ). Maar gaat dat 100% werken met Freenas ? Een gok van 150 Euro...
- Ik installeer ZFS op Ubuntu en dan kan ik met de Promise controller kaart verder. Maar Zfs op Ubuntu.. is dat wel mature genoeg om mijn data aan toe te vertrouwen?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
Een M1015 werkt sowieso met FreeNAS.

Ik draai ook ZFSonLinux icm Ubuntu :)

Even niets...


Acties:
  • 0 Henk 'm!

  • TemmieT
  • Registratie: Juli 2010
  • Laatst online: 18-05-2023
Geen matches
FireDrunk schreef op woensdag 30 april 2014 @ 16:14:
Een M1015 werkt sowieso met FreeNAS.

Ik draai ook ZFSonLinux icm Ubuntu :)
Dat las ik idd. Maar heeft er iemand op dit moederbord B85M Pro4 een gevirtualiseerde freenas serevr draaien die een gepassthroughed M1015 als sata controller gebruikt?

Wat zijn je ervaringen met ZFSonLinux ? Al problemen gehad ? Ik wilde 4 3TB schijven inzetten. Gaat dat goed ?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
Nergens last van, maar ik doe niet zo heel veel. (gebruik amper snapshots, en gebruik geen ZFS Send en Receive). Maar de verhalen zijn tot nog toe prima.

Even niets...


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Geen matches
FireDrunk schreef op dinsdag 29 april 2014 @ 22:42:
In Enterprise land zijn er inderdaad zoals Paul zegt meerdere redenen om meerdere NIC's te hebben in een server, waarvan de allergrootste reden redundantie is.
In enterprise land gebruiken ze een compleet cluster. De redundantie zit anders in elkaar. Vaak zit dit op service niveau omdat je daarmee heel veel variabelen al kunt elimineren (problemen met de fysieke server bijv. zoals een voeding, een nic, enz.). Die diverse nics zitten er maar om 2 redenen in: performance en security. Dataverkeer wil je namelijk van je management verkeer gescheiden houden. De storage wil je ook via dedicated links aanbieden om dezelfde redenen. Dat kun je op zich nog wel met vlans doen maar voor storage wil je ook goede performance hebben en dan zit je aan dedicated fysieke links.

Redundantie speelt voor kleine bedrijven en thuisgebruikers nog wel eens een rol om meer dan 1 nic te gebruiken. Maar ja, als je dan ziet hoe ze dat weer uitvoeren is dat meestal een compleet nutteloze toevoeging. Redundantie van de netwerkverbinding is iets wat veel verder strekt dan meer nics in een machine stoppen. Als alles naar 1 switch gaat is er eigenlijk geen redundantie (nic of kabel stuk dan redundantie, switch stuk dan verbinding compleet weg). Redundantie in je systemen verkrijgen is dan ook een complexe aangelegenheid waarbij je het totaalplaatje goed in beeld moet hebben. Dat overzicht hebben is wat het zo complex maakt.

Voor thuis is er maar 1 reden om dit puur voor redundantie te doen: leermoment. Ander nut heeft die redundantie niet. Performance en security zijn naast het verkrijgen van overzicht de enige redenen om voor meer dan 1 nic te gaan. Of de performance er echt beter op wordt ligt geheel aan je gebruik. Kijk daar eerst eens naar. Ik gebruik het hier vooral om verschillende fysieke netwerken met de virtuele te verbinden. VLANs kunnen niet altijd gebruikt worden. En ja, die setup is puur voor de kennisuitbreiding B)

Acties:
  • 0 Henk 'm!

  • dragon9114
  • Registratie: Augustus 2005
  • Laatst online: 08-08 17:58
Matched: esxi
Autowiel schreef op maandag 28 april 2014 @ 17:50:
Zijn er al mensen met de volgende configuratie? Hoe draait dit?

Zou dit goed werken voor 2 vm's: één windows 7 als testmachine en 1 Linux vm die als webserver voor meerdere joomla websites.

pricewatch: AMD Athlon 5350 Boxed
pricewatch: ASRock AM1H-ITX
pricewatch: Crucial Ballistix Smart Tracer BLT2CP8G3D1608DT2TXOBCEU
Ik heb een vergelijkbaar systeem (athlone 5350 en asrock am1h-itx) en esxi 5.5 wil hierop niet installeren omdat hij de netwerk kaart niet vind. :(

[ Voor 3% gewijzigd door dragon9114 op 30-04-2014 22:42 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Geen matches
ppl schreef op woensdag 30 april 2014 @ 21:41:
Vaak zit dit op service niveau [..] Die diverse nics zitten er maar om 2 redenen in: performance en security
En nog steeds redundantie :P Het is niet handig als de helft van je datacentrum uitvalt omdat er een switch stuk gaat, nog los van het feit dat er gewoon een heleboel dingen zijn die je niet kunt of niet wilt clusteren.

Dan is een 2e switch en wat extra SFP's een stuk makkelijker en goedkoper dan van 300 VM's 600 VM's maken met bijbehorende storage, met die vervloekte RDM's (want cluster, iets anders wordt niet ondersteund) etc etc.

Voor een Facebook, Google of nu.nl speelt dat wat minder inderdaad, die zetten 1000 of meer identieke bouwblokjes neer en als er 48 uitvallen vanwege een kapotte switch, ach.. Er zijn echter voldoende bedrijven die ook onder Enterprise vallen maar die een heel divers applicatielandschap (en dus een diverse serverpool) hebben :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Matched: esxi
dragon9114 schreef op woensdag 30 april 2014 @ 22:13:
[...]

Ik heb een vergelijkbaar systeem (athlone 5350 en asrock am1h-itx) en esxi 5.5 wil hierop niet installeren omdat hij de netwerk kaart niet vind. :(
Kan je geen driver injecteren?

Even niets...


Acties:
  • 0 Henk 'm!

  • dragon9114
  • Registratie: Augustus 2005
  • Laatst online: 08-08 17:58
Matched: esxi
FireDrunk schreef op donderdag 01 mei 2014 @ 09:20:
[...]

Kan je geen driver injecteren?
Ja, het werkt wel maar ik heb geen idee hoe stabiel het is dus heb ik maar voor de zekerheid een Intel Gigabit CT Desktop besteld die wel standaard ondersteunt word door esxi.

Acties:
  • 0 Henk 'm!

  • Autowiel
  • Registratie: Mei 2009
  • Laatst online: 18-09 10:38
Matched: esxi
dragon9114 schreef op donderdag 01 mei 2014 @ 21:02:
[...]

Ja, het werkt wel maar ik heb geen idee hoe stabiel het is dus heb ik maar voor de zekerheid een Intel Gigabit CT Desktop besteld die wel standaard ondersteunt word door esxi.
En hoe draait het nu? Is de perfomance goed? wat heb je erop draaien?

Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
Geen matches
Bedankt voor de vermelding, gelijk even pfSense geüpdatet naar 2.1.2.
Patchen omwille van deze vulnerability lijkt me niet nodig?
we're not vulnerable by default as we enable scrub by default. Still, will put out an update.

Acties:
  • 0 Henk 'm!

  • sphere
  • Registratie: Juli 2003
  • Laatst online: 23:34

sphere

Debian abuser

Geen matches
OK, ik draai geen pfsense, dacht alleen dat het mogelijk kwetsbaar zou zijn, vandaar de vermelding.

http://stackoverflow.com/questions/1732348/regex-match-open-tags-except-xhtml-self-contained-tags/1732454#1732454


Acties:
  • 0 Henk 'm!

  • dragon9114
  • Registratie: Augustus 2005
  • Laatst online: 08-08 17:58
Geen matches
Autowiel schreef op donderdag 01 mei 2014 @ 23:19:
[...]

En hoe draait het nu? Is de perfomance goed? wat heb je erop draaien?
het draait goed voor zo ver ik heb kunnen testen. geen idee of jullie hier wat aan hebben maar ik heb op twee virtual machines tegelijk phoronix test suit gedraait.

setup waarmee ik getest heb.
twee keer debian 7 met elk:
2GB geheugen
2 core's
32MB video geheugen.
8 GB voor opslag.

#ProductPrijsSubtotaal
1AMD Athlon 5350 Boxed€ 48,89€ 48,89
1ASRock AM1H-ITX€ 47,25€ 47,25
1Crucial Ballistix Sport BLS8G3D1339DS1S00€ 60,14€ 60,14
1Seasonic G-Serie 360Watt€ 51,-€ 51,-
1Crucial M500 2,5" 120GB€ 56,-€ 56,-
Bekijk collectie
Importeer producten
Totaal€ 445,28


Debian1
World of padman9.53 FPS
John The ripper V1.8.0 traditional DES3072833 C/S
John The ripper V1.8.0 blowfish955 C/S
TTSIOD 3D RENDERER V2.2Z14.88 FPS
Graphics magick V1.3.19 HWB Color space 56 iterations per minute
Graphics magick V1.3.19 local adaptive thresholding 42 iterations per minute
Graphics magick V1.3.19 sharpen 25 iterations per minute
Graphics magick V1.3.19 resizing 44 iterations per minute
7-ZIP compression 9.20.1 compress speed test2160 MIPS


en de test resultaten van de tweede virtual machine staan hier.
om de een of andere reden heeft deze meer test gedaan.(24 ipv 11)
http://openbenchmarking.org/result/1405028-PL-DEBIAN2TE17

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Geen matches
Paul schreef op donderdag 01 mei 2014 @ 07:08:
En nog steeds redundantie :P Het is niet handig als de helft van je datacentrum uitvalt omdat er een switch stuk gaat, nog los van het feit dat er gewoon een heleboel dingen zijn die je niet kunt of niet wilt clusteren.
Als de helft van je DC uitvalt omdat er 1 switch stuk gaat heb je dingen verkeerd aangepakt. Men maakt hier een hele klassieke denkfout door zich suf te focussen op welgeteld 1 klein aspect. Men realiseert zich totaal niet dat je geen server of netwerkconnectie aan het uitrollen bent naar je gebruikers. Je biedt ze een bepaalde service aan. Het is de service die je in de lucht moet houden en dat betekent dat je dus niet naar 1 klein aspect moet kijken maar naar het totaalplaatje. Daarnaast is redundantie nooit een doel, dat is beschikbaarheid van de service. Dus nee, het gaat hier niet om redundantie, er zijn meer wegen te bewandelen om die beschikbaarheid te kunnen garanderen ;). Nadenken over wat je aan het doen bent (wel 2 nics maar alles op 1 switch is dat dus niet) en weten waar de zwakke punten in je systeem zit. Dat is de moraal van mijn verhaal.

Vergeet niet dat bepaalde problemen helemaal niet erg zijn omdat je die snel en eenvoudig kunt oplossen. Redundantie is dan ultra duur. Risicomanagement is in deze ook een mooi toverwoordje.

Acties:
  • 0 Henk 'm!

  • TweakMDS
  • Registratie: Mei 2002
  • Laatst online: 30-09 09:17
Geen matches
ppl schreef op zaterdag 03 mei 2014 @ 16:03:
[...]

Als de helft van je DC uitvalt omdat er 1 switch stuk gaat heb je dingen verkeerd aangepakt. Men maakt hier een hele klassieke denkfout door zich suf te focussen op welgeteld 1 klein aspect. Men realiseert zich totaal niet dat je geen server of netwerkconnectie aan het uitrollen bent naar je gebruikers. Je biedt ze een bepaalde service aan. Het is de service die je in de lucht moet houden en dat betekent dat je dus niet naar 1 klein aspect moet kijken maar naar het totaalplaatje. Daarnaast is redundantie nooit een doel, dat is beschikbaarheid van de service. Dus nee, het gaat hier niet om redundantie, er zijn meer wegen te bewandelen om die beschikbaarheid te kunnen garanderen ;). Nadenken over wat je aan het doen bent (wel 2 nics maar alles op 1 switch is dat dus niet) en weten waar de zwakke punten in je systeem zit. Dat is de moraal van mijn verhaal.

Vergeet niet dat bepaalde problemen helemaal niet erg zijn omdat je die snel en eenvoudig kunt oplossen. Redundantie is dan ultra duur. Risicomanagement is in deze ook een mooi toverwoordje.
Helemaal mee eens. Zelfs met alle mogelijke redundantie van de wereld valt niet alles af te dekken, maar er is wel een aantal zaken die vaker in de fout schieten.
In mijn ervaring: Voedingen gaan kapot, harde schijven gaan kapot, en ventilatoren stoppen er domweg mee, zeker als deze temperatuur gestuurd zijn met een stand waarbij ze ook helemaal stil staan. Dan komt het toch wel eens voor dat ze ineens niet meer aan willen springen.

Wat alleen nog veel vaker mis gaat is software instellingen van diverse componenten, zoals configuraties van switches of routers die net anders zijn dan de sandbox omgeving of in de praktijkinrichting net anders zijn gedaan dan de documentatie. Een switch die fysiek kapot gaat heb ik nog nooit gehad, maar zaken zoals haperende netwerkverbindingen omdat alle servers ineens op hetzelfde netwerk zitten als desktops of telefooncentrales waarvan de hele configuratie weg is na een simpele aanpassing helaas vaker dan eens

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 18:52

Compizfox

Bait for wenchmarks

Matched: esxi
Wat ik vandaag meemaak, ik begrijp er niks van.

Op mijn ESXi-server heb ik twee VMs draaien: een Debian en een ZFSGuru (FreeBSD 10). Draait allemaal prima, niks mis mee.

Sinds een paar uur heb ik het probleem dat als ik een klein beetje CPU-usage veroorzaak op de FreeBSD-vm, de hele ESXi-server plat gaat voor ongeveer een paar minuten.

Ik kwam hierachter toen de boel ineens plat ging toen ik in een map browsde die via Samba door de FreeBSD-server wordt aangeboden (het is mijn fileserver). Toen de boel weer online kwam na een paar minuten, besloot ik de webinterface aan te slingeren om te zien wat er mis was. Toen ging het weer plat. Uiteindelijk kwam ik er via SSH achter dat alles wat een beetje CPU-usage veroorzaakt het probleem triggert.

De server (inclusief alle VMs én vSphere zelf) blijft plat zolang je (bijvoorbeeld) de webinterface probeert openen. Als ermee stopt en even wacht, komt alles na een paar minuten weer online.

In de logs van FreeBSD is niets te zien, in de performancegrafieken van vSphere is niets te zien (geen gaten oid).

Het gekke is dat ik echt niets heb lopen uitspoken vandaag op de server. Het probleem komt echt uit het niets.

Wat kan dit in vredesnaam zijn voor iets raars?

[ Voor 4% gewijzigd door Compizfox op 08-05-2014 23:08 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Geen matches
ppl schreef op zaterdag 03 mei 2014 @ 16:03:
Als de helft van je DC uitvalt omdat er 1 switch stuk gaat heb je dingen verkeerd aangepakt
...zoals bijvoorbeeld servers met maar één touwtje aansluiten. Waardoor je een 2e touwtje gaat trekken en je dus NIC's gebruikt voor redundantie. Volgens mij was dat namelijk mijn punt. Ik vind het dan ook erg knap dat je uit mijn opmerking dat onze servers met 2 touwtjes aan het LAN hangen ipv aan één kunt concluderen dat we verder geen HA, load balancers en change-procedures hebben maar dat we alleen maar hardware-redundancy aanbrengen om de redundancy :> O+

Ik denk eerder dat jij de klassieke denkfout maakt om te denken dat iedereen een Facebook of Google is. "Everything is a phone!" Het is fijn voor de Facebooks en Googles van de wereld dat ze kunnen draaien op talloze enkelvoudig aangesloten doosjes en dat ze pas het DC in hoeven wanneer 30% van de doosjes het begeven heeft, ondertussen zit ik met een hele lading applicatieservers die niet te clusteren zijn en waarbij het up zijn van de machine een direct verband heeft met het up zijn van de dienst die ik lever. Dus ja, dan is het aantal touwtjes waarmee een server aan het netwerk hangt één van de dingen waar ik op let :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Matched: esxi
Compizfox schreef op donderdag 08 mei 2014 @ 23:07:
Wat ik vandaag meemaak, ik begrijp er niks van.

Op mijn ESXi-server heb ik twee VMs draaien: een Debian en een ZFSGuru (FreeBSD 10). Draait allemaal prima, niks mis mee.

Sinds een paar uur heb ik het probleem dat als ik een klein beetje CPU-usage veroorzaak op de FreeBSD-vm, de hele ESXi-server plat gaat voor ongeveer een paar minuten.

Ik kwam hierachter toen de boel ineens plat ging toen ik in een map browsde die via Samba door de FreeBSD-server wordt aangeboden (het is mijn fileserver). Toen de boel weer online kwam na een paar minuten, besloot ik de webinterface aan te slingeren om te zien wat er mis was. Toen ging het weer plat. Uiteindelijk kwam ik er via SSH achter dat alles wat een beetje CPU-usage veroorzaakt het probleem triggert.

De server (inclusief alle VMs én vSphere zelf) blijft plat zolang je (bijvoorbeeld) de webinterface probeert openen. Als ermee stopt en even wacht, komt alles na een paar minuten weer online.

In de logs van FreeBSD is niets te zien, in de performancegrafieken van vSphere is niets te zien (geen gaten oid).

Het gekke is dat ik echt niets heb lopen uitspoken vandaag op de server. Het probleem komt echt uit het niets.

Wat kan dit in vredesnaam zijn voor iets raars?
Geheugen vol? Staat vSphere niet te swappen/pagen/balloonen?

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 18:52

Compizfox

Bait for wenchmarks

Matched: esxi
Nope.

Ik heb nu in ESXi's vmkernel.log dit gevonden:
code:
1
2014-05-09T11:45:50.456Z cpu1:4550)WARNING: LinNet: netdev_watchdog:3220:NETDEV WATCHDOG: vmnic1: transmit timed out


Lijkt ermee te maken te hebben, maar kan er geen info over vinden.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
Watchdog timeouts zijn volgens mij BIOS initiated als devices hangen... Dan krijgen ze een schop van het BIOS...

Klinkt als een kapotte NIC?

Bronnetje:
http://kb.vmware.com/self...playKC&externalId=1020706

[ Voor 29% gewijzigd door FireDrunk op 09-05-2014 15:12 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 13:55

FREAKJAM

"MAXIMUM"

Matched: esxi
Wellicht dit probleem:

Symptoms
  • All networking traffic stops
  • Network connection is not restored until a reboot
  • The VMkernel logs generate these messages every second:
Oct 13 05:19:19 vmkernel: 0:09:22:33.216 cpu2:4390)WARNING: LinNet: netdev_watchdog: NETDEV WATCHDOG: vmnic1: transmit timed out
Oct 13 05:19:20 vmkernel: 0:09:22:34.218 cpu8:4395)WARNING: LinNet: netdev_watchdog: NETDEV WATCHDOG: vmnic1: transmit timed out
Heb je nog ESXi 4 draaien?

is everything cool?


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 18:52

Compizfox

Bait for wenchmarks

Matched: esxi
Ik draai ESXi 5.1.

Er wordt overigens ook niet aan dat tweede symptoom voldaan; de server komt automatisch weer online na een paar minuten.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
Drivertjes updaten?

Even niets...


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Geen matches
Paul schreef op vrijdag 09 mei 2014 @ 14:16:
[...]
...zoals bijvoorbeeld servers met maar één touwtje aansluiten. Waardoor je een 2e touwtje gaat trekken en je dus NIC's gebruikt voor redundantie. Volgens mij was dat namelijk mijn punt.
Je overdrijft schromelijk en presenteert redundantie als silver bullet. Dat is dus flauwekul en probeer ik nou de hele tijd duidelijk te maken. Een server met maar 1 touwtje aansluiten is helemaal niet erg want uiteindelijk gaat het er om dat de service blijft draaien. Een ander punt is dat je na moet denken over wat redundantie nou precies is. Twee netwerkkaarten aansluiten op dezelfde switch is dat dus niet. Sowieso, voor thuis is redundantie veelal nonsens.
Ik vind het dan ook erg knap dat je uit mijn opmerking dat onze servers met 2 touwtjes aan het LAN hangen ipv aan één kunt concluderen dat we verder geen HA, load balancers en change-procedures hebben maar dat we alleen maar hardware-redundancy aanbrengen om de redundancy :> O+
Ware het niet dat dit nergens staat vermeldt. Dit is iets wat tussen jouw oren zit. We hebben het hier over algemene zaken, niet over specifieke network setups.
Ik denk eerder dat jij de klassieke denkfout maakt om te denken dat iedereen een Facebook of Google is.
Dan moet je niet denken maar eens gaan lezen wat ik heb geschreven. Het gaat erom dat men verder kijkt dan z'n neus lang is en zoekt naar een oplossing op maat ipv klakkeloos maar wat dingen doet zoals 2 netwerkkaarten aansluiten.
Dus ja, dan is het aantal touwtjes waarmee een server aan het netwerk hangt één van de dingen waar ik op let :)
Lees dan je eigen reacties eens goed na want het is kennelijk het enige waar je aan denkt. Zelfs nadat iemand meerdere malen je aan het verstand probeert te krijgen dat je naar het gehele plaatje moet kijken. Lees eens de reactie van SndBastard, die komt namelijk met aantal andere zaken op de proppen waar je veel eerder tegenaan zult lopen. Helpt redundantie daar? Nope. Ik heb liever dat mensen over hun setup nadenken en dan datgene doen wat zinnig voor hun setup is dan dingen implementeren omdat een ander dat ook doet of omdat ze dan het woordje "redundantie" kunnen gebruiken.

Btw, hoeveel nics config je per vm?

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Matched: esxi
Ben best heel blij met mijn ESXi, maar iets minder met het verbruik. Aangezien dat apparaat 's nachts eigenlijk niets staat te doen, ben ik voornemens om 'em dan uit te zetten. Da's redelijk simpel met een scriptje wat je in de cron van esxi schedulet. Maar de uitdaging zit 'em erin om de server op tijd weer wakker te laten worden.

Wie geeft me een zetje in de juiste richting? Ik heb zelf het gevoel dat ik in te moeilijke cirkeltjes denk met WOL vanaf een Netduino enzo.

MoBo is een Supermicro X10SL7-F.

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
Geen matches
Moet hij on demand aan of op een bepaald tijdstip? In dat laatste geval een wakeup vanuit het BIOS schedulen.

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Geen matches
De server doet o.m. dienst als databaseserver voor mijn stroomfabriek. Dus in juni zou -ie vroeg wakker moeten worden en in december mag het wat later.

Maargoed, da's het ideaalplaatje. Vooralsnog zou ik blij zijn met een scheduled power on. Dat heb ik in het BIOS niet kunnen vinden. Daarbij moet ik meteen opmerken dat ik geen goed speurder ben.

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
Geen matches
hansdegit schreef op vrijdag 09 mei 2014 @ 23:58:
De server doet o.m. dienst als databaseserver voor mijn stroomfabriek. Dus in juni zou -ie vroeg wakker moeten worden en in december mag het wat later.

Maargoed, da's het ideaalplaatje. Vooralsnog zou ik blij zijn met een scheduled power on. Dat heb ik in het BIOS niet kunnen vinden. Daarbij moet ik meteen opmerken dat ik geen goed speurder ben.
Kan in de manual ook geen scheduled power-on functie vinden in het BIOS helaas. Waarschijnlijk omdat het een server grade moederbord is met idem usage, dus always on ipv soms aan/meestal uit :)

Veel consumenten grade moederborden hebben het wel in de BIOS zitten namelijk. Zo schakel ik mijn fileserver in.

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 19:55
Matched: esxi
Mijn esxi doos zit achter een klik-aan-klik-uit schakelaar.
BIOS staat ingesteld om in te schakelen als de power erop komt.
Schakelaar wordt gestuurd m.b.v. Domoticz op een RPi.
Kan de in- en uitschakeltijden zo gek instellen als ik zelf wil (o.a. relateren aan zonsopgang).

Inschakelen doe ik steeds met de hand, (via web of foon), maar uitschakelen is getimed. Uiteraard wordt er dan eerst een script afgetrapt zodat de VMs en de host uitschakelen. Als de host dan een half uur niet meer te pingen is, gaat de schakelaar uit.

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Geen matches
Heb 'em nu op een tijdschakelaar staan. Ik maak nog wel iets met een Netduino denk ik. Ander keertje.

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Geen matches
ppl schreef op vrijdag 09 mei 2014 @ 23:37:
Ware het niet dat dit nergens staat vermeldt. Dit is iets wat tussen jouw oren zit.
Nee hoor, in deze post doe je het weer... En wederom weet je helemaal NIETS van onze omgeving (of van mijn kennis met betrekking tot het beschikbaar houden van een dienst en/of klanttevredenheid, om het wat breder te trekken) en blijf je roepen dat ik het verkeerd doe. Tuurlijk jongen :z

De vraag was: waarom zou je meer dan 1 netwerkkabel aansluiten? Nou, één van die redenen zou redundantie kunnen zijn. Dat was de vraag, en dat was het antwoord. Dat jij daar vervolgens van maakt dat 'men' zich blind staart op één aspect, ik vind juist dat jij dat aan het doen bent. Je ziet iemand met het lef om een 2e netwerkkabel voor redundancy purposes aan te sluiten en gaat er als een Don Quichotte op af. Good luck with that. Dat jij je servers maar met één touwtje aansluit, tja, blijkbaar is die server voor jou niet belangrijk. Zoals ik echter al eerder heb aangegeven maar wat je voor het gemak maar even negeert: die luxe heeft niet iedereen.

De vraag was: waarom zou je meer dan 1 netwerkkabel aansluiten. Vind je het dan echt zo gek dat DAAR antwoord op komt? 8)7 Ik heb nergens, NERGENS, beweerd dat dit het enige is wat je moet doen. Dat maak jij er van. Ik heb zelfs niet beweerd dat je het altijd maar klakkeloos moet doen. Ook dat maak jij er van. Ik ben er wel klaar mee.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Verwijderd

Matched: esxi
Hi,

Ik ben van plan mijn eerste ESXI servertje te gaan bouwen. Uit alle informatie en budget heb ik dit een beetje samengesteld. Voordat ik het ga bestellen wilde ik toch even checken of iemand nog tips of commentaar heeft op deze configuratie....


#ProductPrijsSubtotaal
1Intel Core i5 4440 Boxed€ 149,90€ 149,90
1ASRock H87M Pro4€ 64,-€ 64,-
4WD Red SATA 6 Gb/s WD30EFRX, 3TB€ 103,51€ 414,04
1Fractal Design Node 804€ 103,82€ 103,82
1Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU€ 109,95€ 109,95
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 135,59€ 135,59
1Seasonic G-Serie 360Watt€ 51,-€ 51,-
Bekijk collectie
Importeer producten
Totaal€ 1.028,30



Thanks _/-\o_

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 13:55

FREAKJAM

"MAXIMUM"

Geen matches
Wellicht wat meer info? Wat voor VM's wil je gaan draaien met welke rollen? Ga je ZFS gebruiken? etc etc.

is everything cool?


Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Helemaal gelijk,

Voornamelijk ZFS, maar wil daarnaast misschien een ubuntu SQL database draaien, pfsense, en iets voor NZB...

4 wd red hd voor de ZFS via de ibm m1015 passthough en 2 andere schijven die ik nog heb liggen voor de rest...

Thanks for the response

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Matched: esxi
Ziet er prima uit, het is misschien wel handig om een SSDtje ofzo erbij te zetten voor ESXi zelf :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Eagleman7
  • Registratie: Januari 2009
  • Laatst online: 24-07 03:01
Matched: esxi
Compizfox schreef op vrijdag 09 mei 2014 @ 14:35:
Nope.

Ik heb nu in ESXi's vmkernel.log dit gevonden:
code:
1
2014-05-09T11:45:50.456Z cpu1:4550)WARNING: LinNet: netdev_watchdog:3220:NETDEV WATCHDOG: vmnic1: transmit timed out


Lijkt ermee te maken te hebben, maar kan er geen info over vinden.
Dit is ook toevallig, ik heb precies hetzelfde probleem, dit gebeurd iedere paar weken en dan moet ik de ESXi host helemaal opnieuw opstarten voordat ik weer netwerk heb.

code:
1
2
2014-05-14T09:57:22.081Z cpu1:33280)WARNING: LinNet: netdev_watchdog:3478: NETDEV WATCHDOG: vmnic0: transmit timed out
2014-05-14T09:57:22.081Z cpu1:33280)WARNING: at vmkdrivers/src_92/vmklinux_92/vmware/linux_net.c:3507/netdev_watchdog() (inside vmklinux)


VMware ESXi, 5.5.0, 1331820

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
verkeerde topic

[ Voor 97% gewijzigd door Verwijderd op 17-05-2014 13:38 . Reden: verkeerde topic ]


Acties:
  • 0 Henk 'm!

  • C00KW4US
  • Registratie: Januari 2000
  • Laatst online: 26-09 14:56
Geen matches
Heeft iemand de custom power management settings beschikbaar? De link waar in dit topic vaak naar verwezen wordt werkt niet meer.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Matched: esxi
In ESXi 5.5 gebruik ik ze niet eens meer, by default is het al zuinig.

Even niets...


Acties:
  • 0 Henk 'm!

  • illum1n4ti
  • Registratie: Maart 2002
  • Laatst online: 25-09 20:53

illum1n4ti

Who am i?

Matched: esxi
Hoi Vincent,

Ik heb precies dezelfde build als jou.

Ik verbruik kwa stroom 43-45w per uur in idle mode. Ik vind persoonlijk heel veel. Hoeveel verbruik jij?

3 vm's:

Xpenology
Ubuntu server 14.04
Windows 2012 R2
Verwijderd schreef op woensdag 14 mei 2014 @ 12:50:
Hi,

Ik ben van plan mijn eerste ESXI servertje te gaan bouwen. Uit alle informatie en budget heb ik dit een beetje samengesteld. Voordat ik het ga bestellen wilde ik toch even checken of iemand nog tips of commentaar heeft op deze configuratie....


#ProductPrijsSubtotaal
1Intel Core i5 4440 Boxed€ 149,90€ 149,90
1ASRock H87M Pro4€ 64,-€ 64,-
4WD Red SATA 6 Gb/s WD30EFRX, 3TB€ 103,51€ 414,04
1Fractal Design Node 804€ 103,82€ 103,82
1Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU€ 109,95€ 109,95
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 135,59€ 135,59
1Seasonic G-Serie 360Watt€ 51,-€ 51,-
Bekijk collectie
Importeer producten
Totaal€ 1.028,30



Thanks _/-\o_

Best Great Regards, Cashtro Tha Last Don


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
43W voor een build met 4 disks valt toch wel mee?

Even niets...


Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 29-09 23:41
Matched: esxi
dotacom schreef op dinsdag 29 april 2014 @ 18:55:
Misschien een niet zo snuggere vraag maar hoeveel vNICs kan je maken van 1 physical NIC?
Je kunt maximaal 4096 virtuele switchpoorten uitdelen per ESXi 5.5 host. (bron)


Bijvoorbeeld 1 vSwitch met een fysieke NIC, een management VMkernel poort en 4094 VMs
Of 3 vSwitches met elk een fysieke NIC, een zooitje VMkernel poorten en wat minder VMs

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Matched: esxi
Standaard staat de vSwitch al ingesteld op 120 poorten. Je hebt daar al ruim voldoende aan aangezien de meesten het allemaal op 1 ESXi host draaien en de hardware vaak al bepaald hoeveel vm's je maximaal kunt draaien. Laat staan dat men meer dan 30 vm's maakt. Wat eerder voorkomt is dat je een aantal vSwitches aanmaakt zodat je gescheiden netwerken hebt binnen je ESXi omgeving (distributed switches kun je niet maken met de gratis ESXi versie).

Voor thuisgebruik heb je veelal voldoende aan de mogelijkheden die de gratis ESXi versie biedt. Vrij zelden dat je daar overheen gaat (dat zijn meestal de setups van mensen die bepaalde enterprise dingen willen testen).

Acties:
  • 0 Henk 'm!

  • albino71
  • Registratie: Augustus 2006
  • Niet online

albino71

Leef rijk, sterf arm

Matched: esxi
Kunnen jullie eens je licht laten schijnen op het volgende?

Ik ben voornemens een servertje te plaatsen (geen ESXi).

albino71 in "Het grote zuinige server topic"

Maar stel dat het in de toekomst wel een ESXi moet worden.....

Kan ik dan beter voor de i3 of voor de i5 gaan i.v.m. VT-d?

Werkt het evengoed op de i3, maar gewoon minder goed qua performance?

Sorry voor het neerplempen van de vraag, maar ach...een beroep op kennis moet kunnen op deze mooie zaterdag :)

Te koop....


Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 29-09 23:41
Matched: esxi
albino71 schreef op zaterdag 24 mei 2014 @ 14:03:
Maar stel dat het in de toekomst wel een ESXi moet worden.....

Kan ik dan beter voor de i3 of voor de i5 gaan i.v.m. VT-d?

Werkt het evengoed op de i3, maar gewoon minder goed qua performance?
Volgens Intel:
http://ark.intel.com/nl/p...ocessor-3M-Cache-3_40-GHz
Intel® Virtualization Technology for Directed I/O No

http://ark.intel.com/nl/p...r-6M-Cache-up-to-3_20-GHz
Intel® Virtualization Technology for Directed I/O Yes

Dus:
VT-d werkt niet met de i3. Blijft de grote vraag: waar wil je VT-d voor gaan gebruiken? Mijn servertje heeft het maar ik heb het nog nooit aangeraakt in de vier jaar dat ik het ding heb.

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • albino71
  • Registratie: Augustus 2006
  • Niet online

albino71

Leef rijk, sterf arm

Geen matches
Ik ben bang dat ik dan ook zo ver in de toekomst moet kijken, dat het glazen bol werk wordt.

i3 dan dus :)

Bedankt voor de bevestiging!

Te koop....


Acties:
  • 0 Henk 'm!

  • Brackpc
  • Registratie: Mei 2007
  • Laatst online: 29-09 17:16
Geen matches
Ik zoek me kapot, maar kan het nergens vinden. Hopelijk weet iemand hier het.

Weet iemand een haswell moederbord waarbij de onboard sata controller als passthrough device is in te stellen? Alle moederborden die ik tot nu toe als optie heb kunnen het iig niet.

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Geen matches
Brackpc schreef op donderdag 05 juni 2014 @ 18:04:
Ik zoek me kapot, maar kan het nergens vinden. Hopelijk weet iemand hier het.

Weet iemand een haswell moederbord waarbij de onboard sata controller als passthrough device is in te stellen? Alle moederborden die ik tot nu toe als optie heb kunnen het iig niet.
dat komt omdat onboard sata controllers over het algemeen dat ook niet kunnen... waar je dan aan vast zit is de pricewatch: ASRock E3C224D4I-14S of een soortgelijk (SuperMicro heeft er een paar, maar zijn over het algemeen grotere moederborden).. deze hebben dus een 2e chipset, en die kan dan dus weer wel in passthrough mode (alsof je een HBA in je pci-e slot heb gepropt)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
Op Ivy Bridge borden lukte het af en toe nog wel eens, maar op Haswell is het inderdaad een stuk slechter gesteld.

Die ASRock of een Supermicro is inderdaad je enige optie.

Even niets...


Acties:
  • 0 Henk 'm!

  • PerlinNoise
  • Registratie: November 2012
  • Niet online
Matched: esxi
Ik wil graag een Esxi server gaan gebruiken, om mee te oefenen en te experimenteren met Linux distibuties en Windows server e.d.

Dit heb ik tot nu toe bedacht:

#ProductPrijsSubtotaal
1Intel Xeon E3-1225 v3 (SR14U) Boxed€ 204,90€ 204,90
1ASRock B85M Pro4€ 53,67€ 53,67
2Corsair CMV8GX3M1A1333C9€ 61,74€ 61,74
Bekijk collectie
Importeer producten
Totaal€ 320,31


Waar wil ik mee experimenteren?

Esxi/vsphere server "leren" en mee experimenteren
1 tot 2 - Max OSX (om bekend te worden met OSX) (inloggen met VNC of iets dergelijks)
1 tot 2 - Windows Server 2012 en Microsoft Exchange (experiment)
1 Centos Linux voor websites en Mysql e.d.
1 openSUSE voor experiment
1 linux distro voor downloadstation (Couchpotato, NZBdrone, SABnzbd, transmission, PLEX media server)
1 freeNAS, of OWNcloud voor fileserver
1 backup VM voor oa Macbook met AFP share

Verder later nog:

Xmpp server
Boekenserver (Calibre server op Linux Distro)
OpenVPN
Mailserver
pfSense (firewall, router) experiment

Zou graag de server zuinig zien, ik weet niet wat er mogelijk is. De Xeon zal niet heel zuinig zijn schat ik zo, maar ik weet niet hoeveel processorkracht ik nodig heb voor bovenstaand lijstje.
Harde schijven, SSD en behuizing kom ik wel uit.

Alternatief Neostrada/Vimexx/Versio met Hetzner en MXroute


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Matched: esxi
Pixarr schreef op vrijdag 06 juni 2014 @ 22:19:
Ik wil graag een Esxi server gaan gebruiken, om mee te oefenen en te experimenteren met Linux distibuties en Windows server e.d.

Dit heb ik tot nu toe bedacht:

#ProductPrijsSubtotaal
1Intel Xeon E3-1225 v3 (SR14U) Boxed€ 204,90€ 204,90
1ASRock B85M Pro4€ 53,67€ 53,67
2Corsair CMV8GX3M1A1333C9€ 61,74€ 61,74
Bekijk collectie
Importeer producten
Totaal€ 320,31


Waar wil ik mee experimenteren?

Esxi/vsphere server "leren" en mee experimenteren
1 tot 2 - Max OSX (om bekend te worden met OSX) (inloggen met VNC of iets dergelijks)
1 tot 2 - Windows Server 2012 en Microsoft Exchange (experiment)
1 Centos Linux voor websites en Mysql e.d.
1 openSUSE voor experiment
1 linux distro voor downloadstation (Couchpotato, NZBdrone, SABnzbd, transmission, PLEX media server)
1 freeNAS, of OWNcloud voor fileserver
1 backup VM voor oa Macbook met AFP share

Verder later nog:

Xmpp server
Boekenserver (Calibre server op Linux Distro)
OpenVPN
Mailserver
pfSense (firewall, router) experiment

Zou graag de server zuinig zien, ik weet niet wat er mogelijk is. De Xeon zal niet heel zuinig zijn schat ik zo, maar ik weet niet hoeveel processorkracht ik nodig heb voor bovenstaand lijstje.
Harde schijven, SSD en behuizing kom ik wel uit.
Ik zou mij meer zorgen maken over geheugen ipv processorkracht (waarom een xeon??)

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • PerlinNoise
  • Registratie: November 2012
  • Niet online
Geen matches
A1AD schreef op zaterdag 07 juni 2014 @ 07:59:
[...]


Ik zou mij meer zorgen maken over geheugen ipv processorkracht (waarom een xeon??)
Dat ben ik me bewust van. Xeon is speciaal voor servers, daarom heb ik die gekozen.
Welke processor is een betere keuze voor wat ik met dit systeem wil?

Alternatief Neostrada/Vimexx/Versio met Hetzner en MXroute


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Geen matches
"Server"-processoren is iets wat vaak misbegrepen wordt, er is meestal een gelijkwaardige Core i-series te vinden. De belangrijkste redenen om een Xeon te nemen is de mogelijkheid tot meerdere CPU's, mogelijkheid voor hogere aantal cores en specifieke modellen voor bepaalde use cases. Maar dat zijn meestal de CPU's die >500€ kosten en ook andere sockets en dure mobo's nodig hebben.

Vergelijkbaar:
pricewatch: Intel Core i5 4570 Boxed deze kost 40€ minder.
Dat prijsverschil kan je in meer geheugen steken .

Upgrade:
pricewatch: Intel Core i7-4790 Boxed deze kost 50€ meer.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Geen matches
Als je geen ECC-geheugen gaat gebruiken zou ik de pricewatch: Intel Core i5 4570 Tray nemen of zo :)

Verschil tussen i5-4570 en Xeon E3-1225v3 :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • PerlinNoise
  • Registratie: November 2012
  • Niet online
Matched: esxi
Phuncz schreef op zaterdag 07 juni 2014 @ 10:28:
"Server"-processoren is iets wat vaak misbegrepen wordt, er is meestal een gelijkwaardige Core i-series te vinden. De belangrijkste redenen om een Xeon te nemen is de mogelijkheid tot meerdere CPU's, mogelijkheid voor hogere aantal cores en specifieke modellen voor bepaalde use cases. Maar dat zijn meestal de CPU's die >500€ kosten en ook andere sockets en dure mobo's nodig hebben.

Vergelijkbaar:
pricewatch: Intel Core i5 4570 Boxed deze kost 40€ minder.
Dat prijsverschil kan je in meer geheugen steken .

Upgrade:
pricewatch: Intel Core i7-4790 Boxed deze kost 50€ meer.
Bedankt voor jullie reacties.
Is het onderstaande systeem goed voor 24/7 en draait dit ESXI zonder extra drivers?

#ProductPrijsSubtotaal
1Intel Core i7-4790 Boxed€ 254,60€ 254,60
1Gigabyte GA-Z87-HD3€ 89,50€ 89,50
1Corsair Carbide Air 540 Zwart€ 107,95€ 107,95
1Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU€ 113,50€ 113,50
1Seasonic G-Serie 360Watt€ 50,75€ 50,75
1Samsung 840 EVO 250GB€ 114,50€ 114,50
Bekijk collectie
Importeer producten
Totaal€ 731,31


En is dit systeem een beetje zuinig? Zonee, welk onderdeel verbruikt veel?

[ Voor 72% gewijzigd door PerlinNoise op 07-06-2014 19:04 ]

Alternatief Neostrada/Vimexx/Versio met Hetzner en MXroute


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Matched: esxi
Pixarr schreef op zaterdag 07 juni 2014 @ 17:38:
[...]


Bedankt voor jullie reacties.
Is het onderstaande systeem goed voor 24/7 en draait dit ESXI zonder extra drivers?

En is dit systeem een beetje zuinig? Zonee, welk onderdeel verbruikt veel?
Wat ik zou doen: i7 > i5 en geheugen op 32 GB (gezien de hoeveelheid vm's je wil draaien...). Je zou nog een extra HD er kunnen instoppen voor de minder kritische servers zodat je je SSD wat ademruimte geeft.

Heb je al gedacht aan een backup strategie?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
Bij bijna alle consumenten borden heb je custom drivers nodig. Voor de NIC die op dat bord zit zul je een driver moeten laden.

Even niets...


Acties:
  • 0 Henk 'm!

  • PerlinNoise
  • Registratie: November 2012
  • Niet online
Geen matches
FireDrunk schreef op zaterdag 07 juni 2014 @ 20:24:
Bij bijna alle consumenten borden heb je custom drivers nodig. Voor de NIC die op dat bord zit zul je een driver moeten laden.
Heb je een tuturial waar ik dat soort drivers kan vinden en hoe ik deze drivers kan laden?
A1AD schreef op zaterdag 07 juni 2014 @ 20:08:
[...]


Wat ik zou doen: i7 > i5 en 32gb geheugen (gezien de hoeveelheid vm's je wil draaien...). Je zou nog een extra HD er kunnen instoppen voor de minder kritische servers zodat je je SSD wat ademruimte geeft.

Heb je al gedacht aan een backup strategie?
Oké, i5, en ik begin met 24GB geheugen, mocht niet genoeg blijken dat stop ik er een reepje bij. Er komt minimaal een 3TB HDD in, waarschijnlijk meer. Daar ga ik regelmatig een backup op zetten van de SSD.

[ Voor 5% gewijzigd door PerlinNoise op 07-06-2014 21:21 ]

Alternatief Neostrada/Vimexx/Versio met Hetzner en MXroute


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Matched: esxi

Even niets...


Acties:
  • 0 Henk 'm!

  • thof
  • Registratie: Oktober 2008
  • Laatst online: 19:57

thof

FP ProMod
Matched: esxi
Pixarr schreef op vrijdag 06 juni 2014 @ 22:19:
(...)
Waar wil ik mee experimenteren?

Esxi/vsphere server "leren" en mee experimenteren
1 tot 2 - Max OSX (om bekend te worden met OSX) (inloggen met VNC of iets dergelijks)
1 tot 2 - Windows Server 2012 en Microsoft Exchange (experiment)
1 Centos Linux voor websites en Mysql e.d.
1 openSUSE voor experiment
1 linux distro voor downloadstation (Couchpotato, NZBdrone, SABnzbd, transmission, PLEX media server)
1 freeNAS, of OWNcloud voor fileserver
1 backup VM voor oa Macbook met AFP share

Verder later nog:

Xmpp server
Boekenserver (Calibre server op Linux Distro)
OpenVPN
Mailserver
pfSense (firewall, router) experiment

Zou graag de server zuinig zien, ik weet niet wat er mogelijk is. De Xeon zal niet heel zuinig zijn schat ik zo, maar ik weet niet hoeveel processorkracht ik nodig heb voor bovenstaand lijstje.
Harde schijven, SSD en behuizing kom ik wel uit.
Vergeet ook niet dat zo'n aantal VM's best wel wat disk I/O gaan gebruiken. Een enkele SSD kan misschien wat krap worden.

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


Acties:
  • 0 Henk 'm!

  • PerlinNoise
  • Registratie: November 2012
  • Niet online
Geen matches
thof schreef op zondag 08 juni 2014 @ 09:51:
[...]


Vergeet ook niet dat zo'n aantal VM's best wel wat disk I/O gaan gebruiken. Een enkele SSD kan misschien wat krap worden.
Is het dan beter twee 128gb SSD's te nemen?

[ Voor 3% gewijzigd door PerlinNoise op 08-06-2014 09:57 ]

Alternatief Neostrada/Vimexx/Versio met Hetzner en MXroute


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
Nee hoor, een fatsoenlijke SSD haalt duizenden IOPS.

In grote enterprise omgevingen hebben ze bij lange na nog niet overal SSD's en draait alles nog op Disks met speciale caches, en daar halen ze vaak minder dan 1 fatsoenlijke consumenten SSD.

Als je een 840 EVO/Pro, M500 (wel minimaal 240GB, want de 120GB is wat traag in sequentiele dingen), of de nieuwe MX100 (ook minimaal 240GB, want lager zijn een tikkie traag sequentieel) zul je nergens last van hebben.

Even niets...


Acties:
  • 0 Henk 'm!

  • PerlinNoise
  • Registratie: November 2012
  • Niet online
Geen matches
FireDrunk schreef op zondag 08 juni 2014 @ 10:18:
Nee hoor, een fatsoenlijke SSD haalt duizenden IOPS.

In grote enterprise omgevingen hebben ze bij lange na nog niet overal SSD's en draait alles nog op Disks met speciale caches, en daar halen ze vaak minder dan 1 fatsoenlijke consumenten SSD.

Als je een 840 EVO/Pro, M500 (wel minimaal 240GB, want de 120GB is wat traag in sequentiele dingen), of de nieuwe MX100 (ook minimaal 240GB, want lager zijn een tikkie traag sequentieel) zul je nergens last van hebben.
Bedankt, ik zal eens kijken naar de nieuwe MX100, want dat scheelt toch € 25,-.

Alternatief Neostrada/Vimexx/Versio met Hetzner en MXroute


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Geen matches
Pixarr schreef op zondag 08 juni 2014 @ 09:56:
Is het dan beter twee 128gb SSD's te nemen?
Ik denk dat ie bedoeld dat je met deze hoeveelheid vm's zeker een ssd moet nemen en dan niet moet gaan beknibbelen op capaciteit. Koop 'm liever wat groter, dat heb ik ook gedaan. Windows en OS X vm's kunnen aardig groot worden; ik zit nu aan de 20GB voor OS X en 50GB voor Windows 8.1. Mijn Linux vm's passen dan weer op een sd kaartje van 4GB :)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
Als je 50GB nodig hebt voor een Windows VM doe je toch iets verkeerd denk ik...
Dingen als downloads kun je juist beter niet op een SSD zetten, daar slijt het ding alleen maar van.
En echt grote programma's zou ik op een losse partitie zetten op een disk :)

Het is wel fijn uiteraard om de applicaties die je echt veel gebruikt op de SSD te hebben, dan heb je er de meeste lol van, maar 50GB vind ik persoonlijk best veel...

Even niets...


Acties:
  • 0 Henk 'm!

  • PerlinNoise
  • Registratie: November 2012
  • Niet online
Matched: esxi
ppl schreef op zondag 08 juni 2014 @ 21:03:
[...]

Ik denk dat ie bedoeld dat je met deze hoeveelheid vm's zeker een ssd moet nemen en dan niet moet gaan beknibbelen op capaciteit. Koop 'm liever wat groter, dat heb ik ook gedaan. Windows en OS X vm's kunnen aardig groot worden; ik zit nu aan de 20GB voor OS X en 50GB voor Windows 8.1. Mijn Linux vm's passen dan weer op een sd kaartje van 4GB :)
Ik hou het even op 250gb SSD, mocht ik ruimte te kort komen kan ik er een SSD bij kopen, tegen die tijd zijn ze ook weer een stuk goedkoper.

Dit heb ik zover:
#ProductPrijsSubtotaal
1Intel Core i5 4570 Boxed€ 164,50€ 164,50
1ASRock H87M Pro4€ 64,-€ 64,-
1WD Green WD30EZRX, 3TB€ 90,91€ 90,91
1Corsair Carbide 200R Closed€ 49,95€ 49,95
1Netgear Prosafe GS105E€ 27,11€ 27,11
1Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU€ 113,50€ 113,50
1Crucial Ballistix Sport BLS8G3D1609DS1S00CEU€ 60,50€ 60,50
1Seasonic G-Serie 360Watt€ 50,75€ 50,75
1Samsung 840 EVO 250GB€ 114,50€ 114,50
Bekijk collectie
Importeer producten
Totaal€ 735,72


Toch maar voor een Asrock mobo gekozen vanwege dat deze zuinig is. Enige waar ik over twijfel is de NIC, omdat ik gelezen heb dat sommige problemen hebben met de driver voor Esxi 5.5

Alternatief Neostrada/Vimexx/Versio met Hetzner en MXroute


Acties:
  • 0 Henk 'm!

  • thof
  • Registratie: Oktober 2008
  • Laatst online: 19:57

thof

FP ProMod
Geen matches
FireDrunk schreef op zondag 08 juni 2014 @ 10:18:
Nee hoor, een fatsoenlijke SSD haalt duizenden IOPS.

In grote enterprise omgevingen hebben ze bij lange na nog niet overal SSD's en draait alles nog op Disks met speciale caches, en daar halen ze vaak minder dan 1 fatsoenlijke consumenten SSD.

Als je een 840 EVO/Pro, M500 (wel minimaal 240GB, want de 120GB is wat traag in sequentiele dingen), of de nieuwe MX100 (ook minimaal 240GB, want lager zijn een tikkie traag sequentieel) zul je nergens last van hebben.
Zo blijf ik ook leren, ik was bang dat zo'n aantal VM's toch wel voor wat issues zou kunnen zorgen. Maar je hebt gelijk, vaak draaien bedrijven nog op schijven en daar gaat het ook ;)
ppl schreef op zondag 08 juni 2014 @ 21:03:
[...]

Ik denk dat ie bedoeld dat je met deze hoeveelheid vm's zeker een ssd moet nemen en dan niet moet gaan beknibbelen op capaciteit. Koop 'm liever wat groter, dat heb ik ook gedaan. Windows en OS X vm's kunnen aardig groot worden; ik zit nu aan de 20GB voor OS X en 50GB voor Windows 8.1. Mijn Linux vm's passen dan weer op een sd kaartje van 4GB :)
Capaciteit ook, maar dat lijkt mij toch iets wat hij het beste zelf in kan schatten. Een enkele 128GB ssd zal ik zeker niet doen, dat is erg krap qua capaciteit maar zo ver waren we inmiddels ook al.

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


Acties:
  • 0 Henk 'm!

Verwijderd

Matched: esxi
Welke crucial SSD is beter voor in je ESXI Server de M500 240 GB of de nieuwe MX100 256GB?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
In theorie de M500 (CiPHER zei iets over meer ECC en betere encoding ofzo)
Maar in de praktijk zul je er weinig van merken.

Even niets...


Acties:
  • 0 Henk 'm!

  • Phyt_
  • Registratie: Oktober 2009
  • Laatst online: 16:55
Geen matches
Ik heb de x100 256gb erin geknald, gaat als een raket, iig draaien nu 3vm's op.

You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking


Acties:
  • 0 Henk 'm!

  • nielsn
  • Registratie: November 2010
  • Laatst online: 30-09 17:19
Matched: esxi
Momenteel heb ik dit systeem geassembleerd:
#ProductPrijsSubtotaal
1AMD Athlon 5350 Boxed€ 48,-€ 48,-
1ASRock AM1H-ITX€ 47,-€ 47,-
1Fractal Design Core 1000 USB 3.0€ 31,47€ 31,47
1Intel Gigabit CT Desktop Adapter€ 21,-€ 21,-
1Crucial BLT8G3D1608ET3LX0CEU€ 76,17€ 76,17
1Seasonic Power Adapter 90W - 19V€ 0,-€ 0,-
1Crucial MX100 256GB€ 82,85€ 82,85
Bekijk collectie
Importeer producten
Totaal€ 306,49


Nu ben ik een beetje aan het experimenteren met ESXi en vSphere client. Op mijn SSD heb ik mijn datastore gezet. Wanneer ik het goed begrijp komen dan hier de VM's op te staan welke ik wil gaan gebruiken?

Ik heb nog een schijf liggen welke ik wil koppelen aan een FreeNAS VM (geen ZFS of iets dergelijks, gewoon één schijf), het is dan de bedoeling dat de overige VM's (Windows en Linux) hierop data kunnen lezen en wegschrijven.
Hoe kan ik in vSphere instellen dat FreeNAS deze schijf beschikbaar stelt aan de overige VM's?

Mijn moederbord heeft de volgende SATA aansluitingen:
  • 2 x SATA3 6.0 Gb/s Connectors by AMD AM1 Series Socket 25W Quad-Core APU, support NCQ, AHCI and Hot Plug
  • 2 x SATA3 6.0 Gb/s Connectors by ASMedia ASM1061, support NCQ, AHCI and Hot Plug
Moet ik bepaalde instellingen in het BIOS veranderen om dit werkend te krijgen, of is dit gewoonweg niet mogelijk met mijn moederbord?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Geen matches
Je kunt kijken of je één van de twee SATA-controllers met PassThrough door kunt geven aan FreeNAS, andere optie is een local RDM en weer een optie is er een datastore van maken en daar een VMDK op zetten die je aan FreeNAS geeft.

Let wel dat als FreeNAS geen ZFS pool heeft, je ook geen Plugins kunt gebruiken. Je kunt dus wel een UFS-volume aanmaken, maar het heeft ook nadelen :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • nielsn
  • Registratie: November 2010
  • Laatst online: 30-09 17:19
Geen matches
Wanneer de plugins toch niet gaan werken zonder ZFS kan ik de schijf net zo goed aan een normale Linux VM hangen ipv FreeNAS.
Ik ga straks eens of ik een van de controllers via PassThrough door kan geven aan een VM.

Iemand nog tips of zoekwoorden waarover ik me nog extra moet inlezen?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Geen matches
Er is niks op tegen om ZFS te gebruiken, je moet alleen weten waar de sterke, en in dit geval, de zwakke punten liggen :) Met één VMDK en geen enkele vorm van RAID (wat je toch al niet had gehad) ben je met ZFS net zo goed of zo slecht af als met UFS. Je hebt nog steeds een aantal van de sterke punten, alleen niet allemaal :)

Ik heb zelf ook FreeNAS draaien op VMware, maar single click Sabnzbd+ of Transmission deployen vond ik interessant genoeg om dat als plugin op FreeNAS te doen ipv er een VMware-VM voor in te richten :P Alleen beetje jammer dat je op de vSwitch promiscuous mode aan moet zetten, maar daar kom ik thuis ook wel overheen :P Was het zakelijk geweest dan had ik FreeNAS niet gevirtualiseerd :+

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • gitaarwerk
  • Registratie: Augustus 2001
  • Niet online

gitaarwerk

Plays piano,…

Geen matches
[b][message=42386228,noline] Was het zakelijk geweest dan had ik FreeNAS niet gevirtualiseerd :+
Ik vond het stiekem best relaxed om FreeNas te virtualiseren toen ik de server zakelijk gebruikte :)

Ontwikkelaar van NPM library Gleamy


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Geen matches
Zakelijk (in ieder geval waar ik nu werk) spelen er hele andere dingen dan die paar honderd euro aan hardware en die grijpstuivers aan stroom :+

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • nielsn
  • Registratie: November 2010
  • Laatst online: 30-09 17:19
Matched: esxi
Helaas, mijn host ondersteund geen passthrough volgens vSphere :-(

Eens kijken of ik er dan alleen Ubuntu server opzet zonder ESXi...

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Matched: esxi
Waarom zou er geen ESXi op je AMD bordje kunnen? Zou gewoon moeten werken?
Dat VMware.com zegt dat het niet supported is, wil niet zeggen dat het niet kan :)

Even niets...


Acties:
  • 0 Henk 'm!

  • nielsn
  • Registratie: November 2010
  • Laatst online: 30-09 17:19
Geen matches
Ik heb het nu ook wel draaien met een Windows 7 vm, wil er nog minimaal 1 Ubuntu server langs hebben draaien waarop sickbeard, sabnzbd, headphones, Plex e.d. op komt te staan.

Met mijn huidige kennis krijg ik de HDD voor de opslag niet draaiend. Hierdoor moet ik me eerst even inlezen.

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Matched: esxi
FireDrunk schreef op zondag 08 juni 2014 @ 21:13:
Als je 50GB nodig hebt voor een Windows VM doe je toch iets verkeerd denk ik...
Als je het net geïnstalleerd hebt wel ja maar als je het eenmaal in gebruik hebt genomen niet meer. Het is ook niet onverstandig om je in te lezen over hoe de virtual disk in VMware producten werkt, zeker in combinatie met dingen als snapshots en het terughalen van diskspace. Deze vm bevat Windows 8.1 (met alle updates sindsdien) en MS Office 2013 plus een aantal andere kleine pakketten zoals de vSphere Client (ik zit op een Mac dus dit is mijn manier om ESXi te kunnen beheren naast de cli). Meestal heb ik dan nog 1 of 2 snapshots.
Dingen als downloads kun je juist beter niet op een SSD zetten, daar slijt het ding alleen maar van.
En echt grote programma's zou ik op een losse partitie zetten op een disk :)
Ja en? Koop je die ssd nou om te gebruiken of om op de kast te laten verstoffen?
Het is wel fijn uiteraard om de applicaties die je echt veel gebruikt op de SSD te hebben, dan heb je er de meeste lol van, maar 50GB vind ik persoonlijk best veel...
Dan ben je echt niks gewend :P Die 50GB voor een Windows machine is echt niks. Op werk hebben we de c-schijf al naar de 150GB en voor sommige users al naar de 200GB moeten ophogen. Zij weten dan alsnog maar een paar GB free diskspace te creëren. Er zijn diverse software pakketten en ook games die enorm groot zijn (grote software pakketten zijn de hoofdreden waarom we op werk zulke grote c-schijven nodig hebben). Daarnaast kent Windows ook nog een leuke offline files functionaliteit (reden nummer 2; bij sommigen gaat dit richting de 30~40GB). Ook dat kan behoorlijk wat ruimte in beslag nemen.

Anyway, het is handig om even te kijken naar wat je huidige machines zoal aan ruimte in beslag nemen (de stille hint die in mijn post zit). Dan kun je tenminste iets wetenschappelijker gokken hoe groot de ssd voor je ESXi doos zou moeten zijn. Dat kan een ander niet voor je doen. Houdt het wel wat ruimer aan, een ssd die helemaal vol staat presteert niet zo best (net zoals dat bij hdd's het geval is).
FireDrunk schreef op vrijdag 13 juni 2014 @ 15:12:
Waarom zou er geen ESXi op je AMD bordje kunnen? Zou gewoon moeten werken?
Dat VMware.com zegt dat het niet supported is, wil niet zeggen dat het niet kan :)
Maar wees dan heel bedachtzaam bij upgrades. Het zou niet de eerste keer zijn dat VMware zomaar support voor bepaalde hardware in een nieuwere versie eruit heeft gesloopt. Andere opties voor ESXi zijn kvm (als je dan toch voor Linux gaat), XenServer en Hyper-V. Die zijn wat soepeler met de hardware eisen dan VMware.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Matched: esxi
ppl schreef op zondag 15 juni 2014 @ 15:16:
[...]

Als je het net geïnstalleerd hebt wel ja maar als je het eenmaal in gebruik hebt genomen niet meer. Het is ook niet onverstandig om je in te lezen over hoe de virtual disk in VMware producten werkt, zeker in combinatie met dingen als snapshots en het terughalen van diskspace. Deze vm bevat Windows 8.1 (met alle updates sindsdien) en MS Office 2013 plus een aantal andere kleine pakketten zoals de vSphere Client (ik zit op een Mac dus dit is mijn manier om ESXi te kunnen beheren naast de cli). Meestal heb ik dan nog 1 of 2 snapshots.
Allemaal waar, maar voor de gemiddelde thuisgebruiker die een simpel Remote Desktop VMetje heeft draaien is 50GB veel.
[...]

Ja en? Koop je die ssd nou om te gebruiken of om op de kast te laten verstoffen?
Oh je moet zeker je SSD gebruiken, helemaal mee eens. Ik bedoel meer. Het is zonde om je SSD keihard te laten werken 's nachts om je downloads van 50GB+ uit te pakken terwijl jij ligt te slapen... Dan slijt hij zonder dat jij er direct lol van hebt. Als je op de download zit te wachten, is uitpakken op een SSD juist weer super nuttig.

Ik bedoel meer, downloaden naar een SSD is vaker verspilling dan pure winst.
[...]

Dan ben je echt niks gewend :P Die 50GB voor een Windows machine is echt niks. Op werk hebben we de c-schijf al naar de 150GB en voor sommige users al naar de 200GB moeten ophogen. Zij weten dan alsnog maar een paar GB free diskspace te creëren. Er zijn diverse software pakketten en ook games die enorm groot zijn (grote software pakketten zijn de hoofdreden waarom we op werk zulke grote c-schijven nodig hebben). Daarnaast kent Windows ook nog een leuke offline files functionaliteit (reden nummer 2; bij sommigen gaat dit richting de 30~40GB). Ook dat kan behoorlijk wat ruimte in beslag nemen.

Anyway, het is handig om even te kijken naar wat je huidige machines zoal aan ruimte in beslag nemen (de stille hint die in mijn post zit). Dan kun je tenminste iets wetenschappelijker gokken hoe groot de ssd voor je ESXi doos zou moeten zijn. Dat kan een ander niet voor je doen. Houdt het wel wat ruimer aan, een ssd die helemaal vol staat presteert niet zo best (net zoals dat bij hdd's het geval is).
Zie eerste antwoord, een thuis VM voor een paar prutsdingen staat in geen enkele verhouding tot een enterprise VDI :)
[...]

Maar wees dan heel bedachtzaam bij upgrades. Het zou niet de eerste keer zijn dat VMware zomaar support voor bepaalde hardware in een nieuwere versie eruit heeft gesloopt. Andere opties voor ESXi zijn kvm (als je dan toch voor Linux gaat), XenServer en Hyper-V. Die zijn wat soepeler met de hardware eisen dan VMware.
Mja, dat geld ook voor Intel... Dat geld simpelweg voor *alle* niet door VMware officieel ondersteunde hardware... In mijn ogen niet een reden om voor de een of de ander te kiezen...

Even niets...


Acties:
  • 0 Henk 'm!

  • DJSnels
  • Registratie: Juli 2009
  • Laatst online: 30-09 19:12
Matched: esxi
Ik ben ook op zoek naar een relatief zuinige homeserver met ESXi als basis.
Tot nu toe ben ik met de volgende configuratie tevreden:

#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v3 Boxed€ 234,90€ 234,90
1Supermicro X10SL7-F€ 219,95€ 219,95
1Fractal Design Node 804€ 103,03€ 103,03
2Kingston ValueRAM KVR16E11/8€ 78,30€ 156,60
1Seasonic G-Serie 360Watt€ 49,95€ 49,95
Bekijk collectie
Importeer producten
Totaal€ 764,43


Maar wat me opvalt is het Supermicro X10SL7-F bord niet ondersteund wordt voor ESXi volgens de Supermicro compatibility guide, en blijkbaar niet alleen omdat de onboard controller niet in RAID modus mag staan:
http://www.supermicro.nl/support/resources/OS/C222.cfm

Toch zie ik deze setup hier regelmatig voorbijkomen. Draaien jullie dit bord allemaal enkel icm de LSI2308 in passthrough?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Matched: esxi
"Officieel" support voor VMware is duur, en kost veel tijd en moeite.

"Onofficieel" ondersteund ESXi bijna alle hardware... Van AMD tot Intel, van SCSI tot Fibre Channel, van DDR1 tot DDR3, van Realtek NIC's via Broadcom tot Intel NIC's, van AHCI tot SAS.

Het is alleen niet door SuperMicro gegarandeerd... Je kan niet bij hun aankloppen met een klacht "Hej, zus en zo werkt niet onder ESXi", waarom? Heel simpel, dit bord is daar niet voor bedoeld in hun portofolio, en ze willen niet dat elk verkocht bord hun ESXi tickets oplevert. Zo simpel is het.

Freakjam heeft dat bord volgens mij, en daar werkt het volgens mij prima.

[ Voor 30% gewijzigd door FireDrunk op 16-06-2014 22:28 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • DJSnels
  • Registratie: Juli 2009
  • Laatst online: 30-09 19:12
Matched: esxi
FireDrunk schreef op maandag 16 juni 2014 @ 22:27:
"Officieel" support voor VMware is duur, en kost veel tijd en moeite.

"Onofficieel" ondersteund ESXi bijna alle hardware... Van AMD tot Intel, van SCSI tot Fibre Channel, van DDR1 tot DDR3, van Realtek NIC's via Broadcom tot Intel NIC's, van AHCI tot SAS.

Freakjam heeft dat bord volgens mij, en daar werkt het volgens mij prima.
Toppie, ik zie ook dat er überhaupt maar 1 bordje van alle Supermicro C222/C224/C226 chipsets als compatible aangegeven wordt.
Nu hopen dat de onboard controller (non-LSI) in RAID1 nog wel geaccepteerd wordt, maar daar ben ik een beetje bang voor. Blijkbaar hebben ze de support van veel onboard RAID controllers eruit gegooid sinds 5.5

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
Onboard RAID heeft *nooit* gewerkt. De controllers in AHCI mode werken bijna altijd, maar nooit in RAID mode.

Even niets...


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Geen matches
Dat zijn gewoon embedded lsi controllers veelal van HBA niveau.
edit: -misread-

[ Voor 12% gewijzigd door analog_ op 17-06-2014 21:02 ]


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online
Matched: esxi
FireDrunk schreef op zondag 15 juni 2014 @ 15:51:
Allemaal waar, maar voor de gemiddelde thuisgebruiker die een simpel Remote Desktop VMetje heeft draaien is 50GB veel.
Mijn punt: weet liever iets zeker dan dat je alles stoelt op aannames wat je nu doet. 50GB hoeft helemaal niet veel te zijn, dat kan ook ontzettend weinig tot normaal zijn. Ik ga er vanuit dat men begrijpt dat het alleen een voorbeeld is en ze zich bedenken dat het wel handig is om even te kijken naar wat hun eigen installaties aan ruimte in beslag nemen; we zitten hier immers op Tweakers.net en niet op fok.nl hoewel ik zo langzamerhand hier de indruk van het tegenovergestelde begin te krijgen...
Oh je moet zeker je SSD gebruiken, helemaal mee eens. Ik bedoel meer. Het is zonde om je SSD keihard te laten werken 's nachts om je downloads van 50GB+ uit te pakken terwijl jij ligt te slapen... Dan slijt hij zonder dat jij er direct lol van hebt. Als je op de download zit te wachten, is uitpakken op een SSD juist weer super nuttig.
Het levert ook een stil en zuinig systeem op. Als je niet al teveel download is dat prima te doen. Is het erg veel data dan zou ik ook eerder gaan kijken naar iets met een harde schijf. Daar gaat nou eenmaal meer data op dan op een ssd. Goed om eens verder te kijken maar om nou direct iets te gaan afschieten is mij iets te snel.
Zie eerste antwoord, een thuis VM voor een paar prutsdingen staat in geen enkele verhouding tot een enterprise VDI :)
Famous last words! Als ik kijk naar enterprise omgevingen dan zit daar veel minder data (Windows, applicaties, data van de users) dan bij menig thuisgebruiker. Dat komt omdat in enterprise omgevingen het om vele users gaat en dingen al snel heel erg duur worden dus houden ze alles stevig in hun greep. Die drempel is er bij thuisgebruikers niet.
Mja, dat geld ook voor Intel... Dat geld simpelweg voor *alle* niet door VMware officieel ondersteunde hardware... In mijn ogen niet een reden om voor de een of de ander te kiezen...
Yup, dat geldt voor alle hardware maar het is wel degelijk een goede reden om te kiezen voor iets anders. Als je graag vm's wil draaien heb je namelijk maar 2 keuzes: je hardware inruilen voor iets dat wel werkt met de software of het juist andersom doen: de software inruilen voor iets dat wel met je hardware werkt. Dat laatste is aanzienlijk goedkoper dan dat eerste waardoor deze keuze dan ook veel meer voor de hand ligt. Zeker nu de concurrentie niet bepaald onderdoet voor VMware. Je kunt natuurlijk ook op zoek gaan naar community drivers e.d. maar zoals gezegd loop je wel een risico bij een upgrade (reden waarom velen hun ESXi niet upgraden).

Acties:
  • 0 Henk 'm!

  • wtdeuce
  • Registratie: November 2009
  • Laatst online: 25-09 15:16
Matched: esxi
Hallo allemaal,

Ik wil over ongeveer een week zo'n 1700 euro gaan investeren in een ESXi-server, en ik wilde hem eigenlijk graag even laten keuren door jullie als professionals. Straks heb ik alles gekocht en in elkaar geknutseld, en is het huilen dat ik een verkeerd onderdeel heb besteld. Better safe than sorry ;)

Ik heb ooit eerder gedacht aan een AMD-oplossing, maar het prijsverschil vond ik nihil, en ik lees veelal goede verhalen over systemen onder Intel. Dus bij deze:

#ProductPrijsSubtotaal
1Intel Xeon E3-1230V2 Boxed€ 203,33€ 203,33
1Supermicro X9SCA-F€ 174,49€ 174,49
4WD Red SATA 6 Gb/s WD30EFRX, 3TB€ 103,51€ 414,04
1Lian Li PC-A76WX€ 204,50€ 204,50
1Sandisk Extreme USB 3.0 Flash Drive 32GB Zwart€ 28,58€ 28,58
4Kingston ValueRAM KVR16E11/8EF€ 78,89€ 315,56
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 135,76€ 135,76
1Seasonic G-Serie 360Watt€ 49,95€ 49,95
1Samsung 840 EVO 250GB€ 111,85€ 111,85
Bekijk collectie
Importeer producten
Totaal€ 1.638,06


Mijn idee is om ESXi op de USB stick te laten leven, en de (na de welbekende flash) SAS-controller door te geven aan een VM (ik zit te denken aan ZFSguru: Ubuntu-VM aanmaken, daarop ZFSguru draaien in virtualbox en installeren op een partitie van de SSD, als dit gaat...). Verder wil ik nog een aantal losse servers draaien die (bijna) allemaal NFS-toegang krijgen tot de ZFS-pool die in ZFSguru leeft.

Mijn argumenten voor de hardware:
  • CPU: VT-d en ECC ondersteuning
  • Mobo: ECC ondersteuning, aantal pci-poorten, geheugensloten en netwerk-aansluitingen. Ik kan op de website alleen niet veel vinden over ondersteund geheugen (op wat niet/slecht leverbaar geheugen na) en verder vind ik ook niet veel testimonials over systemen met dit moederbord. Ik realiseer me dat ik misschien de BIOS moet gaan flashen voor ondersteuning van de CPU, maar ik heb nog een Celeron G2020 liggen.
  • Geheugen: ECC, 32GB (max van mobo), maar hopelijk compatible met het mobo...
  • SAS controller: ik lees op GoT een hoop goede verhalen over dit ding.
  • Voeding: volgens mij zou 360W genoeg moeten zijn, ook bij het aanleggen van een extra array van schijven (er gaan er 12 in de kast).
  • Kast: er passen een hoop schijven in, veel ruimte, en Lian Li fanboy.
Zou dit moeten gaan lukken? Alvast bedankt!

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Geen matches
- Waarom Sandy/Ivy Bridge ipv Haswell?
- Waarom de controller niet onboard?
- Ik werd er laatst op gewezen dan die controller al wat ouder is :P
- Met dat budget nu al het geheugen in je server maxxed, misschien een E5 overwegen?
- Waarom 4 schijven? Welke RAID-vorm wil je draaien? ZFS wil graag een macht van 2 aan dataschijven, en daar bovenop komt dus nog eens de parity-schijf / schijven :)

Zie bijvoorbeeld onderstaande setup, komt toevallig ( O-) ) een heel eind overeen met wat ik heb :P
#ProductPrijsSubtotaal
1Intel Xeon E5-1620 v2 Tray€ 254,03€ 254,03
1Supermicro X9SRL-F€ 247,51€ 247,51
5WD Red SATA 6 Gb/s WD30EFRX, 3TB€ 103,51€ 517,55
1Lian Li PC-A76WX€ 204,50€ 204,50
1Sandisk Extreme USB 3.0 Flash Drive 32GB Zwart€ 28,58€ 28,58
1Supermicro SNK-P0050AP4€ 34,99€ 34,99
2Samsung M393B2G70BH0-YH909€ 115,66€ 231,32
1Seasonic G-Serie 360Watt€ 49,95€ 49,95
1Crucial MX100 256GB€ 86,95€ 86,95
Bekijk collectie
Importeer producten
Totaal€ 1.655,38


Je hebt dan maar 6 poorten die je door kunt geven ipv de 8 op de SAS-controller, maar je kunt er altijd nog een controller bij zetten en als je je aan het 2DATA+PARITY houdt had je die 2e controller in je eigen setup ook nodig :)

[ Voor 3% gewijzigd door Paul op 18-06-2014 07:51 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Matched: esxi
Je wil ESXi draaien, met daarin een Ubuntu-VM en *daar* in ZFSguru?
Dat lijkt mij niet echt handig...

Je wil ZFSguru gewoon als VM draaien op ESXi, en het is niet op Linux gebaseerd maar op FreeBSD, nogal een verschil.

Die geheugenmodules werken niet op dat moederbord, socket 1155/1150 kan maximaal 8GB UDIMM's aan.
Enige borden die 16GB UDIMM's aan kunnen zijn de nieuwe Avoton bordjes, of als het RDIMM's zijn, socket 2011 borden.

Voor de rest heeft Paul zeker een punt, neem een Haswell set, die zijn recenter en zuiniger. Als je zoveel geheugen wil, neem inderdaad een Socket 2011 systeem.

Een onboard controller is zeker een optie in jouw geval, kijk bijvoorbeeld naar de SuperMicro X10SL-F (http://www.supermicro.com...rd/Xeon/C220/X10SL7-F.cfm).

Qua geheugen moet je dan nog steeds 4*8GB UDIMM nemen.

Paul heeft ook gelijk over de schijven, je kan 4 schijven gebruiken, maar dan is RAID10 (2 mirrors) de beste oplossing. Neem liever 5 schijven voor RAIDZ of 6 schijven voor RAIDZ2.

[ Voor 39% gewijzigd door FireDrunk op 18-06-2014 08:36 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Matched: esxi
FireDrunk schreef op woensdag 18 juni 2014 @ 08:34:
Je wil ESXi draaien, met daarin een Ubuntu-VM en *daar* in ZFSguru?
Dat lijkt mij niet echt handig...
Oh, dat had ik nog gemist ja. Waarom zou je, als je al ESXi hebt draaien, in een VM nog een keer met VirtualBox in de weer willen?
Die geheugenmodules werken niet op dat moederbord, socket 1155/1150 kan maximaal 8GB UDIMM's aan.
Het zijn toch ook 8 GB modules? Die 16 in het typenummer zette me ook op het verkeerde been maar zowel de prijs per stuk als een keer klikken naar de pricewatch leerde me dat het 8 GB modules zijn :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18:38
Geen matches
Ik zie toch echt: pricewatch: Samsung M393B2G70BH0-YH909 in zijn lijstje?

Oh lol, dat is jouw lijstje 8-)

Afbeeldingslocatie: http://3.bp.blogspot.com/-qWFMKCoHw9A/UQQYuhZOvAI/AAAAAAAAQwA/wt_t_4dqDiA/s1600/nothing_to_see_here.jpg

[ Voor 35% gewijzigd door FireDrunk op 18-06-2014 08:56 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • wtdeuce
  • Registratie: November 2009
  • Laatst online: 25-09 15:16
Matched: esxi
Allereerst bedankt voor de reacties!
FireDrunk schreef op woensdag 18 juni 2014 @ 08:34:
Je wil ESXi draaien, met daarin een Ubuntu-VM en *daar* in ZFSguru?
Dat lijkt mij niet echt handig...
Sorry dat ik onduidelijk was hierover, maar ik wilde ZFSguru op een bepaalde manier booten zodat ik het kan installeren (ik ben eerlijk gezegd te goedkoop om een optisch station aan te schaffen voor een live-cd en ik heb er geen los liggen). Dus zorgen dat ik ZFSguru kan booten, en het dan installeren op een partitie van de SSD. Maar wellicht is er een veel makkelijkere manier om te realiseren wat ik wil; ik heb niet erg veel ervaring met dit soort spul.

Die CPU-keuze heb ik puur gebaseerd op configs die ik heb gezien op het internet; ik heb niet erg veel verstand over server-materiaal, maar in ieder geval bedankt voor de tip! Zuinigheid vind ik altijd goed om in de gaten te houden.

Jullie raden een onboard controller aan. Is dit werkbaar als ik een SSD aan ESXi wil geven om VMs op te zetten, en er verder HDDs in wil prikken voor ZSFguru? Moet ik de controller dan splitsen/met RDM werken? Ik las in dit topic dat dat laatste erg onbetrouwbaar is.

Verder heb ik niet een enorme honger naar RAM. Ik wil mijn eerste pool rond de 10 TB bouwen zoals jullie zien, en die verdubbelen of ver-drievoudigen. 32gb voor 30tb storage zou volgens de richtlijnen moeten volstaan. De hoofdreden voor het volgooien van de capaciteit van het moederbord is simpelweg dat ik niet over een paar jaar op zoek wil naar op dat moment slecht leverbaar equivalent RAM dat ik al heb.

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Geen matches
Waar je rekening mee moet houden met ZFS op een VM:

optie 1: RDM (Raw Device Mapping)

Dit is de minst aan te raden manier; RDM kan redelijk wat problemen geven, daarnaast heeft ZFS niet 'volledige' toegang tot de disks, waardoor het minder efficiënt zijn ding kan doen.


optie 2: PCI Passthrough

Hiermee geef je een controller door aan je VM, die ziet dan alles wat aan die controller hangt; let daarbij wel op dat voor ZFS je een controller wilt hebben die in HBA modus staat (ook wel IT mode genoemd).
Genoemde controller kan zowel een on-board als een PCI-e kaart zijn (denk aan de IBM M1015), maar let wel op dat niet alle controllers even goed gesupport worden door esx, dus dit vereist enig onderzoek (of dit topic doorlopen om te zien wat anderen hebben gedaan).

Het voordeel hierbij (t.o.v. RDM) is dat je instance -direct- op je disks zit, hierdoor kan ZFS functioneren alsof je het op een stand-alone systeem hebt geïnstalleerd, daar staat wel tegenover dat ESX totaal geen toegang heeft tot die disks in een directe manier (niet alsof ESX ZFS kan, maar als je dus extra VMs wilt draaien vanaf je ZFS disks, dan moet je dus ESX laten verbinden met je ZFS VM (via NFS or CIFS), alvorens je dit kan gebriuken)... ook betekend dit dat je systeem dus minimaal 2 controllers nodig heeft; 1 voor de passthrough, en 1 voor de VMFS store van ESX zelf.. maar in de meeste gevallen waarbij je een on-board controller hebt die het ondersteund, zit er ook nog een 2e (normale) controller op die je daar voor kan gebruiken (let wel, betekend dus dat je wel de goede hdds in de goede sata/sas poorten moet stoppen op je moederbord, anders zit ie aan de verkeerde controller)

Het enige echte vereiste hierbij is dat je CPU dus VT-d support, anders gaat dit niet echt werken.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:37
Matched: esxi
V_Lichtenberg schreef op woensdag 18 juni 2014 @ 10:41:
Sorry dat ik onduidelijk was hierover, maar ik wilde ZFSguru op een bepaalde manier booten zodat ik het kan installeren (ik ben eerlijk gezegd te goedkoop om een optisch station aan te schaffen voor een live-cd en ik heb er geen los liggen). Dus zorgen dat ik ZFSguru kan booten, en het dan installeren op een partitie van de SSD. Maar wellicht is er een veel makkelijkere manier om te realiseren wat ik wil; ik heb niet erg veel ervaring met dit soort spul.
Je kunt in VMware een ISO aan een VM koppelen :) Je moet wel op een of andere manier VMware op je USB-stick krijgen, maar er zijn wel howto's te vinden om dat vanuit Windows te doen. Alternatief is de ISO met Unetbootin op een (2e) USB-stick zetten en daarmee booten en dan installeren naar de 1e USB-stick :)
Jullie raden een onboard controller aan. Is dit werkbaar als ik een SSD aan ESXi wil geven om VMs op te zetten, en er verder HDDs in wil prikken voor ZSFguru?
Een controller is een controller :) Je hebt twee controllers nodig om (betrouwbaar) een ZFS-VM onder VMware te draaien (eentje voor de datastore waar [minimaal] je ZFS-VM op draait, en eentje om door te geven aan die VM waar je data-schijven aan hangen), maar die mogen best beide onboard zitten :) Bij het bordje van FireDrunk geef je de LSI 2308 door aan je ZFS-VM, bij het bord dat ik link de 6 poorten van de chipset. In FireDruks bord hang je je SSD aan de poorten van de chipset, op mijn bord hang je die aan de 'SCU'.
Verder heb ik niet een enorme honger naar RAM. 32gb voor 30tb storage zou volgens de richtlijnen moeten volstaan.
Aan de ene kant is die richtlijn voor consumenten een beetje overtrokken, zoveel vraag je thuis ook weer niet op dat je zo'n grote cache nodig hebt, aan de andere kant is het ook een VMware-machine :) Één Windows Server-VM en je bent al snel 4 GB armer. Ga je testen met Exchange dan is dat al snel 8 GB. Dat is een kwart van je totaal :P Het staat en valt dus met hetgeen je er mee wilt gaan doen :)

[ Voor 17% gewijzigd door Paul op 18-06-2014 11:11 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • wtdeuce
  • Registratie: November 2009
  • Laatst online: 25-09 15:16
Matched: esxi
Paul schreef op woensdag 18 juni 2014 @ 10:59:
[...]
Je kunt in VMware een ISO aan een VM koppelen :) Je moet wel op een of andere manier VMware op je USB-stick krijgen, maar er zijn wel howto's te vinden om dat vanuit Windows te doen. Alternatief is de ISO met Unetbootin op een (2e) USB-stick zetten en daarmee booten en dan installeren naar de 1e USB-stick :)
Sorry, ik ben denk ik weer niet helemaal duidelijk geweest. Ik wil ZFSguru vanuit een SSD (partitie)draaien., niet vanuit een USBstick (mi teveel slijtage door writes). Ik zoek dus een manier om ZFSguru op een SSD-partitie te installeren, zodat ik die kan booten.
Paul schreef op woensdag 18 juni 2014 @ 10:59:
Een controller is een controller :) Je hebt twee controllers nodig om (betrouwbaar) een ZFS-VM onder VMware te draaien (eentje voor de datastore waar [minimaal] je ZFS-VM op draait, en eentje om door te geven aan die VM waar je data-schijven aan hangen), maar die mogen best beide onboard zitten :) Bij het bordje van FireDrunk geef je de LSI 2308 door aan je ZFS-VM, bij het bord dat ik link de 6 poorten van de chipset. In FireDruks bord hang je je SSD aan de poorten van de chipset, op mijn bord hang je die aan de 'SCU'.
Ahh OK, dus het aantal poorten op die borden is een samenstelling van meerdere controllers, die ik per stuk kan doorgeven aan verschillende OS's? Dus een controller met de SSD aan ESXi en een controller met meerdere schijven aan de ZFS-VM?

@DXaroth: bedankt voor de uitleg. Ik was aanvankelijk inderdaad dat laatste van plan :)
Pagina: 1 ... 72 ... 116 Laatste

Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!

Lees voor je begint goed de start post en blijf ontopic.