You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking
Wat in ieder geval stuk is in ESXi 5.1 is het doorgeven van USB controllers, waarschijnlijk omdat het een PCI device is. Maar ja, met een G1610 zal je toch wel geen passthrough ambieren.Phyt_ schreef op maandag 19 augustus 2013 @ 15:43:
Als ik het begrijp is dit 100% compatible met ESXi 5.1 ?
Of moet er nog een losse intel nic bij ?.
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Voordat die 3770 het uberhaupt een beetje druk krijgt staat die 1TB al op springen.
Voor zo'n CPU is een SSD echt *minimaal*, en liever zelfs 2. Anders heb je zat aan een i3 of zelfs een Celeron.
Bovendien is dat Gigabyte bord niet echt super zuinig ofzo... 31W vind ik niet echt speciaal...
Even niets...
Hoi Sphere, ik snap je bericht niet helemaal? pci device usb?sphere schreef op dinsdag 20 augustus 2013 @ 12:46:
[...]
Wat in ieder geval stuk is in ESXi 5.1 is het doorgeven van USB controllers, waarschijnlijk omdat het een PCI device is. Maar ja, met een G1610 zal je toch wel geen passthrough ambieren.
You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 3330 Boxed | € 154,70 | € 154,70 |
1 | ASRock B85M-ITX | € 65,90 | € 65,90 |
4 | Western Digital WD RE (WD3000FYYZ), 3TB | € 237,99 | € 951,96 |
1 | Kingston KVR1333D3N9/8G | € 56,70 | € 56,70 |
1 | be quiet! Pure Power L7 300W | € 37,95 | € 37,95 |
Bekijk collectie Importeer producten | Totaal | € 1.267,21 |
Verder zit er nog 2.5" 100Gb in die draait op een simpel Silicon Image SATA kaartje (geplukt van eBay) voor alle datastores. Daarnaast heb ik er een RFXcomm trx433 aanhangen via USB (doorgegeven middels VT-d) voor mijn domotica systeem (domotiga).
Systeem draait ESXi 5.1 zonder problemen (ook geen driver gekloot). De RED's zijn op het mobo geprikt en direct doorgegeven aan NAS4Free. De volgende dingen draaien erop:
- jumphost/mail/LDAP (Ubuntu 12.04 LTS)
- ZFS NAS (NAS4Free)
- domitica server (Ubuntu 12.10)
- Plex Media Server/Zoneminder (Ubuntu 12.04 LTS)
- vMCA voor iPad.
Systeem doet 33.1W idle (spinned down hd's), gemeten met een Voltcraft Energy Check 3000. ESXi licht getweaked en proc is met de bios van het mobo naar beneden gevoltmod. Ben er zeer tevreden over en ben langzaam begonnen met de rest van mijn servers uit te rangeren of te vervangen.
Compromises are for the weak
Settp die hier word aangegeven is niet echt krachtig om veel vm's te draaien.Phyt_ schreef op maandag 19 augustus 2013 @ 15:43:
Beste,
Toch maar besloten om even te posten hier, lees al tijdje het topic door.
Nu wil ik zelf een esxi host hebben draaien thuis, voor wat te spelen met vm's. En wat simpele servertjes draaien oa. Teamspeak / CS:GO Dedicated server. (max 10 man private). downloads ofzo wie weet.
Na het heen en weer klikken naar alle configs van iedereen, heb ik voor onderstaande nu een wensenlijst gemaakt.
Ik zal eerst met 1 WD 2tb earx(heb ik nog over) gaan starten als datastore, mogelijk dat ik dit later uitbreid met een hardware raid controller.Voor iets meer failsafe.
Ik heb voor de G1610 gekozen, omdat deze goedkoop is en volgens mij genoeg cpu power heeft.
En ik hem altijd kan upgraden naar iX cpu.
Als ik het begrijp is dit 100% compatible met ESXi 5.1 ?
Of moet er nog een losse intel nic bij ?.
# Product Prijs Subtotaal 1 Intel Celeron G1610 Boxed € 36,38 € 36,38 1 ASRock B75 Pro3-M € 55,50 € 55,50 1 Fractal Design Define R4 Pearl Black € 84,90 € 84,90 1 Corsair CMV16GX3M2A1333C9 € 109,90 € 109,90 1 Seasonic G-Serie 360Watt € 58,- € 58,- Bekijk collectie
Importeer productenTotaal € 344,68
Cs/go met goede framerate word ook mager, daarbij speeld jou internet ook een grote rol.
maar dat allemaal met een eenvoudige celeron proces is toch wel af te raden.
Hoe heb je die CPU in dat bord gekregen? Met een hamer?Tha_Butcha schreef op donderdag 22 augustus 2013 @ 13:54:
Mijn ESXi bakkie is eindelijk af en draait prima. Dus hier de specs als referentie voor anderen:
# Product Prijs Subtotaal 1 Intel Core i5 3330 Boxed € 154,70 € 154,70 1 ASRock B85M-ITX € 65,90 € 65,90 4 Western Digital WD RE (WD3000FYYZ), 3TB € 237,99 € 951,96 1 Kingston KVR1333D3N9/8G € 56,70 € 56,70 1 be quiet! Pure Power L7 300W € 37,95 € 37,95 Bekijk collectie
Importeer productenTotaal € 1.267,21
Verder zit er nog 2.5" 100Gb in die draait op een simpel Silicon Image SATA kaartje (geplukt van eBay) voor alle datastores. Daarnaast heb ik er een RFXcomm trx433 aanhangen via USB (doorgegeven middels VT-d) voor mijn domotica systeem (domotiga).
Systeem draait ESXi 5.1 zonder problemen (ook geen driver gekloot). De RED's zijn op het mobo geprikt en direct doorgegeven aan NAS4Free. De volgende dingen draaien erop:
- jumphost/mail/LDAP (Ubuntu 12.04 LTS)
- ZFS NAS (NAS4Free)
- domitica server (Ubuntu 12.10)
- Plex Media Server/Zoneminder (Ubuntu 12.04 LTS)
- vMCA voor iPad.
Systeem doet 33.1W idle (spinned down hd's), gemeten met een Voltcraft Energy Check 3000. ESXi licht getweaked en proc is met de bios van het mobo naar beneden gevoltmod. Ben er zeer tevreden over en ben langzaam begonnen met de rest van mijn servers uit te rangeren of te vervangen.
Even niets...
LOL, verkeerde proc geselecteerd. Moet de asrock b75 pro3-m zijn natuurlijk.FireDrunk schreef op donderdag 22 augustus 2013 @ 14:06:
[...]
Hoe heb je die CPU in dat bord gekregen? Met een hamer?
Compromises are for the weak
Vette proc, zo'n Asrock b75 pro3-mTha_Butcha schreef op vrijdag 23 augustus 2013 @ 01:26:
[...]
LOL, verkeerde proc geselecteerd. Moet de asrock b75 pro3-m zijn natuurlijk.
mobo (of voor sommige een proc
met core i5 3570
Kingston 2x4GB DDR3 PC10666 CL9 ValueRam
Oude 250gb sata disk als data store.
En dat lijkt allemaal te werken, vanavond eens kijken of ik wat meer tijd heb om het rustig te testen.
Zal dan ook een vm uitrollen en even mijn Videokaart eruit halen
[ Voor 4% gewijzigd door Phyt_ op 23-08-2013 10:12 ]
You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking
Ik kwam hier van de week met een vergelijkbare setup tot ~45W idle..Phyt_ schreef op vrijdag 23 augustus 2013 @ 09:09:
hmm gister even aan het testen geweest, op mijn huidge hardware die ik gebruik als dagelijkse pc voor van alles en nog wat.
mobo (of voor sommige een proc) Asus P8Z77-M PRO
met core i5 3570
Kingston 2x4GB DDR3 PC10666 CL9 ValueRam
Oude 250gb sata disk als data store.
En dat lijkt allemaal te werken, vanavond eens kijken of ik wat meer tijd heb om het rustig te testen.
Zal dan ook een vm uitrollen en even mijn Videokaart eruit halenen kijken wat het verbruik is, zal niet al te zuinig zijn schat ik zo.
Was wel 16GB en een Foxconn Z77
Misschien hoort dit niet in dit topic maar had graag wat advies gehad.
Momenteel heb ik thuis een ESXi servertje draaien met oude hardware.
Specificaties
Moederbord: Gigabyte EP43-DS3
CPU: Intel Core 2 Duo E8400
RAM: 8GB DDR2-800
ESXI 5.1
Guests
- Windows Server 2012 Essentials: File, printing, VPN, PC backups,...
- Enkele Linux test servertjes
Opslag
- verschillende sata schijven die ik nog heb of had liggen. Waaronder 2x 1Tb en de rest 250 a 300GB schijven.
Vragen
Heeft iemand ervaring of is het een goed idee om een aantal fysieke schijven als datastore te gebruiken en daarin een vmdk die de volledige grootte van de schijf gebruikt en die dan aan de Windows Server 2012 Essentials te geven. Dan in 2012 Server gebruik maken van Storage Pools. Zodat ik altijd schijven kan toevoegen als ik meer ruimte nodig heb. Ik zit met de beperking dat de hardware geen VT-D ondersteunt vandaar het idee volledige schijf (datastore) benutten met een vmdk. Op deze Storage Pool is snelheid niet zo van belang. Er komen films en muziek op te staan.
Is dit een goed idee of beter af te raden? Gaat het CPU verbruik veel hoger of valt het wel mee? Kan de CPU dit wel aan? Gaat alles hierdoor veel trager werken? Wat bij een kapotte schijf, gewoon andere in en de Storage Pool neemt deze mee op en rebuild de nieuwe schijf?
Het kan, het is een kwestie van voorkeur. Let wel goed op dat je de VMDK niet groter maakt dan de disk, want dat kan gewoon (dus niet een 1TB VMDK uitdelen op een 1TB disk, want 1TB in VMware land is groter dan 1TB in harde schijf land)Is dit een goed idee of beter af te raden?
Merk je niet.Gaat het CPU verbruik veel hoger of valt het wel mee?
Ja hoor.Kan de CPU dit wel aan?
Trager dan wat?Gaat alles hierdoor veel trager werken?
Als je een raid level instelt wel ja.Wat bij een kapotte schijf, gewoon andere in en de Storage Pool neemt deze mee op en rebuild de nieuwe schijf?
[ Voor 83% gewijzigd door FireDrunk op 23-08-2013 15:57 ]
Even niets...
Ook niet vanuit de DCUI.
Realtek 8111F
Nog even Esxi 5.0 proberen en anders een intel kaartje opsnorren die wel ondersteunt word.
edit helaas, de hardware is dus niet compliant met esxi.
[ Voor 10% gewijzigd door Phyt_ op 23-08-2013 20:42 ]
You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking
Ik zoek nog een PCI-E HBA om door te geven aan freenas. Toevallig niemand 1tje tevel? De onboard HBA meegeven zou niet werken samen met een PCI-e kaartje voor de VM's. Is daar nu al duidelijkheid over?
Ik heb trouwens onderstaande besteld.
# | Product | Prijs | Subtotaal |
1 | Intel Core i5 3470 Boxed | € 167,45 | € 167,45 |
1 | MSI H77MA-G43 | € 62,45 | € 62,45 |
3 | Seagate Desktop HDD.15 (OEM), 4TB | € 148,- | € 444,- |
1 | Intel Gigabit CT Desktop Adapter | € 22,30 | € 22,30 |
2 | Kingston ValueRAM KVR16N11H/8 | € 57,46 | € 114,92 |
1 | Seasonic G-Serie 360Watt | € 58,- | € 58,- |
Bekijk collectie Importeer producten | Totaal | € 869,12 |
[ Voor 106% gewijzigd door A1AD op 24-08-2013 13:32 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
Even niets...
Lees eens de topicstart. Daar vind je heel veel duidelijkheidA1AD schreef op zaterdag 24 augustus 2013 @ 13:03:
Iemand de deze al eens getest? > http://www.ebay.com/itm/P...Cards&hash=item2c6e8920e5
Ik zoek nog een PCI-E HBA om door te geven aan freenas. Toevallig niemand 1tje tevel? De onboard HBA meegeven zou niet werken samen met een PCI-e kaartje voor de VM's. Is daar nu al duidelijkheid over?
Gewoon een heel grote verzameling snoertjes
true, had ik gedaan. hoopte dat er stiekem al iemand iets op gevonden hadCompizfox schreef op zaterdag 24 augustus 2013 @ 14:34:
[...]
Lees eens de topicstart. Daar vind je heel veel duidelijkheid
[ Voor 29% gewijzigd door A1AD op 25-08-2013 00:22 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
met core i5 3570
Kingston 2x4GB DDR3 PC10666 CL9 ValueRam
Intel Gigabit CT Desktop Adapter
Oude 250gb sata disk als data store.
Werkt op dit moment, ik heb mijn huidge 2 x 2tb disken doorgegeven met RDM. Zodat ik de data gewoon kon share en kon streamen vanaf mijn pch. Ik weet niet of daar een andere manier voor is, maar dit was best makkelijk te doen.
Ik heb nog een cresta power meter, liggen volgens mij van de Gamma, zijn die een beetje betrouwbaar als ik hier een meting mee doe?
You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking
Even niets...
Punt 5 is eveneens valide, je moet een virtuele FreeNAS installatie ook genoeg RAM geven om fatsoenlijk te werken. Dit is echter geen enkel probleem als je genoeg RAM in je systeem hebt zitten. Ik zie het ook niet als een reden om FreeNAS niet te virtualiseren maar puur als aandachtspunt.
Punt 6 is eveneens valide. FreeNAS heeft tijd nodig om op te starten dus je wanneer je een FreeNAS share als datastore gebruikt is deze niet direct beschikbaar. Niet relevant als je een aparte schijf gebruikt als datastore en niet relevant als je handmatig je machines start of een ander systeem hiervoor gebruikt.
Resumerend, punten 1, 2 en 3 vervallen als je passthrough gebruikt en punten 4, 5 en 6 zijn aandachtspunten maar geen redenen om FreeNAS niet te virtualiseren.
Dat artikel mist een hele grote "maar", je kan FreeNAS prima virtualiseren mits je met een aantal punten rekening houd tijdens het samenstellen van je machine.
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Mijn eisen zijn als volgt (van minst naar meest belangrijk):
Snel zuinig en betrouwbaar.
Daarom dacht ik in ieder geval aan ecc, raidz2, genoeg ram icm l2arc en zil...
Eerste ingeving na veel zoeken en uitzoeken was een supermicro board x9scm, xeon E3 1230v2 met 32gb ecc 6x3tb icm raidz2. Twee schijfjes voor vm's mirrored en 2 ssds voor l2arc en zil. En tenslotte een IBM m1015 kaartje. Echter schrok ik nogal van de totaal prijs.
Al zoekende naar goedkopere alternatieven kwam ik op slechts enkele plaatsen AMD processoren tegen. Echter het gros is Intel. Is daar een reden voor? In de startpost zie ik ook slechts 1 setup met AMD en deze voldoet niet aan mijn eisen. Daarom wil ik eigenlijk vragen of er hier nog mensen zijn die wellicht een setup draaien met AMD die (deels) aan mijn eisen voldoet?
Ook is twee schijfjes mirroren onder ESXi voor VM's lastig, er zijn weinig RAID controllers die werken, en als je ZFS draait is het natuurlijk zonde om op reguliere RAID je VM's op te slaan.
Beter neem je een klein 2.5" laptop schijfje, of een kleine SSD, waar je je ZFS installatie op doet, en share je de ZFS pool terug naar ESXi, en zet je daar je VM's op.
Je VM's zijn dan wel *afhankelijk* van je ZFS storage, maar persoonlijk vind ik dat niet zo erg.
En over kosten: Je wil ook wel een heleboel: Virtualisatie,ZFS, betrouwbaarheid, zuinig, ECC, L2ARC, ZIL... Dat is niet zomaar kattepis...
Je kan ook voor gewoon een NAS gaan met een G1610, 8GB RAM, een ASRock B75-Pro3-M en 4*4TB in RAIDZ1, dat is een stuk goedkoper, maar dan mis je een aantal puntjes.
Dus het is simpel: Something's gotta give...
(vertaling: Je zult ergens op moeten snijden, of je portemonnee opentrekken...)
Even niets...
Het is uiteindelijk een thuis oplossing en hoewel het geen kritische data is wil ik toch een hoge zekerheid m.b.t. mijn data.. Vandaar de keuze voor ECC en daarbij val je snel in het xeon-rijtje etc.. Dat maakt het gelijk een stuk duurder. Wellicht moet ik dan ook naar raidZ1 toe en de SSD's laten lopen..
In ieder geval bedankt voor je reactie, ik ga nu wat verder op zoektocht richting intel i.v.m. energieverbruik.
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
ECC vind ik persoonlijk ook van minder groot belang, maar goed, het is maar waar je je priorteiten legt.
Als je wil virtualiseren is het sowieso geen overbodige luxe, als je een (non recoverable) error in het RAM hebt van je HyperVisor, krakt er sowieso een hoop.
Even niets...
Dit snap ik niet helemaal, maar het idee staat me wel aanFireDrunk schreef op maandag 26 augustus 2013 @ 18:28:....
Beter neem je een klein 2.5" laptop schijfje, of een kleine SSD, waar je je ZFS installatie op doet, en share je de ZFS pool terug naar ESXi, en zet je daar je VM's op.
Je ssd gebruik je als datastore voor je freenas vm op te installeren (dus die ssd is puur voor esx, geen rdm oid), je schijven geef je via vt-d door aan je freenas vm en je freenas vm geeft op zijn beurt de raid z pool door aan esx dmv iscsi of nfs als een datastore voor de rest van je vm's.gassiepaart schreef op dinsdag 27 augustus 2013 @ 17:42:
[...]
Dit snap ik niet helemaal, maar het idee staat me wel aanDe SSD is dan een RDM? De installatie van een vm moet toch op een vmdk?
[ Voor 6% gewijzigd door A1AD op 27-08-2013 18:45 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
Daardoor gebruik je de SSD veel efficiënter
Even niets...
Heeft iemand hier al ervaring mee? En wat is het idle verbruik?
- Pantagruel
- Registratie: Februari 2000
- Laatst online: 14-09 10:44
Mijn 80486 was snel,....was!
:strip_icc():strip_exif()/u/3454/i486.jpg?f=community)
De heren van t Duitse blad C'T hebben een leuke setup gemaakt: zie een andere thread op T.net: Pantagruel in "Het grote zuinige server topic"pieter87 schreef op dinsdag 27 augustus 2013 @ 18:57:
Zijn er al mensen die een op Haswell gebaseerd systeem hebben gebouwd? Ik zie voornamelijk hier en in het zuinige server topic configuraties gebaseerd op Ivy Bridge voorbij komen. Ik wil graag een systeem met een I5 opzetten met daarbij een zuinig moederbord. Helaas kan ik hierover nog maar weinig informatie vinden. Ik zit zelf te denken aan het Asrock B85 Pro4 mobo. Mede doordat zijn B75 voorganger zo goed scoort. Helaas zijn hiervan (of andere goedkope zuinige Haswell mobo's) nergens goede reviews van te vinden.
Heeft iemand hier al ervaring mee? En wat is het idle verbruik?
(i know quote to self is bad ettiquette )
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Even niets...
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Even niets...
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
laat ons vooral je bevindingen weten.Rikkiz0r schreef op donderdag 29 augustus 2013 @ 20:42:
We zullen het zien, heb inmiddels ook al een ander cheapass sweex dingetje met een andere chip, ik ga het nu eerst daarmee proberen.
- Deze advertentie is geblokkeerd door Pi-Hole -
Verwijderd
Laat ik eerst beginnen met mijn achtergrond (lees NOOB ervaring met ESXi)
Ik heb een ESXi 4.1 draaien op een Primergy RX 300 S3 - 32 GB Ram - 3 gigabit poorten - Xeon processor (momenteel kan ik niet echt nakijken welk type) en dat brengt me direct bij hét probleem van de huidige ESXi - VERBRUIK
Zijn datastorage intern zijn SAS schijven plus een iSCSI naar synology via een Cisco 2950.
Zoals gezegd staat hij momenteel uit door zijn verbruik en ook geluid
Eerst even vernoemen, ik heb dit topic diagonaal doorgelezen dus vergeef me repetitieve vragen maar ik denk en vooral hoop dat NOOBIE's tegelijk dan ook wat hebben aan mijn vragen. Ik zie soms het bos door de bomen niet meer, verder is google wel al een hele goede vriend van mij geweest omtrent dit onderwerp.
Op mijn huidige staat pfSense, 2008R2 Domain Controller, Exchange 2008, MDT, SCCM, Ubuntu 12.1, ... ook redelijk wat CMS pakketten uitgetest zoals drupal, kentico ... swat daarmee hebben jullie een beeld.
Qua VM's was er voor mij maar 1 beperking en dat was dat ik geen W8, SRV 2012 door ESXi 4.1 kon draaien. Er bestaat wel een 'oplossing' maar daar ben ik niet aan begonnen.
Bon to the point ...
Eerst de vragen,
- Ik lees vaak dat je beter de ESXi boot via een USB Stick ? Mij lijkt het 'mooier', indien mogelijk, om dit op een SSD te installeren en dan vandaar op te booten ook al heeft het verder geen nut aangezien hij in RAM opgeladen is...
- Datastorage, ik heb willen verstaan dat een RAID mogelijk is MAAR dat je dat beter via een RAID controller kaart aanstuurt wegens compatibiliteitsproblemen, waarbij je bijv. Freenas installeert op een VM die dan op zijn buurt via de gemaakte RAID een iSCSI aanmaakt, die je dan terug kan mounten in ESXi ?
- Meerdere ESXi's laten draaien waardoor je dé kritische en minder kritische VM's van elkaar scheidt ? Ik snap de bedoeling wel maar ik zie niet hoe je dat praktisch aanpakt.
- Wat is ZFS, ik heb al door dat dat een bestandssysteem is maar verder geraak ik niet
- op 2 interne SATA 3 poorten een raid 1 builden met 2 SSD's waarop je de ESXi installeert. ESXi draait op RAM dus USB is genoeg maar ik zou het doen voor de verkregen datastorage en hierop dan pfSense, DC & VM Freenas installeren die automatisch starten bij het booten van ESXi (alhoewel ik me vragen stel hoe ESXi gaat reageren als zijn datastorage (zie puntje 2) nog niet up and running is.
- RAID Controller die pakweg 4 schijven in RAID 10 aanstuurt die dan op hun beurt beheert worden door VM Freenas
- 1 x ANTEC One (black, no psu, atx)
- 1 x ASROCK H77 Pro4-M
- 1 x INTEL Core i7 3770 (3.4 ghz, 8 mb, s1155, 77 watt, boxed)
- 1 x NOCTUA NH-C14 (s775, sAM2, s1366, sAM3, s1156, s1155, sFM1, s2011)
- 4 x KINGSTON ValueRam (8192 mb, 1600 mhz, CL11, 1.5 v, non-ecc, unbuffered)
- 4 x WESTERN DIGITAL Caviar Green (2000 gb, sata/600, 7200 rpm, 64 mb, 3.5")
- 2 x SAMSUNG 840 series Evo (250 gb, sata/600, 540 mbps, 520 mbps)
- 1 x Seasonic G-Serie 360Watt
- 1 x Silverstone SST-CP06 4x SATA
- 1 x IBM ServeRAID M5014
- 1 x 3Ware Multi-lane SATA Cable
- 1 x Intel Pro/1000 PT Dual Port
Zo alvast bedankt voor jullie reacties
[ Voor 2% gewijzigd door Verwijderd op 29-08-2013 22:43 . Reden: <li> gevonden ]
Werkt zonder problemen so far, gebruik hem als datastore voor mijn ZFSGuru VM.
Sil3515 confirmed to work dus
Dat maakt inderdaad weinig uit, de bootcyclus word er wel iets sneller van, maar na boot maakt het niets meer uit, en kan je in theorie de usb stick verwijderen (alleen kan je dan niks meer wijzigenVerwijderd schreef op donderdag 29 augustus 2013 @ 22:35:
Hopelijk is het hier dat ik een aantal vragen mag stellen in verband met een Whitebox ESXi machine.
Laat ik eerst beginnen met mijn achtergrond (lees NOOB ervaring met ESXi)
Ik heb een ESXi 4.1 draaien op een Primergy RX 300 S3 - 32 GB Ram - 3 gigabit poorten - Xeon processor (momenteel kan ik niet echt nakijken welk type) en dat brengt me direct bij hét probleem van de huidige ESXi - VERBRUIK, zo een 360 watt MAAR wat ik heb ik dolle pret met die machine !!! Direct dé reden waarom ik sowieso niet zonder meer wil/kan en zie het al een uitdaging om mij een Whitebox ESXi samen te stellen.
Zijn datastorage intern zijn SAS schijven plus een iSCSI naar synology via een Cisco 2950.
Zoals gezegd staat hij momenteel uit door zijn verbruik en ook geluid
Eerst even vernoemen, ik heb dit topic diagonaal doorgelezen dus vergeef me repetitieve vragen maar ik denk en vooral hoop dat NOOBIE's tegelijk dan ook wat hebben aan mijn vragen. Ik zie soms het bos door de bomen niet meer, verder is google wel al een hele goede vriend van mij geweest omtrent dit onderwerp.
Op mijn huidige staat pfSense, 2008R2 Domain Controller, Exchange 2008, MDT, SCCM, Ubuntu 12.1, ... ook redelijk wat CMS pakketten uitgetest zoals drupal, kentico ... swat daarmee hebben jullie een beeld.
Qua VM's was er voor mij maar 1 beperking en dat was dat ik geen W8, SRV 2012 door ESXi 4.1 kon draaien. Er bestaat wel een 'oplossing' maar daar ben ik niet aan begonnen.
Bon to the point ...
Eerst de vragen,
[list=1]
• Ik lees vaak dat je beter de ESXi boot via een USB Stick ? Mij lijkt het 'mooier', indien mogelijk, om dit op een SSD te installeren en dan vandaar op te booten ook al heeft het verder geen nut aangezien hij in RAM opgeladen is...
Hardware RAID is een mogelijkheid met een losse controller, Software RAID is op veel meer manieren mogelijk.• Datastorage, ik heb willen verstaan dat een RAID mogelijk is MAAR dat je dat beter via een RAID controller kaart aanstuurt wegens compatibiliteitsproblemen, waarbij je bijv. Freenas installeert op een VM die dan op zijn buurt via de gemaakte RAID een iSCSI aanmaakt, die je dan terug kan mounten in ESXi ?
Fake RAID (RAID op je moederbord) is sowieso *niet* mogelijk.
In het geval van Hardware RAID hoef je niet zo veel terug te sharen, in het geval van Software RAID zijn er ook weer vele mogelijkheden, waaronder iSCSI en NFS om het gemaakte volume terug te sharen aan ESXi.
Je kan meerdere servers maken, met dezelfde ESXi installatie en centrale storage (zoals een NAS) eronder hangen. Hierdoor kan je gebruik maken van VMWare HA (High Availability) als er dan 1 machine crasht, worden de VM's op de andere weer opgestart.• Meerdere ESXi's laten draaien waardoor je dé kritische en minder kritische VM's van elkaar scheidt ? Ik snap de bedoeling wel maar ik zie niet hoe je dat praktisch aanpakt.
Daar is een speciaal topic voor: Het grote ZFS topic• Wat is ZFS, ik heb al door dat dat een bestandssysteem is maar verder geraak ik niet
[/list]
Dat kan dus niet, onboard RAID werkt niet onder ESXi. Als de datastore niet online is bij het booten, zijn de VM's "Unkown" en kan hij ze gewoon niet starten. Als je datastore crasht tijdens het draaien van VM's stoppen de VM's gewoon keihard, maar blijft ESXi (bijna altijd) in de lucht.Momenteel zou ik er zo aan beginnen
[list=1]
• op 2 interne SATA 3 poorten een raid 1 builden met 2 SSD's waarop je de ESXi installeert. ESXi draait op RAM dus USB is genoeg maar ik zou het doen voor de verkregen datastorage en hierop dan pfSense, DC & VM Freenas installeren die automatisch starten bij het booten van ESXi (alhoewel ik me vragen stel hoe ESXi gaat reageren als zijn datastorage (zie puntje 2) nog niet up and running is.
Je wil Hardware RAID10 en FreeNAS? Waarom wil je dan FreeNAS, wil je dat alleen gebruiken voor de webinterface, of wil je gebruik gaan maken van ZFS? Want dan moet je geen Hardware RAID gaan gebruiken.• RAID Controller die pakweg 4 schijven in RAID 10 aanstuurt die dan op hun beurt beheert worden door VM Freenas
[/list]
Die M5014 is een leuke Hardware RAID controller, en werkt prima onder ESXi voor het maken van je RAID1 datastore met SSD's. Je zou dan via VT-d je onboard controller juist weer kunnen gebruiken voor ZFS.Welke onderdelen
- 1 x ANTEC One (black, no psu, atx)
- 1 x ASROCK H77 Pro4-M
- 1 x INTEL Core i7 3770 (3.4 ghz, 8 mb, s1155, 77 watt, boxed)
- 1 x NOCTUA NH-C14 (s775, sAM2, s1366, sAM3, s1156, s1155, sFM1, s2011)
- 4 x KINGSTON ValueRam (8192 mb, 1600 mhz, CL11, 1.5 v, non-ecc, unbuffered)
- 4 x WESTERN DIGITAL Caviar Green (2000 gb, sata/600, 7200 rpm, 64 mb, 3.5")
- 2 x SAMSUNG 840 series Evo (250 gb, sata/600, 540 mbps, 520 mbps)
- 1 x Seasonic G-Serie 360Watt
- 1 x Silverstone SST-CP06 4x SATA
- 1 x IBM ServeRAID M5014
- 1 x 3Ware Multi-lane SATA Cable
- 1 x Intel Pro/1000 PT Dual Port
Je moet je niet excuseren voor onwetendheid... Is helemaal geen schandeIk hoop zoals gezegd niet in herhaling te vallen dus hiervoor alvast mijn exuses
Graag gedaan.Zo alvast bedankt voor jullie reacties
Even niets...
Verwijderd
De aankoop zoals hierboven beschreven zal het worden.
- Booten op RAID 1 met 2 SSD's sata/600 via Intel H77 en de kritische pfSense en DC hierop
- Via IBM ServeRAID M5014 de RAID aanroepen binnen ESXi gekoppeld aan WDC caviar green
Wat kan IT toch fun zijn of ben ik nu nerd
[ Voor 58% gewijzigd door Verwijderd op 30-08-2013 14:45 ]
Kan een TS dit misschien even toevoegen onder het stukje dat ik geschreven heb? Dus zo:Rikkiz0r schreef op donderdag 29 augustus 2013 @ 22:46:
[...]
Werkt zonder problemen so far, gebruik hem als datastore voor mijn ZFSGuru VM.
Sil3515 confirmed to work dus
Doorgeven van de onboard HBA
Goedkoper is het om een cheap-ass HBA te kopen, die je gebruikt om de datastore aan te hangen. Je kunt dan de onboard HBA doorgeven aan je guest en gebruiken voor ZFS. Het probleem hierbij is wel dat er niet zo heel veel SATA-kaartjes zijn die door ESXi ondersteund worden. Enkele dingen die wel en niet werken:
Werkt:
- HBAs op basis van sil3112 (eBay!)
- HBAs op basis van sil3114 (hetzelfde als sil3112, maar met 4 ipv 2 SATA-poorten) (eBay!)
- HBAs op basis van sil3515
Gewoon een heel grote verzameling snoertjes
Punt 1 uit je lijstje : Gaat NIET werken. De fakeraid van je moederbord zal door ESX gewoon niet herkend worden als controller dus de disken die er aan hangen zijn niet beschikbaar. Zie ook de reactie van FireDrunk.Verwijderd schreef op vrijdag 30 augustus 2013 @ 14:39:
Heel vriendelijk bedankt voor u antwoord.
De aankoop zoals hierboven beschreven zal het worden.In verband met moederbord ASROCK H77 Pro4-M kan er iemand zeggen waar zich de 2 SATA poorten bevinden die gestuurd worden door Intel H77 ... ?
- Booten op RAID 1 met 2 SSD's sata/600 via Intel H77 en de kritische pfSense en DC hierop
- Via IBM ServeRAID M5014 de RAID aanroepen binnen ESXi gekoppeld aan WDC caviar green
Wat kan IT toch fun zijn of ben ik nu nerd
Punt 2: De WDC Green disken ondersteunen geen TLER. Dit betekent heel vaak dat hardware raidcontrollers vinden dat ze te lang moeten wachten op een disk die een interne error aan het recoveren is. Aangezien dit langer kan zijn dan waar de controller op wacht heb je kans dat de controller denkt dat de disk is overleden en gooit hem uit de RAID set. Let hier dus even goed op anders zien we je snel terug met een Datarecovery topic ...
Voor de SATA poort layout kan je het beste de manual van je moederbord even raadplegen. Daar staat het gegarandeerd in.
edit: oeps, dat kan niet, dan moet ESXi nog steeds ergens van booten, dat is niet genoemd, zou dan een losse disk op de SATA 2 poorten moeten zijn?
[ Voor 21% gewijzigd door db I Delirium op 30-08-2013 16:16 ]
Even niets...
dus je Sil3525 als esi datastore voor je ZFS VM en geef je dan de onboard controller via vt-d door aan je ZFS machine? want dit werkt niet met een ASM1061Rikkiz0r schreef op donderdag 29 augustus 2013 @ 22:46:
[...]
Werkt zonder problemen so far, gebruik hem als datastore voor mijn ZFSGuru VM.
Sil3515 confirmed to work dus
- Deze advertentie is geblokkeerd door Pi-Hole -
Dat werkt prima.A1AD schreef op vrijdag 30 augustus 2013 @ 19:34:
[...]
dus je Sil3525 als esi datastore voor je ZFS VM en geef je dan de onboard controller via vt-d door aan je ZFS machine? want dit werkt niet met een ASM1061
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Die ASM1061 kun je wel doorgeven.
Gewoon een heel grote verzameling snoertjes
ik heb gisteren al een paar snelle testen gedaan met men build en kan jullie al meegeven dat de dell ucs-51 sas5 hba perfect werkt voor een datastore ookal geef ik de onboard controller door aan freenas. zo een kaartjes kan je echt heel goedkoop vinden op e-bay. ik heb die van mij in de tijd gekocht met een bolle elco. een nieuwe elco op plaatsen was zo gepiept je moet wel in acht nemen dat deze chipset geen schijven groter als 2tb kan aansturen.Compizfox schreef op zaterdag 31 augustus 2013 @ 01:14:
Met een ASM1061 als datastore voor ESXi niet hoor
Die ASM1061 kun je wel doorgeven.
- Deze advertentie is geblokkeerd door Pi-Hole -
Mierenneukmodus: groter *dan*...
Maar voor lokale SSD's is dat geen probleem, ik zie weinig mensen hier die een >2TB SSD in hun ESXi bak zetten
Even niets...
Nu heb ik dus geen idee waar ik een 10-port raid controller vind die een beetje zacht in prijs is en nog eens compatible is met ESXi/Nas4Free.
Any toughts?
Ik krijg binnenkort een ASM1061 binnen, dan test ik het wel even.Compizfox schreef op zaterdag 31 augustus 2013 @ 01:14:
Met een ASM1061 als datastore voor ESXi niet hoor
Die ASM1061 kun je wel doorgeven.
i5 / i7 ITX en dan een 10 poort controller? Waarom wil je in vredesnaam ITX maar wel ruimte voor veel schijven innemen... Pak dan mATX dan kan je tenminste nog voor 32GB RAM gaan.DaBeast.net schreef op zaterdag 31 augustus 2013 @ 17:01:
Ik ga binnenkort ook een i5 of i7 ESXI servertje draaien. Ik zat te denken in een Mini-ITX mobo, met dan een custom 3d geprinte drive rack. Hier gaat Nas4Free op draaien, met als eerst een pool van 5 schijven in Raidz-2 (van 3 of 4 tb hier ben ik nog niet uit). Achteraf wanneer de schijven weer goedkoper zijn of whatever, wil ik dan nog eens met 5 schijven uitbreiden.
Nu heb ik dus geen idee waar ik een 10-port raid controller vind die een beetje zacht in prijs is en nog eens compatible is met ESXi/Nas4Free.
Any toughts?
Even niets...
Zoals dit, maar dan zonder port rep's
Zoals ik dus al zei ga ik eerst 5 schijven in RaidZ, de andere plaatsen ga ik gebruiken als uitbreidingsmogelijkheden, of voor wanneer ik de schijven wil laten mirroren ofzo. Zowiezo minimum een I5 zodat met VT-D de raid kaart kan doorgeven. Met mini-itx is het uiteraard leuk dat alles compact blijft.
Wat ik er voorlopig op wil draaien:
-Nas4Free
-Ubuntu server met dingen zoals een MTA server, teamspeak etc
- Couchpotato/Sickbeard (al ben ik nog niet uit als ik deze ook op ubuntu via python of gewoon een gestrippte windows xp ofzo)
-Gestripte windows xp (tinyxp, maar dan met een legit key
Al zullen in de toekomst er nog wel wat dingen bijkomen zoals windows server met een AD die dan kan dienen als test omgeving.
Edit:32GB kan je ook met Mini-itx hoor: ROG Maximus VI Impact van Asus bv
[ Voor 3% gewijzigd door DaBeast.net op 31-08-2013 21:52 ]
Mag je doen, maar het is al redelijk bekend dat het niet werktRikkiz0r schreef op zaterdag 31 augustus 2013 @ 20:25:
[...]
Ik krijg binnenkort een ASM1061 binnen, dan test ik het wel even.
Gewoon een heel grote verzameling snoertjes
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Euhm, als een van de TS'en: vind je nu eigenlijk niet dat dat ding dan helemaal niet thuis hoort in een zuinig server topic? Met die eisen is een G1610 of een i3 toch al meer als genoeg?DaBeast.net schreef op zaterdag 31 augustus 2013 @ 21:35:
http://forums.overclockers.com.au/showthread.php?t=1090849
Zoals dit, maar dan zonder port rep's(ik kan me voorstellen dat de preformanceloss erg groot word).
Zoals ik dus al zei ga ik eerst 5 schijven in RaidZ, de andere plaatsen ga ik gebruiken als uitbreidingsmogelijkheden, of voor wanneer ik de schijven wil laten mirroren ofzo. Zowiezo minimum een I5 zodat met VT-D de raid kaart kan doorgeven. Met mini-itx is het uiteraard leuk dat alles compact blijft.
Wat ik er voorlopig op wil draaien:
-Nas4Free
-Ubuntu server met dingen zoals een MTA server, teamspeak etc
- Couchpotato/Sickbeard (al ben ik nog niet uit als ik deze ook op ubuntu via python of gewoon een gestrippte windows xp ofzo)
-Gestripte windows xp (tinyxp, maar dan met een legit key) puur en alleen voor de netwerk share op achtergrond te scannen zodat kans op infectie via torrent etc kleiner word.
Al zullen in de toekomst er nog wel wat dingen bijkomen zoals windows server met een AD die dan kan dienen als test omgeving.
Edit:32GB kan je ook met Mini-itx hoor: ROG Maximus VI Impact van Asus bv
Indertijd is er nooit dieper op ingegaan over wat de limieten waren om hier in dit topic setups te bediscussieren. Maar een i7 voor dat soort werk vind ik echt zwaar overkill

Een onderclockte i7 is zuiniger dan een i5? Your call, als je hem af en toe laat transcoderen zit je natuurlijk met HT en race-to-idle.DaBeast.net schreef op zondag 01 september 2013 @ 22:48:
Oke I7 is inderdaad misschien overkill. Het punt is dat ik hem ga underclocken, waardoor hij toch zuinig(er) blijft. I3 en G1610 hebben immers geen VT-D... Ik wil namelijk mijn raid kaart doorgeven.
Als je systeem echt 100% idle is, maakt het weinig uit, maar met lichte load maakt het wel uit ten opzichte van een i5.
Even niets...
Intel Core i7 4770S / 3.1 GHz - 8 MB cache heeft een TDP van 65 watt
Intel Core i5 4430S / 2.7 GHz - 6 MB cache heeft ook een TDP van 65 watt
Welliswaar is de I7 van de Sandy Bridge generatie en de I5 van de Haswell generatie. Maar volgens mij zijn er best nog andere I7 procesoren die "redelijk" energiezuinig zitten? Heb namelijk 2 willekeurige cpu's als voorbeeld genomen. Correct me if I'm wrong ofcourse.
Idle verbruiken die processoren allemaal ongeveer evenveel, scheelt maar enkele procenten.
Onder load scheelt het wel iets, maar niet meer dan wat je wint aan rekenkracht. Dus het verbruik is misschien wel hoger, maar die stroom wordt ook nuttig gebruikt.
Als je lichte loads hebt, is een i7 misschien inefficienter omdat deze meer cache wakker moet houden, waar een i5 met iets minder cache toe kan. Dit merk je waarschijnlijk niet in de performance, maar het zal hooguit een paar watt schelen in verbruik.
Niet iets waar je je dus heel erg druk over hoeft te maken. In dat geval zou ik lekker voor een i5 gaan omdat deze gewoon goedkoper is...
Neem dus ook geen -S versie, dat is alleen maar nuttig als je in een kleine kast zit te werken met beperkte koelmogelijkheden. Voor gewone PC's/servers scheelt het niets in verbruik.
[ Voor 11% gewijzigd door FireDrunk op 02-09-2013 13:10 ]
Even niets...
Ik ben van plan een esxi bakje te maken en zou graag wat input van jullie willen hebben.
Ik ben wat aan het zoeken elke onderdelen ik het beste kan gebruiken.
Energiezuinigheid staat bovenaan, het gaat mij vooral om storage en wat kleine "server-spielerei"
Ik heb al een aantal WD greens liggen, deze zou ik willen gebruiken.
Snelheid is niet echt nodig, behalve de doorvoer snelheid van de HDD (in raid, of zfs) naar het netwerk.
Een zo klein mogelijke case zou fijn zijn, dan past hij mss nog in de meterkast
prijs is natuurlijk ook belangrijk.
Ik heb al wat opstellingen gezien hierboven van rond de 350 euro.
ik ben benieuwd of het goedkoper en zuiniger kan qua voeding. als het geheel minder dan 50 watt(of minder) draait ben ik al blij.
Even niets...
Ontwikkelaar van NPM library Gleamy
ik had dit eerder in deze thread gezien:FireDrunk schreef op dinsdag 03 september 2013 @ 14:32:
Wat heb je zelf al gevonden / bedacht?
Daar zit wel spul tussen wat mij zuinig lijkt. Ik vraag me alleen af hoeveel watt dat verbruikt.Phyt_ schreef op maandag 19 augustus 2013 @ 15:43:
# Product Prijs Subtotaal 1 Intel Celeron G1610 Boxed € 36,38 € 36,38 1 ASRock B75 Pro3-M € 55,50 € 55,50 1 Fractal Design Define R4 Pearl Black € 84,90 € 84,90 1 Corsair CMV16GX3M2A1333C9 € 109,90 € 109,90 1 Seasonic G-Serie 360Watt € 58,- € 58,- Bekijk collectie
Importeer productenTotaal € 344,68
mijn WD Green WD20EARXs hebben sata6 gb/s, ga ik er in watvoor geval ook op achteruit als ik die op een sata 3gb poort aansluit?
en heb ik om deze schijven direct naar een guest te sturen vt-d nodig? ik dacht van niet...
De reden dat ik voor zfs zou kiezen is omdat ik de WD Green WD20EARX als schijven gebruik, ik zou Raid5 of raidz1 willen gebruiken, en heb begrepen dat die greens niet lekker werken met raid controllers en raid5 dus eigelijk af valtgitaarwerk schreef op dinsdag 03 september 2013 @ 15:58:
Sowieso als je zfs wilt hebben in je esxi bak, gaat je prijs omhoog ;-)
De opstelling hoeft niet retesnel te zijn, het gaat voornamelijk om grotere opslag en redelijke doorvoer.
Dat is zo ongeveer de zuinigste setup nu mogelijk (op een 19V systeem na).Kek schreef op dinsdag 03 september 2013 @ 16:14:
[...]
ik had dit eerder in deze thread gezien:
[...]
Daar zit wel spul tussen wat mij zuinig lijkt.
Hangt nogal af van je OS, ik heb hier zo'n setje (alleen dan met een ASRock H77 Pro4-M) op 20W idle met een 1e generatie Wide Input PicoPSU (wat ouder dan de huidige)Ik vraag me alleen af hoeveel watt dat verbruikt.
Nee.mijn WD Green WD20EARXs hebben sata6 gb/s, ga ik er in watvoor geval ook op achteruit als ik die op een sata 3gb poort aansluit?
Dat ligt er een beetje aan wat je ermee wil doen, wil je er ZFS op draaien, dan zou ik het niet doen, ga je Linux MD RAID of helemaal geen RAID draaien, kan het wel.en heb ik om deze schijven direct naar een guest te sturen vt-d nodig? ik dacht van niet...
Zoals ik hierboven al zeg is ZFS combineren met RDM (want dat is je enige optie als je geen VT-d en een extra controller gebruikt) niet echt een goede oplossing. Er zijn verhalen dat het kan, maar het is een nogal shady gebied... Liever niet dus.[...]
De reden dat ik voor zfs zou kiezen is omdat ik de WD Green WD20EARX als schijven gebruik, ik zou Raid5 of raidz1 willen gebruiken, en heb begrepen dat die greens niet lekker werken met raid controllers en raid5 dus eigelijk af valt
De opstelling hoeft niet retesnel te zijn, het gaat voornamelijk om grotere opslag en redelijke doorvoer.
Even niets...
betekent dat ik met een 80 watt pico psu de hele setup plus 5 schijven (greens) kan draaien met enige load?FireDrunk schreef op dinsdag 03 september 2013 @ 19:02:
Hangt nogal af van je OS, ik heb hier zo'n setje (alleen dan met een ASRock H77 Pro4-M) op 20W idle met een 1e generatie Wide Input PicoPSU (wat ouder dan de huidige)
waar zou ik verder op moeten letten?
Ja. Ter referentie, ik draai hier een setup met 5 x 7200RPM schijven + aparte SAS controller (HBA/M1015) + 32GB geheugen + een relatief onzuinig moederbord ivt dat van jou + nog wat fans en SSD's en mijn verbruik zit rond de 100W.Kek schreef op dinsdag 03 september 2013 @ 19:23:
[...]
betekent dat ik met een 80 watt pico psu de hele setup plus 5 schijven (greens) kan draaien met enige load?
waar zou ik verder op moeten letten?
Jouw setup (moederbord + CPU) gebruik de helft (20W vs 43W van mijn kale setup met wat fans en een SSD) dus die adapter zou alles prima moeten kunnen trekken. Je hebt wel geen overschot.
Zoals FireDrunk ook al indirect aangaf: of je gaat nu voor een VT-d gebaseerde opstelling waarmee je een BIJKOMENDE(!) HBA kan doorgeven aan je ZFS VM.
OK top, dan weet ik dat qua voeding.HyperBart schreef op dinsdag 03 september 2013 @ 19:28:
[...]
Ja. Ter referentie, ik draai hier een setup met 5 x 7200RPM schijven + aparte SAS controller (HBA/M1015) + 32GB geheugen + een relatief onzuinig moederbord ivt dat van jou + nog wat fans en SSD's en mijn verbruik zit rond de 100W.
Jouw setup (moederbord + CPU) gebruik de helft (20W vs 43W van mijn kale setup met wat fans en een SSD) dus die adapter zou alles prima moeten kunnen trekken. Je hebt wel geen overschot.
Zoals FireDrunk ook al indirect aangaf: of je gaat nu voor een VT-d gebaseerde opstelling waarmee je een BIJKOMENDE(!) HBA kan doorgeven aan je ZFS VM.
ik denk niet dat een vt-d opstelling nodig is, dat gaat me sowieso nogal wat meer kosten, ik heb niet zo'n dikke CPU nodig en voor vt-d is sowieso een i5 nodig wat gelijk al 100 euro oid extra is.
Wat zou ik met die simpele setup het beste kunnen doen om de read/write over een gigabit netwerk zo snel mogelijk te krijgen?
Even niets...
Als ik een CPU kies met een relatief lage TDP (bv de i5-4440S, die 65 W heeft), Kan ik deze passief koelen? Zo bespaar je ook wat verbruik?FireDrunk schreef op maandag 02 september 2013 @ 13:10:
TDP is *geen* verbruik... TDP is de *maximale* warmteafgifte.
Het verschil is dat de clock een stukje lager ligt toch? Of hoe moet ik de S-versie zien. Wil namelijk wel een klein en compacte case.Neem dus ook geen -S versie, dat is alleen maar nuttig als je in een kleine kast zit te werken met beperkte koelmogelijkheden. Voor gewone PC's/servers scheelt het niets in verbruik.
Even niets...
Wat ik ermee wil gaan doen: Media files delen als interne shares en externe FTP server, wat IRC botjes, een Mumble servertje voor vrienden, wat torrent/usenet zaken automatisch laten downloaden en seeden, wat spelen met Debian, Ubuntu, de NGINX webserver en een VPN tunneltje opzetten om door beperkingen van WiFi hotspots heen te komen.
Voorlopig wil ik op een enkele SSD draaien, ik ben wel naar een case aan het kijken die 4 hdd's kan plaatsen zodat ik er in de toekomst ook grote backups op kwijt kan in raid 5.
Mijn vraag is hoeveel kracht heb ik hiervoor nodig? En welk moederbord past hier goed bij?
Budget is flexibel zolang het value for money is. Een beetje futureproof is fijn: €250 a €500.
De overige componenten waar ik nu naar kijk zijn:
# | Product | Prijs | Subtotaal |
1 | Crucial Ballistix Tactical BLT2CP4G3D1608DT1TX0CEU | € 50,30 | € 50,30 |
1 | be quiet! System Power 7 300W | € 31,40 | € 31,40 |
1 | Samsung 840 series 120GB | € 81,95 | € 81,95 |
Bekijk collectie Importeer producten | Totaal | € 163,65 |
Overigens kan ik je gewoon het standaard setupje aanraden wat hier vaker voorbij komt.
Intel Celeron G1610 icm ASRock B75 Pro3-M.
Als kast, kan je kijken naar een Fractal Design Node.
Even niets...
Die Celeron G1610 is wel erg goedkoop in verhouding tot alle andere parts, dan investeer ik liever iets meer in een i3, maar goed om te weten dat deze qua kracht voldoende is.
Even niets...
You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking
Dan pak je deze:
pricewatch: Fractal Design Core 3000
Even niets...
Ik zie veel mensen toch overstappen op NGINX...vraag me af en toe wel af waarom voor thuisgebruik
Ontwikkelaar van NPM library Gleamy
Ik gebruik het voor reverse proxy voor alle services die verspreid over meerdere machines te vinden zijn (en dat ga je krijgen met meerdere VM's). Via NGINX heb je dan een punt waar je alles kan (http://nginx/sabnzbd of http://nginx/sickbeard ) benaderen en evt naar je router openzetten voor acces van buiten via één poortgitaarwerk schreef op woensdag 04 september 2013 @ 10:59:
...
Ik zie veel mensen toch overstappen op NGINX...vraag me af en toe wel af waarom voor thuisgebruik.
[ Voor 3% gewijzigd door gassiepaart op 04-09-2013 11:14 ]
Nooit zo over nagedacht eigenlijk. Je kan best vette dingen met ene reversed proxy doengassiepaart schreef op woensdag 04 september 2013 @ 11:13:
[...]
Ik gebruik het voor reverse proxy voor alle services die verspreid over meerdere machines te vinden zijn (en dat ga je krijgen met meerdere VM's). Via NGINX heb je dan een punt waar je alles kan (http://nginx/sabnzbd of http://nginx/sickbeard ) benaderen en evt naar je router openzetten voor acces van buiten via één poort
Ik handel eigenlijk die dingen af middels de hostname en dns intern. Kan ook poorten toewijzen naar records, dus op sich wel handig
Ontwikkelaar van NPM library Gleamy
Ben bezig met een XPEnology virtuele machine (Synology software op niet-Synology hardware) op m'n ESXi thuisserver, en ben nu eens aan het kijken hoe dat Surveillance Station werkt. Heb nu namelijk Zoneminder draaien, maar dat doet nogal antiek aan. De Synology software pakt m'n IP-camera ook prima op, en heeft een moderne interface, en gebruikt ook nog eens minder resources dan mijn Zoneminder virtuele machine
Zoneminder (Ubuntu 12.04)
384Mhz
909MB
XPEnology
175Mhz
702MB
[ Voor 6% gewijzigd door ThinkPad op 04-09-2013 15:56 ]
Even niets...
Waarschijnlijk kun je ook meerdere licenties mixen, dus twee keer 4 + drie keer 1 bijv.
Ik heb echter maar 1 camera in gebruik, en die dekt de enige toegangsweg naar ons huis af. Dat scheelt weer.
[ Voor 15% gewijzigd door ThinkPad op 04-09-2013 16:00 ]
Maar goed, dat is offtopic
Even niets...
# | Product | Prijs | Subtotaal |
1 | Intel Celeron G1610 Boxed | € 35,45 | € 35,45 |
1 | ASRock B75 Pro3-M | € 55,90 | € 55,90 |
1 | Fractal Design Core 1000 USB 2.0 | € 26,56 | € 26,56 |
1 | Crucial Ballistix BLS2CP4G3D1609DS1S00CEU | € 50,60 | € 50,60 |
1 | be quiet! System Power 7 300W | € 31,40 | € 31,40 |
1 | Samsung 840 EVO 120GB | € 87,99 | € 87,99 |
Bekijk collectie Importeer producten | Totaal | € 287,90 |
Ik las dat die Celeron erg dicht bij verschillende i3's zit in CPU performance, dus die factor 2.5 in prijs is het niet waard. Ik heb de SSD verwisseld voor een evo, het geheugen voor net iets anders want Afuture liep er € 15 naast te liegen voor deze reepjes (die toevallig uit de BBG komen - bastards!), en na een selectie van cases gemaakt te hebben gekozen voor de op 1 na goedkoopste, de Fractal Core 1000. Het kleinste, clean look, zwart van binnen, alleen helaas geen cable mgmt. Een raid 5 daarin proppen zal vrijwel alle drive slots in beslag nemen maar het kan, en behalve de SSD komt er toch niets meer in.
Bedankt voor de hulp FireDrunk! Ik zal nog even laten weten of alles werkt als dat zover is.
En zo heel duur zijn die dingen nou ook weer niet
[ Voor 10% gewijzigd door FireDrunk op 05-09-2013 09:25 ]
Even niets...
Die heeft betere kwaliteit onderdelen (vooral de elco's) en is daardoor beter geschikt om 24/7 te draaien.
Zie ook de posts van -The_Mask- : -The_Mask- in "Zuinige ESXi Server"
-The_Mask- in "Zuinige ESXi Server"
Even niets...
Die System Power is al beter inderdaad, en onze voedingen guru is het daar mee eens: -The_Mask- in "Zuinige ESXi Server"
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!
Lees voor je begint goed de start post en blijf ontopic.