Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
Ik heb al meerdere keren (zowel in ZFS topic als hier) uitgebreid gereageerd op die post... Tis dikke kolder...

Even niets...


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:30

Compizfox

Bait for wenchmarks

Tsurany schreef op dinsdag 10 september 2013 @ 15:31:
Ze bieden allen ZFS aan en zijn allen gebaseerd op een FreeBSD variant. Het is vooral persoonlijke voorkeur. Ik vind de interface van FreeBSD een stuk fijner maar anderen zweren weer bij ZFSGuru.
ZFSGuru is FreeBSD ;)

FireDrunk schreef op dinsdag 10 september 2013 @ 19:20:
Ik heb al meerdere keren (zowel in ZFS topic als hier) uitgebreid gereageerd op die post... Tis dikke kolder...
Er zit wel een kern van waarheid in hoor, het is alleen veel genuanceerder.

Ik zal ze ff weerleggen/nuanceren:
FreeNAS is designed to run on bare metal, without any clever storage systems (UNIX/VMFS filesystem layers, RAID card caches, etc!) getting in the way. Think about this: ZFS is designed to implement the functionality of a RAID controller. However, its cache is your system's RAM, and its processor is your system's CPU, both of which are probably a lot larger and faster than your hardware RAID controller's cache!
Ja, true. Maar, so what? Als je ESXi gebruikt geldt dat nog steeds gewoon ;)
Without direct access to the hard drives, FreeNAS lacks the ability to read SMART data and identify other storage failures.
True. Daarom moet je ook physical RDM gebruiken of (beter nog) een controller doorgeven met VT-d.
A lot of the power of FreeNAS comes from ZFS. Passing your hard disks to ZFS as RDM to gain the benefits of ZFS *and* virtualization seems like it would make sense, except that the actual experiences of FreeNAS users is that this works great, right up until something bad happens, at which point usually more wrong things happen, and it becomes a nightmare scenario to work out what has happened with RDM, and in many instances, users have lost their pool. VMware does not support using RDM in this manner, and relying on hacking up your VM config file to force it to happen is dangerous and risky.
Ik denk dat ik wel weet wat meneer hiermee bedoelt: Virtual RDM. Dat moet je inderdaad niet gebuiken met ZFS. Gelukkig hebben we ook nog Physical RDM, wat meneer voor het gemak even buiten beschouwing laat.
FreeNAS with hardware PCI passthrough of the storage controller (Intel VT-d) is a smart idea, as it actually addresses the three points above. However, PCI passthrough on most consumer and prosumer grade motherboards is unlikely to work reliably. VT-d for your storage controller is dangerous and risky to your pool. A few server manufacturers seem to have a handle on making this work correctly, but do NOT assume that your non-server-grade board will reliably support this (even if it appears to).
Bullshit. Als je een moederbord uitzoekt wat IOMMU ondersteunt (vooronderzoek vereist!), gaat het gewoon werken. PCI-e passthrough hebben we het dan over, PCI werkt vaak niet.
Virtualization tempts people to under-resource a FreeNAS instance. FreeNAS can, and will, use as much RAM as you throw at it, for example. Making a 4GB FreeNAS VM may leave you 12GB for other VM's, but is placing your FreeNAS at a dangerously low amount of RAM.
Ja dus? Alweer geen geldig argument. Gewoon zorgen dat je genoeg RAM aan FreeBSD geeft. Met andere woorden: Als je op een dedicated storage server (niet gevirtualiseerd) FreeBSD zo'n 8 GB geeft, zorg dan dat je dat ook doet met ESXi. Wil je naast FreeBSD nog wat andere VM's draaien die in totaal ook 8 GB nodig hebben? Gooi dan 16 GB in je fysieke server. Zo moeilijk is dat niet, toch?
The vast majority of wannabe-virtualizers seem to want to run FreeNAS in order to provide additional reliable VM storage. Great idea, except that virtualization software typically wants its datastores to all be available prior to powering on VM's, which creates a bootstrap paradox. Put simply, this doesn't work, at least not without lots of manual intervention, timeouts during rebooting, and other headaches.
Niet per se. Het is inderdaad waar dat de FreeBSD-VM online moet zijn voordat je de andere VM's (die daarvan afhankelijk zijn) kunt booten, maar dat hoeft geen problemen op te leveren aangezien het idee van een server zo'n beetje is dat je hem niet uitzet.

Moraal van het verhaal: Ja, ZFS virtualiseren levert soms dilemma's op (vooral op gebied van doorgeven van de schijven) en je komt met ESXi zo af en toe voor verassingen te staan waar je niet aan had gedacht, maar zeggen dat het een slecht idee is om ZFS te virtualiseren is onzin als je weet waar je mee bezig bent.

[ Voor 3% gewijzigd door Compizfox op 11-09-2013 00:12 ]

Gewoon een heel grote verzameling snoertjes


  • gassiepaart
  • Registratie: April 2004
  • Laatst online: 16-09 17:13
FREAKJAM schreef op dinsdag 10 september 2013 @ 17:08:
Setup wederom bijgewerkt:

#ProductPrijsSubtotaal
1Intel Xeon E3-1225 v3 (SR14U) Boxed€ 220,24€ 220,24
1Gigabyte GA-H87M-D3H€ 84,99€ 84,99
3Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 104,40€ 313,20
1BitFenix Prodigy M Wit€ 77,-€ 77,-
1Delock Cable mini SAS 36pin > 4x SATA metal (SFF 8087 > 4x SATA) 50cm€ 16,75€ 16,75
1Corsair Hydro H60 (2013 edition)€ 61,85€ 61,85
1Kingston HyperX Black KHX16C10B1BK2/16X€ 111,15€ 111,15
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 118,58€ 118,58
1Seasonic G-Serie 360Watt€ 58,-€ 58,-
1Samsung 840 EVO 120GB€ 88,-€ 88,-
Bekijk collectie
Importeer producten
Totaal€ 1.149,76


Ik ga dan toch voor de M1015 die ik flash naar IT-mode. Ik lees slechte verhalen over FreeNAS op ESXi, maar ik wil de uitdaging toch aangaan =)

Anyways, even kijken welk OS ik het fijnste vind draaien in combinatie met SabNZBD, CouchPotato en Sickbeard. Ik ga deze thread sowieso vanavond nog eens op mijn gemak doorlezen :+
De H87 chipset ondersteunt toch geen VT-D? Hoe wil je dan de m1015 doorgeven aan je VM?

  • analog_
  • Registratie: Januari 2004
  • Niet online
Gooi die koeler weg en haal in ruil een supermicro plank, blijven de kosten gelijk ongeveer.

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

Op de website van Intel staat inderdaad dat H87 geen vt-d ondersteunt, maar als je bijvoorbeeld het moederbord ASRock H87M Pro4 neemt, ondersteunt deze wel degelijk vt-d: "Intel® Virtualization Technology for Directed I/O helps your virtual machine monitor better utilize hardware by improving application compatibility and reliability, and providing additional levels of manageability, security, isolation, and I/O performance."

Waarom zou ik de koeler weg moeten gooien en voor een Supermicro mobo moeten gaan?

is everything cool?


  • analog_
  • Registratie: Januari 2004
  • Niet online
Dual nic, goede OS support, ikvm, stabiliteit. Ow dit is zuinige server, my bad. Niet echt zuinig.

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 17-09 16:13

Kek

3flix

wat is aan te bevelen als ik zo'n 5 schijven wil gebruiken in een nas4free vm client. zou ik deze schijven direct door kunnen sturen naar nas4free? het zal op een ASRock B75 Pro3-M bord komen zonder i5 (dus geen vt-d mogelijk)

Of zal ik toch een goedkope i5 moeten zoeken + een sata kaart zodat ik die kan doorsturen naar nas4free...?

  • DrDoo
  • Registratie: April 2006
  • Laatst online: 22-05 10:48
Met ZFS zou ik inderdaad wel met vt-d gaan werken....

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 17-09 16:13

Kek

3flix

Hmm dus toch maar een goedkope i5 fixen, en dus een sata kaartje

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 23:32
Een M1015 dan bij voorkeur.

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 17-09 16:13

Kek

3flix

en zoals eerder werd gezegd een goedkope kleine sata kaart kopen en dan de onboard doorsturen kan ook?

hoge performance maakt niet zo veel uit, prijs wel :P

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
Ja, dat werkt wel.

Even niets...


  • Kek
  • Registratie: Maart 2007
  • Laatst online: 17-09 16:13

Kek

3flix

top ga ik dat doen, scheelt me weer 100 of nog meer euries, en dan esxi op een usb stickje lijkt me..

  • thof
  • Registratie: Oktober 2008
  • Laatst online: 23:50

thof

FP ProMod
Algemene kritische noot: Controleer dit wel vooraf, niet alle onboard controllers kunnen doorgegeven worden. Een of andere ASMedia had daar moeite mee. Vergeet ook niet dat je vaak ook nog ergens een VM op kwijt moet, dat kan niet als de controller doorgegeven is.

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:30

Compizfox

Bait for wenchmarks

Mensen, lees nou eens de topicstart. Dezelfde vragen komen hier steeds opnieuw langs en precies dat is de reden dat ik het in de TS uitgebreid uitgelegd heb. Daar staat ook precies hoe het nou zat met die "een of andere Asmedia-controller".

[ Voor 7% gewijzigd door Compizfox op 12-09-2013 16:03 ]

Gewoon een heel grote verzameling snoertjes


  • gitaarwerk
  • Registratie: Augustus 2001
  • Niet online

gitaarwerk

Plays piano,…

FireDrunk schreef op dinsdag 10 september 2013 @ 16:24:
Dat is inderdaad ook een optie, maar ik wilde mijn SSD daar niet mee belasten.
Ik heb een hele poos SabNZBd op ZFSguru gedraaid en daarnaast een Ubuntu VM gehad met SickBeard, CouchPotato, Headphones en Transmission. Dat werkte eigenlijk wel prima.

Tegenwoordig heb ik gewoon Native FreeBSD en daar zelf de LaSi.sh installer op gedraait.

Werkte vrijwel meteen (na een paar miniscule config wijzigingen).
Ik heb echt onwijs veel problemen gehad met linux en zo'n bak. Terwijl met windows gewoon install & klaar is. Voroal irritant als je op je storage alles wilt laten downoaden, prepprocessen en draaien. Ik had een turnkey distro gevonden op debian gebaseerd. Werkte relaxed, maar met PLEX had ik dan ook weer een hoop problemen. Uiteindelijk nu op Windows 7 Prof. Werkt goed, maar voelt niet goed :P

Transmission werkte wel relaxed, maar vooral couchpotato gooide ene hoop roet in het eten.

Dit zouden eigenlijk wel eens dingen zijn die ze voor kunnen bakken soms. Vooral vervelend omdat alle guides verouderd zijn.

Ontwikkelaar van NPM library Gleamy


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
Wat bedoel je precies?

Ubuntu 13.04 server ISO downloaden -> next, next, next, reboot.
apt-get update
apt-get distupgrade
wget LaSi.sh
./LaSi.sh -> install

Reboot, klaar...

Klaar..

Even niets...


  • Kek
  • Registratie: Maart 2007
  • Laatst online: 17-09 16:13

Kek

3flix

Compizfox schreef op donderdag 12 september 2013 @ 13:59:
Mensen, lees nou eens de topicstart. Dezelfde vragen komen hier steeds opnieuw langs en dat is de reden dat ik dat daar uitgelegd heb. Daar staat ook precies hoe het nou zat met "die een of andere Asmedia-controller".
Het probleem daar was toch met een externe HBA met ASM1061 chip, en dus niet de interne chip van de ASRock B75 Pro3-M.

Ik ga er dus van uit dat ik de interne hba van de ASRock B75 Pro3-M door kan geven aan een VM en een goedkope externe HBA kan gebruiken voor de datastore.

  • gassiepaart
  • Registratie: April 2004
  • Laatst online: 16-09 17:13
gitaarwerk schreef op donderdag 12 september 2013 @ 14:00:
[...]

Ik heb echt onwijs veel problemen gehad met linux en zo'n bak. Terwijl met windows gewoon install & klaar is. Voroal irritant als je op je storage alles wilt laten downoaden, prepprocessen en draaien. Ik had een turnkey distro gevonden op debian gebaseerd. Werkte relaxed, maar met PLEX had ik dan ook weer een hoop problemen. Uiteindelijk nu op Windows 7 Prof. Werkt goed, maar voelt niet goed :P

Transmission werkte wel relaxed, maar vooral couchpotato gooide ene hoop roet in het eten.

Dit zouden eigenlijk wel eens dingen zijn die ze voor kunnen bakken soms. Vooral vervelend omdat alle guides verouderd zijn.
Als je install en klaar wilt voor Couchpotato, Sab, Sickbeard enz... begin dan uberhaupt niet aan een linux installatie... Als het eenmaal draait dan heb je er weinig omkijken naar. Het lijkt me een zware overkill om hiervoor een windows vm te gebruiken...

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:30

Compizfox

Bait for wenchmarks

Kek schreef op donderdag 12 september 2013 @ 14:20:
[...]

Het probleem daar was toch met een externe HBA met ASM1061 chip, en dus niet de interne chip van de ASRock B75 Pro3-M.
Het maakt niet uit of de ASM1061 onboard zit of op een PCI-e-kaart.
Ik ga er dus van uit dat ik de interne hba van de ASRock B75 Pro3-M door kan geven aan een VM en een goedkope externe HBA kan gebruiken voor de datastore.
Dat kan wel. Maar het punt is dat je niet de ASM1061 kan gebruiken voor de datstore.

Gewoon een heel grote verzameling snoertjes


  • Kek
  • Registratie: Maart 2007
  • Laatst online: 17-09 16:13

Kek

3flix

Compizfox schreef op donderdag 12 september 2013 @ 16:05:
[...]
Het maakt niet uit of de ASM1061 onboard zit of op een PCI-e-kaart.

[...]

Dat kan wel. Maar het punt is dat je niet de ASM1061 kan gebruiken voor de datstore.
top, dan gaat het goed komen. ik ga voor de datastore een Sil3112 of Sil3114 gebruiken.


edit: shit zeg, die Sil3112 kaartjes zijn echt heel goedkoop :p

[ Voor 23% gewijzigd door Kek op 12-09-2013 16:59 ]


Acties:
  • 0 Henk 'm!

  • gitaarwerk
  • Registratie: Augustus 2001
  • Niet online

gitaarwerk

Plays piano,…

FireDrunk schreef op donderdag 12 september 2013 @ 14:10:
Wat bedoel je precies?

Ubuntu 13.04 server ISO downloaden -> next, next, next, reboot.
apt-get update
apt-get distupgrade
wget LaSi.sh
./LaSi.sh -> install

Reboot, klaar...

Klaar..
Ik heb debian servers meestal. Denk dat het daarop ook veel fout gaat. Ubuntu heeft toch iets grotere gebruikersgroep icm deze applicaties. LaSi.sh kende ik niet. Misschien wel interessant. Maar voor nu heb ik alles heel netjes opgezet al, en gaat me weer ene paar uurtjes instellen kosten denk ik weer. Voor als het regent dan maar :D
Als je install en klaar wilt voor Couchpotato, Sab, Sickbeard enz... begin dan uberhaupt niet aan een linux installatie... Als het eenmaal draait dan heb je er weinig omkijken naar. Het lijkt me een zware overkill om hiervoor een windows vm te gebruiken...
Klopt, op sich in idle state gebruikt het weinig resources, en het download ook maar echt max 3x per nacht iets ofzo..minder dan dat op week basis. Pakt vooral schijfruimte en geheugen. Heb er nu 16GB inzitten. Uiteindelijk gebruikt deze VM inclusief plex server eigenlijk de meeste resources. Plex heeft nogal moeite met 720p/1080p encoding voor de PS3 alleen (4GB geheugen en 2procs en 2cores toegewezen).

Ik zit te denken om via resource pools te gaan werken waarbij de belangrijkste VM's in ieder geval continuiteit kunnen hebben.

Qua energie (daar gaat het om in dit topic) is de VM redelijk zuinig wel. Ik zit te denken om deze vm te upgraden naar Win8. Heb daar een upgrade key voor welke ik eigenlijk op mijn desktop niet gebruik. Win8 is wat zuiniger en efficienter. Enige nadeel is dat de pc vanuit sleep ineens moet gaan werken en dan de netwerkverbinding dichtgooit met de NAS. Geeft Scikbeard & Sabnzb nog wat errors over. Maar kwestie van scripting/scheduling (maar nog geen tijd voor gehad)

Ik zit overigens misschien te denken om mijn m1015 eruit te gooien, want gebruik nu eigenlijk maar 4 disks in mijn nas, op bare metal ipv een VM nu. Denk dat ik een FreeNas bak niet zo snel meer onder een VM wil gaan laten draaien. Alhoewel deze wel altijd erg goed heeft kunnen draaien. Beter dan nu op een Microserver N54L. Doorvoer is toch van 120MB/s -> 80-90MB/s gegaan. Maar nu kan het ook zijn dan jumboframes niet ondersteund worden door de N54L. Hier komt nog een andere netwerk kaart in. Maar wacht even op de volgende lading met geld voor een intel i350-t4 kaart.

[ Voor 61% gewijzigd door gitaarwerk op 13-09-2013 08:14 ]

Ontwikkelaar van NPM library Gleamy


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
FreeNAS is niet echt makkelijk icm SickBeard, CouchPotato en de hele mikmak... Ik vond dat erg tegenvallen... Ook al zijn er veel plugins, juist daarvoor zijn er geen makkelijke packages volgens mij...

Even niets...


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Daar zou ik dan ook echt een andere VM voor nemen. Performance valt in mijn geval heel erg mee.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • gitaarwerk
  • Registratie: Augustus 2001
  • Niet online

gitaarwerk

Plays piano,…

FireDrunk schreef op vrijdag 13 september 2013 @ 08:53:
FreeNAS is niet echt makkelijk icm SickBeard, CouchPotato en de hele mikmak... Ik vond dat erg tegenvallen... Ook al zijn er veel plugins, juist daarvoor zijn er geen makkelijke packages volgens mij...
Ik heb FreeNas op een aparte bak staan. Daar draait eigenlijk verder niets meer op dan alleen Freenas. Geen plugins en dergelijke. edicated ZFS Nas. Denk wellicht dat de doorvoer iets minder is nu omdat ik met 10GB geheugen zit ipv 16GB (12TB totaal aan disks erin). De sickbeard dingen draaien gewoon verder op de windows bak en via netwerk schijf van de cifs share (freenas). Dus hij download direct naar de nas, en leest ook weer daarvandaan middels plex.

Probleem wat ik ook had met linux was automounting met schrijf rechten, was ook erg vervelend, want dat werkte half. Vooral dat deze gewoon slecht werd ge-autmount werd. Ook met _netdev in de fstab regel. Ik vraag me af of het dan ook te maken heeft met het feit dat ik mijn harddisk een spindown geef na 30 minuten. Ik heb hier weinig kaas van gegeten (want de nas gaat niet echt minder verbuiken, dus vraag me uberhaupt af of het goed is ingesteld)
Tsurany schreef op vrijdag 13 september 2013 @ 09:01:
Daar zou ik dan ook echt een andere VM voor nemen. Performance valt in mijn geval heel erg mee.
Even de tijd voor vinden dus weer :). Ik was er effe klaar mee met 10 vm's installeren en waarbij het niet lukte. Maar komt denk ik omdat ik o pdebian werkte en het zat was broken installs te hebben. Plex overigens werkt eerste keer op Ubuntu na install. Maar met reboot gaat het compleet mis. Ik geloof dat de repo's met apt-update/upgrade niet kloppen erna meer. Las ergens zoiets wazigs. Moet er nog eens een goede oplossing voor vinden. Sowieso wil ik eigenlijk geen uTorrent server hebben, dus ga met transmission (icm headphones dan weer) checken. Afijn, back to ESXi :)

Moet daar ook her en der nog wat tweaks gaan doorvoeren om dat wat zuiniger te krijgen. Nu idle op 28-35 watt, (dan wel met 4x 40mm fans), op sich nog best mooi. Denk dat als ik een andere netwerk kaart erin zet dan de broadcom dat het weer wat scheelt.

[ Voor 11% gewijzigd door gitaarwerk op 13-09-2013 09:21 ]

Ontwikkelaar van NPM library Gleamy


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

Ik zit nog ernstig te twijfelen welke cpu/mobo ik moet nemen.

Een Xeon is beter voor als je een setup 24/7 gaat draaien en hier en daar wat voordelen zoals FireDrunk al eerder aangaf, echter toch weer een paar tientjes duurder. Het moederbord vind ik ook erg lastig. Ik vind de supermicro mobo's aardig prijzig.

Als ik intel moet geloven, ondersteunen officieel enkele de C222 en de Q87 chipsets Intel® Virtualization Technology for Directed I/O, echter zijn er ook een hoop andere mobo's waarin je vt-d kunt enablen terwijl ze een hele andere chipset hebben (bijvoorbeeld de H87).

Verder lees ik dat vooral de Realtek 8111e en de Intel I210 nic's het goed doen out the box op ESXi.

In ieder geval, als ik al aan deze eisen wil voldoen, hou ik 3 moederborden over:
  1. Asus Q87M-E, ongeveer 120 euro. Q87 chipset, echter heeft deze een Intel® I217LM als nic, die het out of the box niet doet in ESXi. (wellicht met de esxi-customizer tool werkend te krijgen).
  2. ASRock Q87M vPro, rond de 100 euro, echter ook weer de I217LM als nic.
  3. Gigabyte GA-Q87M-D2H, ook rond de 120 euro, echter heeft deze volgens de manual een Intel® GbE LAN chip aan boord, waar ik eigenlijk vrij weinig mee kan (welke type kaart is dit?)
Kom je toch weer op een supermicro mobo (X10SLL-F) uit.. of een Intel (die beiden volgens mij ook nog eens enkel unbuffered ECC geheugen ondersteunen, wat weer duurder is) die er sinds vandaag bij staat in de pricewatch (S1200V3RPS), alleen beiden rond de 165 euro..

Dan is er trouwens ook nog de X10SL7-F. Die heeft een LSI 2308 aan boord, waardoor de M1015 weer overbodig is als ik het goed heb. De prijs is alleen nog niet helemaal bekend, maar op newegg is ie rond de 250 dollar. Magoed, daar wordt ook genoeg over gediscussieerd.

[ Voor 11% gewijzigd door FREAKJAM op 13-09-2013 10:07 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
De LSI 2308 is nog weer een fractie sneller dan een M1015, dus als dat een paar tientjes uitmaakt is dat natuurlijk ook wel te verantwoorden.

Die featurelijst die ik ooit eens noemde van die Xeon's was vooral sarcastisch.. Die features heb je 9/10 keer helemaal niet nodig in een thuis systeem...

Waarom zou je een Xeon juist wel willen? Want met een goede i5 kom je al een heel eind.

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

Maar de LSI 2308 ondersteunt weer geen RAID5 (of is in IT-mode zetten voldoende?).. Ja een i5 (4440 bijv) vind ik weer een mooie processor en die is weer 60 euro cheaper. Het blijft best lastig al die keuzes =)

[ Voor 12% gewijzigd door FREAKJAM op 13-09-2013 10:49 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
Je wil sowieso geen RAID5 met dat soort controllers, ook niet met de M1015. Die controllers zijn alleen maar geschikt voor Software RAID. Voor hardware RAID5 moet je kijken naar TLER schijven en een RAID controller met BBU.

Even niets...


Acties:
  • 0 Henk 'm!

  • gitaarwerk
  • Registratie: Augustus 2001
  • Niet online

gitaarwerk

Plays piano,…

Kun je dan niet beter gewoon zfs nemen? wat het scheelt in schijven met TLER + dure controllers kun je weer in geheugen stoppen.

Overigens zijn de dell controllers (lsi ook?) goed compatible met ESXi. Op sich via ebay nog voor redelijke prijs te krijgen, of serverhome oid.

Ontwikkelaar van NPM library Gleamy


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

Ik wil ook heel graag ZFS gebruiken met RAIDZ. Ik wil 3 schijven van 3TB draaien in mijn setup, dan heb ik ruimte voor 6TB data. Misschien verwoord ik het verkeerd (noob-alert). Ik wil weten of het mogelijk is om ZFS + RAIDZ te draaien met een M1015 of LSI2308 :9

[ Voor 4% gewijzigd door FREAKJAM op 13-09-2013 11:17 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
Ja zeker, maar dan heb je niets met RAID5 van doen. Die term geld alleen als je in de controller de RAID functionaliteit wil activeren.

Voor ZFS wil je dat juist niet.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:30

Compizfox

Bait for wenchmarks

Kek schreef op donderdag 12 september 2013 @ 16:45:
[...]


top, dan gaat het goed komen. ik ga voor de datastore een Sil3112 of Sil3114 gebruiken.


edit: shit zeg, die Sil3112 kaartjes zijn echt heel goedkoop :p
Klopt, maar ze zijn ook echt heel traag :P

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • gassiepaart
  • Registratie: April 2004
  • Laatst online: 16-09 17:13
FREAKJAM schreef op vrijdag 13 september 2013 @ 11:16:
Ik wil ook heel graag ZFS gebruiken met RAIDZ. Ik wil 3 schijven van 3TB draaien in mijn setup, dan heb ik ruimte voor 6TB data. Misschien verwoord ik het verkeerd (noob-alert). Ik wil weten of het mogelijk is om ZFS + RAIDZ te draaien met een M1015 of LSI2308 :9
Flash de M1015 naar IT mode, geen idee hoe je de lsi onboard naar IT mode moet zetten..

Houd er wel rekening mee dat de M1015 pcie x8 lanes wil hebben voor de volle bandbreedte. Veel moederborden bieden een scala aan verschillende pcie sloten, maar beperkte sets aan volledige x16 of x8 lanes. Een eerste HBA gaat vaak nog wel lukken, maar een tweede pcie kaart kan je dan vaak niet op de volle bandbreedte gebruiken (denk aan een 2e HBA of intel NIC, of zelfs GPU passthrough)

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

De LSI2308 kun je blijkbaar ook flashen naar IT-mode maar daar is erg weinig over te vinden.

Het enige wat ik hoef door te geven aan mijn VM's is de LAN-kaart (liefst een Realtek 8111E of i210 die onboard zit op het mobo) en mijn 3 harddisks die ik in een RAIDZ opstelling wil draaien. GPU passthrough is niet aan de orde.

Anyways, wat is de beste keuze volgens jullie ESXi guru's? :+

[ Voor 17% gewijzigd door FREAKJAM op 13-09-2013 12:30 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
Dat kan niet via de settings:
The LSI SAS/SATA 2308 Controller supports IR (Integrated RAID) Mode and IT
(Initiator and Target) Mode.
Note: These two RAID modes require different firmware and drivers. Be
sure to download the correct RAID mode driver before installing it to the
OS. For firmware downloads and assistance, please contact Supermicro
Technical Support at www.supermicro.com or Support@supermicro.com.
Rechtstreeks uit de PDF. Wel kan je hem zeer waarschijnlijk gewoon crossflashen.

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

FireDrunk schreef op vrijdag 13 september 2013 @ 12:31:
Dat kan niet via de settings:


[...]


Rechtstreeks uit de PDF. Wel kan je hem zeer waarschijnlijk gewoon crossflashen.
Ja ik had mijn comment al aangepast :+ Ik ga toch nog eens goed nadenken dit weekend wat ik allemaal precies wil. Best complex, even een goede setup bij elkaar "rapen". Ik neig toch eerder naar de M1015, omdat daar zoveel meer over is te vinden.

Ik spendeer al 2 weken heel veel tijd aan het vinden van een goede setup. Kost veel tijd :+

[ Voor 8% gewijzigd door FREAKJAM op 13-09-2013 12:52 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
Ik denk ook dat het verschil in prijs amper zichtbaar is. Dat moederbord zal ook ongeveer 100,- duurder zijn. En dat is evenveel als een M1015 kost... Dus eigenlijk scheelt het niks.

Even niets...


Acties:
  • 0 Henk 'm!

  • Phyt_
  • Registratie: Oktober 2009
  • Laatst online: 16-09 22:17
w00t Hardware kan opgehaald worden.
Vanavond lekker bouwen.

You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking


Acties:
  • 0 Henk 'm!

  • gitaarwerk
  • Registratie: Augustus 2001
  • Niet online

gitaarwerk

Plays piano,…

FREAKJAM schreef op vrijdag 13 september 2013 @ 12:39:
[...]


Ja ik had mijn comment al aangepast :+ Ik ga toch nog eens goed nadenken dit weekend wat ik allemaal precies wil. Best complex, even een goede setup bij elkaar "rapen". Ik neig toch eerder naar de M1015, omdat daar zoveel meer over is te vinden.

Ik spendeer al 2 weken heel veel tijd aan het vinden van een goede setup. Kost veel tijd :+
Als je een xeon wilt, zou ik er niet teveel tijd aan besteden :P

Haswell/Ivy bridge, koop supermicro bordje, ecc kingston valueram (16-32GB), een usb 4GB oid, m1015 (vergeet de backwards break-out kabels niet!) , een ssdtje wellicht, en je hdd's

Dan heb je ecc, vt-d, vt-x etc.... wil je geen ecc maar wel vt-d.. ga dan voor i5/i(geen K)... wil je ecc maar geen vt-d, ga dan voor i3...(wil je wel, want je wilt zfs via esxi).

Oh ja,.. wellicht ook interessant als je niet te zwaar wilt..zijn de nieuwe atoms?

Ontwikkelaar van NPM library Gleamy


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
Die nieuwe Atoms hebben toch ook geen VT-d?

Even niets...


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

Dan kom je toch al heel snel op dit bordje van supermicro. (Q87, dus vt-d support, ECC en I210 onboard nic, die gesupport wordt door ESXi). Met de kabels bedoel je deze toch? (This mini SAS cable to 4 x SATA with 50 cm length, enables you to connect 4 SATA HDDs to a SAS controller, with respective support.)

Volgens mij hebben de nieuwe Atom's enkel VT-x. Raven merkte dat hier ook al op.

Ik heb een tweakotine van 986 (#99) deze week, zegt veel hoe erg ik bezig ben hiermee de laatste tijd lol. :9~

edit:
nog flink wat geneuzeld op het internet en blijkbaar moet ik als ik decent ZFS wil draaien blijkbaar extra SSD's toevoegen (liefst 2 stuks) voor het caching gebeuren (ZIL + L2ARC). Mijn primaire probleem was een tekort aan schijfruimte voor mijn movies/tvshows, maar nu 2 weken later draait het al bijna uit op een setup van bijna 1500 euro, wat ik eigenlijk toch wel enorm prijzig vind.

Ik heb inmiddels genoeg gelezen over ZFS en ben echt wel overtuigd van het feit dat dit de beste oplossing is, maar het is ook meteen enorm prijzig. 8)7

Kan ik ZFS draaien zonder ZIL/L2ARC? (Internet staat er vol mee dat ik het niet moet disablen namelijk) Ik heb eventueel in mijn huidige setup 2 drives van 2TB "over", kan ik die niet inzitten? Stukken trager dan SSD natuurlijk, maar dan heb ik in ieder geval iets?

[ Voor 97% gewijzigd door FREAKJAM op 14-09-2013 15:26 ]

is everything cool?


  • Phyt_
  • Registratie: Oktober 2009
  • Laatst online: 16-09 22:17
Sinds gister alles in elkaar gezet de server draaiend.
ASRock B75 Pro3-M iB75, SATA600 RAID, USB3.0
Be Quiet Voeding System Power 7 300W
Cooler Master Midi Tower N300 ATX, No PSU (zwart)
Intel Core i5 3470 3.20GHz 6MB Box
Kingston 2x8GB, DDR3, PC10666, CL9, Value

Met Gamma cresta wattage gemeten van 36 watt, ik vind het nog best veel. met 2x win2012 4gb vm's
Dat moet zuiniger kunnen lijkt me?
In de bios de fan speeds al aangepast naar auto level 1 > 50graden.
Wel moet ik nog alle niet gebruikte functionalteiten disable > audio etc. << Nog tips ?

De power settings aangepast in Esxi > custom volgens een lijstje wat ik hier tegen kwam.

Wel zit er nu een oude sata disk in ( met ook nog IDE aansluitingen), welke vervangen word door SSD.

Ervaringen hardware:
Die voeding zou ik niemand aanraden, erg gammele kwaliteit, stekker aansluiting is gewoon los, verpakking is al dat je zegt hmm ( gewoon bubbelwrap thats it).
De kast, is goedkoop en doet er niets aan om te verhullen, maar daar is de prijs naar.
De case fans maken een hoop herrie die gaan er dus uit, zijn ook niet te reguleren in snelheid.

You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking


Acties:
  • 0 Henk 'm!

  • gassiepaart
  • Registratie: April 2004
  • Laatst online: 16-09 17:13
FREAKJAM schreef op vrijdag 13 september 2013 @ 15:40:

edit:
nog flink wat geneuzeld op het internet en blijkbaar moet ik als ik decent ZFS wil draaien blijkbaar extra SSD's toevoegen (liefst 2 stuks) voor het caching gebeuren (ZIL + L2ARC). Mijn primaire probleem was een tekort aan schijfruimte voor mijn movies/tvshows, maar nu 2 weken later draait het al bijna uit op een setup van bijna 1500 euro, wat ik eigenlijk toch wel enorm prijzig vind.

Ik heb inmiddels genoeg gelezen over ZFS en ben echt wel overtuigd van het feit dat dit de beste oplossing is, maar het is ook meteen enorm prijzig. 8)7

Kan ik ZFS draaien zonder ZIL/L2ARC? (Internet staat er vol mee dat ik het niet moet disablen namelijk) Ik heb eventueel in mijn huidige setup 2 drives van 2TB "over", kan ik die niet inzitten? Stukken trager dan SSD natuurlijk, maar dan heb ik in ieder geval iets?
Voor jouw gebruik (movies, series) heb je eigenlijk geen cache en log nodig in ZFS... Je kan gewoon ZFS draaien zonder ZIL/L2ARC.
Een trage disk inzetten als cache of log is nutteloos omdat er geen snelheidswinst tov je ZFS disks

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 20:58
FREAKJAM schreef op vrijdag 13 september 2013 @ 15:40:
Kan ik ZFS draaien zonder ZIL/L2ARC? (Internet staat er vol mee dat ik het niet moet disablen namelijk) Ik heb eventueel in mijn huidige setup 2 drives van 2TB "over", kan ik die niet inzitten? Stukken trager dan SSD natuurlijk, maar dan heb ik in ieder geval iets?
Zoals aangegeven, gewoon niet aan beginnen. Gewoon je schijven in RAIDZ zetten en dat is alles. Het enige 'dure' aan ZFS is geheugen. Wil je echt hoge snelheden halen dan gaat de vuistregel van 1GB per 1TB op.
Voor de rest ben je neem ik aan deze topic al tegengekomen, maar ik kwam nog geen reactie tegen, dus voor de zekerheid toch de melding. :)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

Yep, topic al uitvoerig doorgelezen, thanks!

Ik wil 3x3TB in RAIDZ zetten, waardoor je 6tb kan gebruiken voor mijn data. Is voor mijn setup 16GB voldoende denk je? Of kan ik gewoon beter 32GB nemen? Ik denk dat ik in de toekomst ook wil spelen met andere VM's, maar ik denk persoonlijk dat het bij 1VM blijft. (ZFSGuru of FreeNas).

is everything cool?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
8GB is al zat voor 3 schijfjes in RAIDZ. De hele vuistregel van 1GB RAM per 1TB storage is een *ENTERPRISE* regel, waar er op gerekend word dat je server bestookt word met requests van clients.

Voor een thuisserver maakt het geen fluit uit. Je wil alleen prefetching hebben, waardoor je aan > 4GB RAM zit. Dus is 8GB vaak al zat.

Mijn server heeft 8GB RAM icm 4*4TB in RAIDZ en performt prima.

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 20:58
Het geeft tenminste een plafond aan. Met 8GB per drie schijven in RAIDZ kan ik weer niets. Zijn dat drie schijven van 4TB of van 40GB? Nu werkt 4*4TB blijkbaar prima, maar wat zet je nog meer in en wat is prima?
Overigens herinner ik mij dat de hoeveelheid RAM ook relevant zou zijn voor de ruwe doorvoersnelheid op zich. Neemt niet weg dat bij enkele requests van het bekijken van video veel lager dan de vuistregel kunt zitten. Simpelweg omdat menig video niet de waanzinnige leessnelheden vereist.
Maar goed, het hele, wat is genoeg geheugen, is er één waarin ik heel simpel ben. Neem in ieder geval de grootste modules die je je kunt veroorloven zodat je altijd nog de stap kunt maken. Zeker als je mogelijk nog wat extra VMs en wat dan ook wil gaan inzetten.

Pretfetching lijkt mij juist niet van belang. Helaas. De files zijn relatief groot en aangezien de meesten niet dezelfde film/serie/.. binnen een dag weer gaan kijken alvorens ze andere films/series/.. hebben gezien zit er alweer iets anders in de prefetch.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
RAM word pas echt belangrijk als een enkele ZFS transactiegroep niet meer in RAM zou passen.
ZFS cached (default in FreeBSD, txg_timeout / txg_max_pending) 5 seconden aan data in RAM, dus met 4 schijven die 150MB/s doen, is dat hooguit 3GB. In de praktijk veel minder, omdat een hele transactiegroep bijna nooit 100% sequentieel is (zfs doet zelf ook wat metadata updates). Dus met 4 schijven zit je aan 2GB ofzo. Bij 8 schijven is dat dan misschien 3-3.5GB omdat je snelheden bijna nooit lineair schalen. Bij 16 schijven zul je misschien net niet meer genoeg hebben aan 8GB in dat geval omdat je OS natuurlijk ook wat ram nodig heeft. Je zal dan de TXG timeout kunnen verlagen, waardoor er minder data gecached word, en je dus minder RAM nodig hebt.

Nou is dit allemaal relatief speculatie afhankelijk van mijn persoonlijke ervaringen. Het is in geen enkel opzicht wat er officieel geld.

[ Voor 5% gewijzigd door FireDrunk op 16-09-2013 12:48 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • gitaarwerk
  • Registratie: Augustus 2001
  • Niet online

gitaarwerk

Plays piano,…

Wat ik wel afvraag... ik heb nu 10GB erin zitten voor 4x3TB. Op sich performed iets minder dan mn oude setup. Echter is wanneer er transacties gaan (dus ik naar de server copieer), hapert de andere verbinding (streaming muziek). Of het kan zijn dat de verbinding vol is (beide wifi, via 100Mbit connectie).

Dus ene kant schrijven, en lezen met 300-2200~kb flac. Wel apart.

Vaag me af of het wifi is, de netwerk verbinding in de nas (std kaart van Prolian microserver), of gewoon slechte nas instelling?

Ontwikkelaar van NPM library Gleamy


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Mijn eerste gok zou zijn dat het zeker WiFi is. Dat is het snelste vol gegooid met een slechte verbinding als gevolg.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • jadjong
  • Registratie: Juli 2001
  • Niet online
gitaarwerk schreef op maandag 16 september 2013 @ 14:22:
Wat ik wel afvraag... ik heb nu 10GB erin zitten voor 4x3TB. Op sich performed iets minder dan mn oude setup. Echter is wanneer er transacties gaan (dus ik naar de server copieer), hapert de andere verbinding (streaming muziek). Of het kan zijn dat de verbinding vol is (beide wifi, via 100Mbit connectie).

Dus ene kant schrijven, en lezen met 300-2200~kb flac. Wel apart.

Vaag me af of het wifi is, de netwerk verbinding in de nas (std kaart van Prolian microserver), of gewoon slechte nas instelling?
Wifi is half duplex.

Acties:
  • 0 Henk 'm!

  • gitaarwerk
  • Registratie: Augustus 2001
  • Niet online

gitaarwerk

Plays piano,…

Tsurany schreef op maandag 16 september 2013 @ 14:26:
Mijn eerste gok zou zijn dat het zeker WiFi is. Dat is het snelste vol gegooid met een slechte verbinding als gevolg.
Dat dacht ik ook wel eigenlijk..
het is wel zo dat het twee aparte apparaten zijn. De Raspberry pi streamt, maar zodra ik met mijn laptop upload naar de NAS, hapert deze enorm.

Ontwikkelaar van NPM library Gleamy


Acties:
  • 0 Henk 'm!

  • Phyt_
  • Registratie: Oktober 2009
  • Laatst online: 16-09 22:17
hmm met RDM kan ik maximaal maar 2tb disken doorzetten?
Hoe kan ik bijv in de toekomst wil ik nml 3of4tb disken in zetten voor een freenas..
ik heb vt-d mogelijkheden.


ehh ff terug gelezen maar word me wat onduidelijk.
wat ik aan hardware e.d. nodig zou hebben voor die vt-d / freenas mocht RDM niet werken, of ik kan nog 2x 2tb bijbestellen rdm-en.

[ Voor 36% gewijzigd door Phyt_ op 16-09-2013 15:22 ]

You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking


Acties:
  • 0 Henk 'm!

  • gitaarwerk
  • Registratie: Augustus 2001
  • Niet online

gitaarwerk

Plays piano,…

Phyt_ schreef op maandag 16 september 2013 @ 15:18:
hmm met RDM kan ik maximaal maar 2tb disken doorzetten?
Hoe kan ik bijv in de toekomst wil ik nml 3of4tb disken in zetten voor een freenas..
ik heb vt-d mogelijkheden.


ehh ff terug gelezen maar word me wat onduidelijk.
wat ik aan hardware e.d. nodig zou hebben voor die vt-d / freenas mocht RDM niet werken, of ik kan nog 2x 2tb bijbestellen rdm-en.
Ik zou toch echt een aparte controller gebruiken. RDM is echt helemaal niet lekker.

Ontwikkelaar van NPM library Gleamy


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

Phyt_ schreef op maandag 16 september 2013 @ 15:18:
hmm met RDM kan ik maximaal maar 2tb disken doorzetten?
Hoe kan ik bijv in de toekomst wil ik nml 3of4tb disken in zetten voor een freenas..
ik heb vt-d mogelijkheden.


ehh ff terug gelezen maar word me wat onduidelijk.
wat ik aan hardware e.d. nodig zou hebben voor die vt-d / freenas mocht RDM niet werken, of ik kan nog 2x 2tb bijbestellen rdm-en.
RDM is idd beperkt tot max. 2 TB, als je 3 of 4 TB disks wilt doorgeven dan zul je een SATA controller (M1015 in IT modebijv.) middels Vt-d door moeten steken naar je vm.
Het is al vaker gezegd, RDM is een 'dirty hack' en kan voor problemen zorgen.
Of FreeNAS onder ESXi wilt werken daar bestaat wat onenigheid over. Uit eigen ervaring weet ik dat OpenIndiana onder ESXi werkt, ZFSguru heb ik nooit getest, de ZFSguru server hier is gewoon 'bare metal'.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
Pantagruel schreef op maandag 16 september 2013 @ 17:16:
[...]


RDM is idd beperkt tot max. 2 TB, als je 3 of 4 TB disks wilt doorgeven dan zul je een SATA controller (M1015 in IT modebijv.) middels Vt-d door moeten steken naar je vm.
Het is al vaker gezegd, RDM is een 'dirty hack' en kan voor problemen zorgen.
Of FreeNAS onder ESXi wilt werken daar bestaat wat onenigheid over. Uit eigen ervaring weet ik dat OpenIndiana onder ESXi werkt, ZFSguru heb ik nooit getest, de ZFSguru server hier is gewoon 'bare metal'.
ESX 5.5 ondersteunt disken (en datastores) groter dan 2TB. Waarschijnlijk met RDM dan dus ook.

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • Phyt_
  • Registratie: Oktober 2009
  • Laatst online: 16-09 22:17
gitaarwerk schreef op maandag 16 september 2013 @ 17:02:
[...]

Ik zou toch echt een aparte controller gebruiken. RDM is echt helemaal niet lekker.
Kun je toelichten wat dan niet helemaal lekker is ?

Thx voor info iig mensen, ik ga me er eens in verdiepen.
Eerst de laatste data overzetten naar nieuwe server en nog wat tweake op zuinigheid.

You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
redfoxert schreef op maandag 16 september 2013 @ 17:32:
[...]


ESX 5.5 ondersteunt disken (en datastores) groter dan 2TB. Waarschijnlijk met RDM dan dus ook.
Die aanname zou ik niet zomaar doen. Zeer waarschijnlijk is die 2TB alleen supported op de PVSCSI controller, en die werkt weer niet onder BSD. Dat komt omdat de 'oude' LSI Logic SAS controller een 1068E controller is, en die doet sowieso geen 2TB, los van wat ESXi wil/kan. Ze zullen dus met een nieuwe controller op de proppen moeten komen.

Als we *ECHT* mazzel hebben, gaan ze de LSI2008 controller faken, maar dat zou walhalla zijn...

Enige optie is dan om ZFS-on-Linux te gebruiken.

[ Voor 26% gewijzigd door FireDrunk op 16-09-2013 18:05 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 16-09 09:46
FireDrunk schreef op maandag 16 september 2013 @ 18:04:
[...]

Die aanname zou ik niet zomaar doen. Zeer waarschijnlijk is die 2TB alleen supported op de PVSCSI controller, en die werkt weer niet onder BSD. Dat komt omdat de 'oude' LSI Logic SAS controller een 1068E controller is, en die doet sowieso geen 2TB, los van wat ESXi wil/kan. Ze zullen dus met een nieuwe controller op de proppen moeten komen.

Als we *ECHT* mazzel hebben, gaan ze de LSI2008 controller faken, maar dat zou walhalla zijn...

Enige optie is dan om ZFS-on-Linux te gebruiken.
Vmdk's en RDMs krijgen ondersteuning voor formaten tot 62TB. Er komt ook een nieuwe virtuele AHCI SATA controller met ondersteuning voor 120 apparaten.
Ik zal binnenkort eens kijken hoe het zit met deze controller en ondersteuning van de diverse guest OSen. Denk dat ik maar eens ga kijken of ik een linux XBMC VM kan maken met zo'n vGPU en een paar schijfjes.

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
Virtual AHCI, NICE :D dat kunnen we goed gebruiken. Dat maakt RDM in 1 klap weer een goed alternatief voor VT-d :D

Even niets...


Acties:
  • 0 Henk 'm!

  • Madshark
  • Registratie: Januari 2000
  • Niet online
Nadat zo'n beetje de laatste 20 pagina's van dit topic helaas zonder succes heb doorgelezen om mijn antwoord te vinden, en google mij ook niet echt wijzer maakt, stel ik dan toch maar even de vraag.

Ondersteund ESX5i de Raid5 volumes van de onboard Z87 sata controller in RAID mode ?

Ik wil een nieuwe thuis ESX doos gaan maken, gebaseerd op een Haswell i7-4770 (zonder K) op een Asus Gryphon Z87 (vanwege 24x7) met daaraan 4x WD RED 3TB (in een raid5) en een USB stick als boot voor de ESX.
Ik ga er alleen maar Windows2008/Windows2012 based VM's op draaien en een Linux VPN routertje (RouterOS).
Hierdoor lijkt ZFS voor mij niet zo interessant, ik wil de storage uiteindelijk vanuit de W2012 VM's via SMB aanbieden.

Ik zit dus te denken om de 4x3TB via de bios als raid5 volume aan de ESX in 1 grote 9TB datastore.
Werkt dit zo out-of-the-box ?

Acties:
  • 0 Henk 'm!

  • vistu
  • Registratie: Januari 2007
  • Laatst online: 13-09 15:39
Madshark schreef op dinsdag 17 september 2013 @ 11:13:
Nadat zo'n beetje de laatste 20 pagina's van dit topic helaas zonder succes heb doorgelezen om mijn antwoord te vinden, en google mij ook niet echt wijzer maakt, stel ik dan toch maar even de vraag.

Ondersteund ESX5i de Raid5 volumes van de onboard Z87 sata controller in RAID mode ?

Ik wil een nieuwe thuis ESX doos gaan maken, gebaseerd op een Haswell i7-4770 (zonder K) op een Asus Gryphon Z87 (vanwege 24x7) met daaraan 4x WD RED 3TB (in een raid5) en een USB stick als boot voor de ESX.
Ik ga er alleen maar Windows2008/Windows2012 based VM's op draaien en een Linux VPN routertje (RouterOS).
Hierdoor lijkt ZFS voor mij niet zo interessant, ik wil de storage uiteindelijk vanuit de W2012 VM's via SMB aanbieden.

Ik zit dus te denken om de 4x3TB via de bios als raid5 volume aan de ESX in 1 grote 9TB datastore.
Werkt dit zo out-of-the-box ?
Nee, dat gaat niet werken. Je zal er een aparte raid controller voor moeten hebben, de softraid/firmware raid vanuit de bios leunt bijna altijd op drivers die je dient te installeren, en dat gaat simpelweg niet werken in ESX

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

De Intel Z87 chipset ondersteunt ook geen VT-D, hoewel ik in de manual wel kan vinden dat je VT-D kunt enablen. De onboard nic (Intel® I217V) werkt ook niet out of the box met ESXi. (Je kunt deze wel werkend krijgt met ESXi Customizer als je wil).

Ik ben er zelf ook nog niet helemaal uit (ik ben ook bezig met een ESXi setup), maar sowieso ook even in de gaten houden welke chipset je moederbord je gebruikt (ivm VT-D), en kijken of de NIC goed werkt met ESXi.Verder is het wellicht handig rekening te houden met het feit of je moederbord ECC geheugen ondersteunt als je eventueel toch ZFS wil gaan draaien. ECC + ZFS schijnt veel beter te zijn. ECC mobo + memory maakt het geheel natuurlijk wel weer een stukkie duurder namelijk :9 Alleen ik denk dat voor iemand als ik die puur ZFS wil draaien voor mijn film/series ECC een overbodige luxe is. (Correct me when wrong :+ )

Verder inderdaad een losse kaart nemen. Neem bijvoorbeeld de M1015 en flash deze in IT-mode om je harde schijven door te geven.

[ Voor 63% gewijzigd door FREAKJAM op 17-09-2013 15:16 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • sphere
  • Registratie: Juli 2003
  • Laatst online: 21:23

sphere

Debian abuser

hans_lenze schreef op maandag 16 september 2013 @ 22:47:
Vmdk's en RDMs krijgen ondersteuning voor formaten tot 62TB. Er komt ook een nieuwe virtuele AHCI SATA controller met ondersteuning voor 120 apparaten.
Ik zal binnenkort eens kijken hoe het zit met deze controller en ondersteuning van de diverse guest OSen. Denk dat ik maar eens ga kijken of ik een linux XBMC VM kan maken met zo'n vGPU en een paar schijfjes.
Kan je ook even Steam testen met vGPU :D

http://stackoverflow.com/questions/1732348/regex-match-open-tags-except-xhtml-self-contained-tags/1732454#1732454


Acties:
  • 0 Henk 'm!

  • Zanbee
  • Registratie: Mei 2004
  • Laatst online: 24-05 21:29
Ik heb nu al enkele jaren een firewall draaien op basis van Smoothwall op het moment draait het op het volgende systeem:
#ProductPrijsSubtotaal
1AMD Duron 1800 Tray€ 0,-€ 0,-
1Asrock K7S8X€ 0,-€ 0,-
2TP-Link TG-3269€ 5,08€ 10,16
3Onbekend geheugen 256 MB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 10,16


Ik heb nooit gemeten wat dit syteem verbruikt maar voor mijn gevoel is dit niet echt een zuinige setup. Ik wil graag naast de firewall ook een download systeem willen inzetten en een windows systeem voor de TV service van MediaPortal. Nu zijn drie aparte machines voor deze kleine taken toch iets te veel van het goede en lastig te verkopen aan mijn vrouw.

Vandaar kwam ik op het idee van virtualisatie van de systemen. een Google zoektocht heeft me al geleerd dat Smoothwall het prima doet onder ESXi en ook de 2 TP-Links worden ondersteund. Ook heb ik al even in VMware player een ESXi machine gemaakt met daarin een VM met Smoothwall en kwam geen enkel probleem tegen kwa installatie. De MePo TV-service zal hopelijk in de toekomst IPTV gaan ontvangen en heeft dus alleen een netwerk kaart nodig die een IP krijgt in het IPTV lan vanuit het modem.

Hierover had ik de vraag of het mogelijk is om 1 hardware netwerk kaart te koppelen is aan meerdere VM's met aparte IP adressen. Dus 1 fysieke netwerk kaart gekoppeld aan de firewall VM met een IP uit het vlan voor internet en gekoppeld aan de MePo VM met ip uit het IPTV Vlan?

Verder lijkt me het volgende systeem wel voldoende en zuinig graag jullie mening hier over:
#ProductPrijsSubtotaal
1Intel Celeron G1610 Boxed€ 35,45€ 35,45
1ASRock B75 Pro3-M€ 55,53€ 55,53
1Crucial CT102464BA160B€ 56,72€ 56,72
Bekijk collectie
Importeer producten
Totaal€ 147,70


Dit systeem zal dan nog aangevuld worden met een 2 GB USB stick waar ESXi vanaf start en 3,5 harddisk waar de VM's op staan. Voor de voeding zat ik zelf te denken aan een Pico PSU 80 Watt.

Edit: Net nog even in VMware player met ESXi gespeeld met de netwerk kaarten volgens mij kan dat wel gaan werken met de twee IP adressen tenminste zoals ik nu begrijp doet de VM een DHCP request en bemoeit ESXi daar niet/nauwelijks mee.

Failure is not an option -- it comes bundled with Windows.


  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
[b]Zanbee schreef op dinsdag 17 september 2013 @ 23:58:
Hierover had ik de vraag of het mogelijk is om 1 hardware netwerk kaart te koppelen is aan meerdere VM's met aparte IP adressen. Dus 1 fysieke netwerk kaart gekoppeld aan de firewall VM met een IP uit het vlan voor internet en gekoppeld aan de MePo VM met ip uit het IPTV Vlan?
Dat is mogelijk, je hebt dan wel een switch nodig die met vlans onderweg kan. (edit: wanner je LAN en WAN via dezelfde interface wil laten lopen. Wanneer je enkel met vlans wil spelen binnen je esx dan heb je die vlan switch niet nodig uiteraard)

Dit is mijn netwerk setup:
Afbeeldingslocatie: https://dl.dropboxusercontent.com/u/2172654/netwerk.PNG

[ Voor 12% gewijzigd door A1AD op 18-09-2013 10:51 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 16-09 09:46
hans_lenze schreef op maandag 16 september 2013 @ 22:47:
[...]
Ik zal binnenkort eens kijken hoe het zit met deze controller en ondersteuning van de diverse guest OSen. Denk dat ik maar eens ga kijken of ik een linux XBMC VM kan maken met zo'n vGPU en een paar schijfjes.
Eerste testjes zijn positief: ik heb nog geen guest OS gevonden dat moeite heeft met de virtuele SATA controller. NAS4free, Ubuntu en diverse Windows versies doen het lief. Workstation kan geen pRDMs aanmaken dus de SMART test moet nog even wachten tot ik ESXi 5.5 in handen heb.

Ik kom met Ubuntu niet ver in Steam. Alle spellen voor Linux kosten geld.

while (! ( succeed = try ()));


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50

Even niets...


  • analog_
  • Registratie: Januari 2004
  • Niet online
hans_lenze schreef op woensdag 18 september 2013 @ 13:59:
[...]


Eerste testjes zijn positief: ik heb nog geen guest OS gevonden dat moeite heeft met de virtuele SATA controller. NAS4free, Ubuntu en diverse Windows versies doen het lief. Workstation kan geen pRDMs aanmaken dus de SMART test moet nog even wachten tot ik ESXi 5.5 in handen heb.

Ik kom met Ubuntu niet ver in Steam. Alle spellen voor Linux kosten geld.
DM me voor een account met Civ V om te testen.

  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 16-09 15:47
hans_lenze schreef op woensdag 18 september 2013 @ 13:59:
[...]


Eerste testjes zijn positief: ik heb nog geen guest OS gevonden dat moeite heeft met de virtuele SATA controller. NAS4free, Ubuntu en diverse Windows versies doen het lief. Workstation kan geen pRDMs aanmaken dus de SMART test moet nog even wachten tot ik ESXi 5.5 in handen heb.

Ik kom met Ubuntu niet ver in Steam. Alle spellen voor Linux kosten geld.
Ik dacht dat esxi 5.5 afgelopen week uitkwam. Maar ik heb er eigenlijk niks meer van gezien.
Enig idee wat de juiste release-date is ?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 17-09 08:50
Ik dacht zoveel Oktober pas GA release?

Even niets...


  • redfoxert
  • Registratie: December 2000
  • Niet online
Er is nog geen officiele release datum bekend gemaakt volgens onze vExpert :) Volgens geruchten komt het spul misschien morgen uit.

https://discord.com/invite/tweakers


  • Kek
  • Registratie: Maart 2007
  • Laatst online: 17-09 16:13

Kek

3flix

redfoxert schreef op woensdag 18 september 2013 @ 15:53:
Er is nog geen officiele release datum bekend gemaakt volgens onze vExpert :) Volgens geruchten komt het spul misschien morgen uit.
DO want!

want ik ben net een esxi servertje aan het maken, en die nieuwe RDM maakt nogal uit, zoals ik hier nu lees heb ik dan geen cpu met vt-d nodig en externe hba om meerdere disks voor zfs te gebruiken.

iig ga ik het eerst zonder proberen en laat wel horen hoe dat gaat (met 5.5 zodra dat er is)

  • analog_
  • Registratie: Januari 2004
  • Niet online
Kek schreef op woensdag 18 september 2013 @ 16:46:
[...]


DO want!

want ik ben net een esxi servertje aan het maken, en die nieuwe RDM maakt nogal uit, zoals ik hier nu lees heb ik dan geen cpu met vt-d nodig en externe hba om meerdere disks voor zfs te gebruiken.

iig ga ik het eerst zonder proberen en laat wel horen hoe dat gaat (met 5.5 zodra dat er is)
Mooi, we hadden het net over jouw gebruikersgroep, diy nas. We zouden erg benieuwd zijn naar failure afhandeling. Doelbewust je array slopen en zien hoe ESXi daarop reageert.

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 17-09 16:13

Kek

3flix

analog_ schreef op woensdag 18 september 2013 @ 19:18:
[...]

Mooi, we hadden het net over jouw gebruikersgroep, diy nas. We zouden erg benieuwd zijn naar failure afhandeling. Doelbewust je array slopen en zien hoe ESXi daarop reageert.
ik wil best eens wat gaan stoeien met esxi + nas software + een zfs raidzje, moet wel zeggen dat ik geen ster ben ik esxi (ik weet wat basis dingen) en ook zfs is zegmaar basis. maar ik kan wel wat proberen en uitkomsten geven, heb nog niet alle hardware maar dat zal een kwestie van dagen/weekjes zijn.

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

Nou ik ben ook bezig met het samenstellen van een setup, maar ik heb nog niets besteld. Als inderdaad zou blijken dat bij ESXi 5.5 geen M1015 benodigd is, dan hoor ik dat graag.

Op het forum van FreeNAS lopen er nog steeds hevige discussies over RDM+FreeNAS+ZFS+ESXi.

is everything cool?


  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 16-09 09:46
Benchmarks:

1 vCPU - 2048MB - 2012R2 - Crystaldiskmark 3.0.2 x64
c: 60GB lsisas1068
e: 10GB SATA
Afbeeldingslocatie: https://dl.dropboxusercontent.com/u/9396368/plaatjes/2012scsiBench.PNG
Tijdens de 4K read test zo'n 25% processorbelasting, 4k write 38%

Afbeeldingslocatie: https://dl.dropboxusercontent.com/u/9396368/plaatjes/2012sataBench.PNG
Tijdens de 4K read test zo'n 30% processorbelasting, 4k write 40%

Geen rollen geïnstalleerd of andere programma's aan tijdens de benchmark.

while (! ( succeed = try ()));


  • GHorsie
  • Registratie: Oktober 2000
  • Laatst online: 20:07
Kek schreef op donderdag 12 september 2013 @ 16:45:
[...]


top, dan gaat het goed komen. ik ga voor de datastore een Sil3112 of Sil3114 gebruiken.


edit: shit zeg, die Sil3112 kaartjes zijn echt heel goedkoop :p
Mijn tip, die ook eigenlijk verwerkt moet worden in de OP :p : koop geen sil3112 of sil3114 !!

Ik heb hetzelfde board en ook een sil3112 gekocht. Wat blijkt het is een sata1 controller zodat mijn HD dus niet herkent wordt. Ik heb een sil3132 gekocht wat een pci-e kaartje is dat wel goed werkt (sata2). Mijn onboard sata poorten zijn via vt-d doorgestuurd naar nas4free.

( dus eigenlijk zou in de OP moeten staan dat je een sil3132 kunt gebruiken...)

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

Iemand dit al gelezen btw?

"Developers from various open forks of of Solaris ZFS have come together to create the OpenZFS project. The idea is to ensure cooperation and interoperability between all the platform implementations of ZFS (illumos, *BSD, Linux, and OS X)."

[ Voor 144% gewijzigd door FREAKJAM op 18-09-2013 22:50 ]

is everything cool?


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:30

Compizfox

Bait for wenchmarks

Gerard v.d. Horst schreef op woensdag 18 september 2013 @ 21:11:
[...]

Mijn tip, die ook eigenlijk verwerkt moet worden in de OP :p : koop geen sil3112 of sil3114 !!

Ik heb hetzelfde board en ook een sil3112 gekocht. Wat blijkt het is een sata1 controller zodat mijn HD dus niet herkent wordt.
Ik vraag me af of dat wel de reden is. Een SATA1-controller zou gewoon SATA2- en SATA3-schijven moeten herkennen en gebruiken.
( dus eigenlijk zou in de OP moeten staan dat je een sil3132 kunt gebruiken...)
Iemand had dat laatst ook al uitgevonden dat een sil3515 ook werkt, en toen heb ik ook al aangegeven dat het bijin de OP moet :P

Gewoon een heel grote verzameling snoertjes


  • GHorsie
  • Registratie: Oktober 2000
  • Laatst online: 20:07
Compizfox schreef op woensdag 18 september 2013 @ 22:55:
[...]
Ik vraag me af of dat wel de reden is. Een SATA1-controller zou gewoon SATA2- en SATA3-schijven moeten herkennen en gebruiken.

[...]

Iemand had dat laatst ook al uitgevonden dat een sil3515 ook werkt, en toen heb ik ook al aangegeven dat het bijin de OP moet :P
De HD die ik gebruik is een sata3 HD. Ik heb gezocht hoe je dit werkend kon krijgen en meestal is er een jumper op de HD voor sata1. Er is blijkbaar een probleem met detectie van snelheid bij sata1. Deze HD heeft echter geen jumper hiervoor en kon hem dus niet gebruiken. Op de sata2 sil controller werkte het direct. En het gaat nog sneller ook ;)
Het lijkt er dus op dat de HD geen sata1 ondersteund.

Maar inderdaad wellicht handig dat de OP aangepast/aangevuld wordt met andere controllers die werken en vlotter zijn.

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

Ik denk trouwens dat ESXi 5.5 sowieso voor 1 oktober uit gaat komen.

"We announce things in the same quarter and we release things in the same quarter. And the new quarter starts in october first, thatś all I gotta say."

is everything cool?


  • gassiepaart
  • Registratie: April 2004
  • Laatst online: 16-09 17:13
Weet iemand of hier ESXI op gaat draaien: 8 cores / 20 watt

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

Bij het kopje support OS in de matrix staat VMWare ESXi 5.1 dus ik denk het wel :+
I210 werkt ook out of the box met ESXi zover ik weet.

Op deze thread praten ze er ook al over. De Intel c2750 ondersteunt trouwens geen vt-d, alleen vt-x.

[ Voor 88% gewijzigd door FREAKJAM op 19-09-2013 14:34 ]

is everything cool?


  • Dr Pro
  • Registratie: Mei 2004
  • Laatst online: 16-09 12:44
gassiepaart schreef op donderdag 19 september 2013 @ 14:00:
Weet iemand of hier ESXI op gaat draaien: 8 cores / 20 watt
Wow..! Die is interesting!!

Verwijderd

hoe maak ik mijn eigen topic aan
ff een snelle vraag ik kan het nergens vinden

  • redfoxert
  • Registratie: December 2000
  • Niet online
Ik ben zeer benieuwd of die Marvell controllers ondersteunt worden door ESX.

https://discord.com/invite/tweakers


  • Dr Pro
  • Registratie: Mei 2004
  • Laatst online: 16-09 12:44
Je kan toch zelf ook drivers injecten?
Dus dat zou niet zo'n ramp moeten zijn

+ er zijn 6 Intel SATA poorten beschikbaar, naast die Marvels.
Voor de meeste mensen al meer als zat :)

[ Voor 40% gewijzigd door Dr Pro op 19-09-2013 14:33 ]


  • wopie
  • Registratie: Maart 2006
  • Laatst online: 07-06 20:08
Bijna net zo interesting als deze: http://www.supermicro.com.../Atom/X10/A1SRi-2758F.cfm :)

Heeft alleen SODIMM, denk dat dat nog lastiger verkrijgbaar is, mocht je ECC willen (zoals ik).

  • Dr Pro
  • Registratie: Mei 2004
  • Laatst online: 16-09 12:44
wopie schreef op donderdag 19 september 2013 @ 14:33:
[...]


Bijna net zo interesting als deze: http://www.supermicro.com.../Atom/X10/A1SRi-2758F.cfm :)

Heeft alleen SODIMM, denk dat dat nog lastiger verkrijgbaar is, mocht je ECC willen (zoals ik).
Maar dit een een Atom bord, draait ESXi daar wel op?

  • redfoxert
  • Registratie: December 2000
  • Niet online
Dr Pro schreef op donderdag 19 september 2013 @ 14:32:
Je kan toch zelf ook drivers injecten?
Dus dat zou niet zo'n ramp moeten zijn

+ er zijn 6 Intel SATA poorten beschikbaar, naast die Marvels.
Voor de meeste mensen al meer als zat :)
Storage drivers zijn meestal nog wat lastiger dan netwerk drivers. Ik zou het persoonlijk ook niet echt aandurven als het niet native supported zou zijn.

https://discord.com/invite/tweakers


  • wopie
  • Registratie: Maart 2006
  • Laatst online: 07-06 20:08
Dr Pro schreef op donderdag 19 september 2013 @ 14:35:
[...]


Maar dit een een Atom bord, draait ESXi daar wel op?
Het Asrock bordje wat eerder gepost wordt biedt ondersteuning voor ESXi, deze heeft dezelfde CPU als degene die ik linkte.

Het lijkt mij een ERG interessant bordje, enige wat voor mij nog ontbreekt is VT-D, maar wellicht dat dit met de nieuwe ESXi-5.5 opgelost wordt (ik las eerder in dit topic al iets over RDM support die verbeterd is waardoor VT-D niet meer nodig is om disken aan een VM toe te wijzen.

Hiermee zou mijn wens voor een ESXI-machine met ZFS, ECC (32GB support) en een kleine footprint qua powerconsumptie wel eens waar kunnen worden >:)

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 21:30

Compizfox

Bait for wenchmarks

wopie schreef op donderdag 19 september 2013 @ 14:40:
[...]


Het Asrock bordje wat eerder gepost wordt biedt ondersteuning voor ESXi, deze heeft dezelfde CPU als degene die ik linkte.
Interessant ding inderdaad, alleen vraag ik me wel af hoe de performance van de CPU is.
Het lijkt mij een ERG interessant bordje, enige wat voor mij nog ontbreekt is VT-D, maar wellicht dat dit met de nieuwe ESXi-5.5 opgelost wordt (ik las eerder in dit topic al iets over RDM support die verbeterd is waardoor VT-D niet meer nodig is om disken aan een VM toe te wijzen.
Klopt, maar dat zijn natuurlijk nog wel 'geruchten'. Hoe goed de nieuwe virtual AHCI-controller is en of RDM echt beter wordt dan in 5.1, moeten we nog afwachten.
Desalniettemin heeft dat bord wel 3 (!) onboard SATA-controllers, dus als hij VT-d had ondersteund zou dat perfect zijn.

Gewoon een heel grote verzameling snoertjes


  • fluppie007
  • Registratie: April 2005
  • Laatst online: 11-09 12:06
Ik zou volgende config willen gebruiken om ZFSguru op een ESXi server te laten draaien:

#ProductPrijsSubtotaal
1Intel Core i5 3570 Boxed€ 182,60€ 182,60
1Asrock H77 Pro4/MVP€ 70,77€ 70,77
6Toshiba DT01ABA300, 3TB€ 0,-€ 0,-
1Fractal Design Define XL USB 3.0 Black Pearl€ 129,95€ 129,95
1HP NC364T PCI Express Quad Port Gigabit Server Adapter€ 151,81€ 151,81
4Corsair Vengeance LP CML8GX3M1A1600C9€ 70,51€ 282,04
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 118,58€ 118,58
1Seasonic G-Serie 360Watt€ 58,-€ 58,-
1Intel 320 300GB€ 527,12€ 527,12
Bekijk collectie
Importeer producten
Totaal€ 1.520,87


Wat zijn jullie eventuele bemerkingen?

  • Dadona
  • Registratie: September 2007
  • Laatst online: 20:58
....

[ Voor 98% gewijzigd door Dadona op 19-09-2013 17:18 . Reden: Ik ben aan het prutsen... ]

De CSL/OT kroeg !


  • GHorsie
  • Registratie: Oktober 2000
  • Laatst online: 20:07
Een punt dat wel voor mij van belang is en hopelijk inderdaad alleen voor de beta geldt:
Regarding hardware drivers there is bad news and good news for white box users: With ESXi 5.0 (and 5.1) VMware included drivers for consumer grade network adapters, specifically for Realtek (net-r8168 and net-r8169) and Marvell chip based NICs (net-sky2). The bad news now is that these drivers are not included in the current ESXi 5.5 beta builds. Hopefully this will change until the GA build will be released.

  • analog_
  • Registratie: Januari 2004
  • Niet online

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:19

FREAKJAM

"MAXIMUM"

Nog een erg informatief artikeltje gevonden over de Avoton.

is everything cool?


Acties:
  • 0 Henk 'm!

  • joenevd
  • Registratie: Januari 2007
  • Laatst online: 20:28
Momenteel ben ik ook aan het kijken naar een ESXi bak, voornamelijk voor test doeleinden zoals met Exchange bijvoorbeeld.

Ik zat te denken aan de volgende setup:
CPU: Intel i7-3770
MOBO: Supermicro X9SAE-V
Geheugen: Corsair Vengeance LP CML32GX3M4A1600C10B
Disk: Western Digital Green WD20EZRX, 2TB
Disk: Western Digital Green WD20EZRX, 2TB
Disk: Western Digital Green WD20EZRX, 2TB
Behuizing: BitFenix Merc Alpha

Eventueel, als het nodig is wil ik nog ergens een Dell 5/i of 6/i raid controller vandaan toveren als de onboard controller niet ondersteund wordt in ESXi.

Is dit een goede set-up? Of hebben jullie adviezen?
Pagina: 1 ... 55 ... 116 Laatste

Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!

Lees voor je begint goed de start post en blijf ontopic.