De on-board RAID controller gaat inderdaad niet werken. Wel de NIC overigens. (Deze werkt prima sinds de laatste ESXi 3.5 en 4.0 builds.) Ik heb zelf een losse HW RAID controller in de ML110. Werkt super voor wat hobby werk of leer trajecten.shadowman12 schreef op zondag 05 juli 2009 @ 17:55:
Ik ga een HP ML110 G5 aanschaffen met 8GB aan geheugen, en RAID 5, met iedere disk 500GB.
Hier komt ESX/vSphere op te draaien.Daar was toch iets met de netwerkkaart mee, ook met de onboard raid lees ik nu, dat wordt gezien als fake raid.
Hier wordt gemeld dat een Tyan S2895 werkt.
http://communities.vmware.com/message/862071?tstart=0
Heeft iemand er ervaring mee?
Ik zit erover te denken om in mijn 2e machine een 2.5 SSD te klooien@nvidia controller en 4x sata disk @ areca kaartje.
Lijkt me een prima plan, heeft iemand ervaring met een dergelijke setup (met een niet gek dure 32GB ssd)?
En dan uiteraard met ESXi.
http://communities.vmware.com/message/862071?tstart=0
Heeft iemand er ervaring mee?
Ik zit erover te denken om in mijn 2e machine een 2.5 SSD te klooien@nvidia controller en 4x sata disk @ areca kaartje.
Lijkt me een prima plan, heeft iemand ervaring met een dergelijke setup (met een niet gek dure 32GB ssd)?
En dan uiteraard met ESXi.
[ Voor 3% gewijzigd door Boudewijn op 07-07-2009 18:24 ]
Met de snelheidsverhoging van ziggo voldoet mijn download machine het niet meer.
Naast mijn download bak heb ik nog een firewall draaien met 4 nics.
Ik overweeg om dit allemaal op 1 bak te gaan draaien en dan ook de firewall virtueel te gaan draaien met dedicated nics.
Ik overweeg om een dell R200 te gaan gebruiken, met 2x 1tb sata. Waarvan 1 disk dedicated voor de downloak bak en de overige disk voor de andere machines.
Weet iemand of twee losse disks op de SAS i6r controller van dell worden gezien als twee losse datastorages? Dus niet één geheel?
Daarnaast de vraag of iemand weet of deze Dell R200 VT proof is met een goedkopere dual core core 2 duo cpu?
Naast mijn download bak heb ik nog een firewall draaien met 4 nics.
Ik overweeg om dit allemaal op 1 bak te gaan draaien en dan ook de firewall virtueel te gaan draaien met dedicated nics.
Ik overweeg om een dell R200 te gaan gebruiken, met 2x 1tb sata. Waarvan 1 disk dedicated voor de downloak bak en de overige disk voor de andere machines.
Weet iemand of twee losse disks op de SAS i6r controller van dell worden gezien als twee losse datastorages? Dus niet één geheel?
Daarnaast de vraag of iemand weet of deze Dell R200 VT proof is met een goedkopere dual core core 2 duo cpu?
Dat ligt er uiteraard maar net aan hoe je het inricht in je controllerWorkaholic schreef op maandag 13 juli 2009 @ 10:50:
[...]
Weet iemand of twee losse disks op de SAS i6r controller van dell worden gezien als twee losse datastorages? Dus niet één geheel?
[...]
Is dat zo? Ik heb ergens gelezen dat als je dit inricht als twee losse disks (no raid) dat je alsnog 1 data storage krijgt?
De Dell r200 zou overigens een chipset hebben die zonder de raid kaart ook in esx4.0 zou moeten werken?
De Dell r200 zou overigens een chipset hebben die zonder de raid kaart ook in esx4.0 zou moeten werken?
Als je controller 2 scsi id's laat zien, dan zie je twee datastores. Laat je controller maar 1 scsi id zien, dan zie je maar 1 datastore. Dacht ik..Workaholic schreef op maandag 13 juli 2009 @ 11:00:
Is dat zo? Ik heb ergens gelezen dat als je dit inricht als twee losse disks (no raid) dat je alsnog 1 data storage krijgt?
De Dell r200 zou overigens een chipset hebben die zonder de raid kaart ook in esx4.0 zou moeten werken?

Ik heb geen specifieke ervaring met de genoemde controller, maar in het algemeen vormt de raidcontroller een extra laag tussen de fysieke schijven en het OS. Wat voor hardware aan de raidcontroller hangt is totaal niet interessant voor het OS of dit nu 2 of 128 fysieke schijven zijn. Het OS weet uitsluitend wat de raidcontroller hem verteld en daar zal hij mee werken.Workaholic schreef op maandag 13 juli 2009 @ 10:50:
Met de snelheidsverhoging van ziggo voldoet mijn download machine het niet meer.
Naast mijn download bak heb ik nog een firewall draaien met 4 nics.
Ik overweeg om dit allemaal op 1 bak te gaan draaien en dan ook de firewall virtueel te gaan draaien met dedicated nics.
Ik overweeg om een dell R200 te gaan gebruiken, met 2x 1tb sata. Waarvan 1 disk dedicated voor de downloak bak en de overige disk voor de andere machines.
Weet iemand of twee losse disks op de SAS i6r controller van dell worden gezien als twee losse datastorages? Dus niet één geheel?
Daarnaast de vraag of iemand weet of deze Dell R200 VT proof is met een goedkopere dual core core 2 duo cpu?
Wat voorbeelden (weet niet of dit mogelijk met deze controller):
- Stel dat je beide schijven in een raid1 config zet, zal het OS een schijf detecteren van 1 TB.
- Maak je een raid0 config, zal het OS een schijf zien van 2 TB.
- Maak je een 50 GB raid1 logische schijf en de resterende ruimte elk in een JBOD van een schijf dan detecteert het OS, 3 schijven. 1 van 50 GB en 2 950 GB.
There are never enough hours in a day, but always too many days before saturday.
Hoop gedonder gehad afgelopen weekend.
Paar weken terug begon het al, random CRC errors. Ik denk, het nieuwe bijgeprikte memory speelt me parten. Die reepjes er uit, week stabiel gedraaid. Reepjes ge-RMA'ed. Afgelopen donderdag de boel weer hartstikke dood. Niet meer aan de gang te krijgen. Nieuw mobo besteld. Zaterdag er in gezet. Geen POST. Na een troubleshoot van een uurtje, bleek dat de PERC5/i het probleem was. Weer een uurtje gekloot, toen herinnerde ik me dat er een pinmod was toegepast. En inderdaad, de nagellak pinmod was niet meer
Pin mod opnieuw gedaan, ding boot. Na 10 minuten weer geen POST. Schoongemaakt, andere nagellak gebruikt, 3 lagen gedaan, en een nacht laten drogen. Server loopt nu nog steeds.
Ik wil dit gezeik niet nog eens hebben, dus wellicht weet hier iemand een oplossing om de pinmod van de PERC5/i definitief te maken. Dus geen tape, geen nagellak, gewoon definitief disablen van pin 5 en 6. In ieder geval een oplossing die niet hittegevoelig is, of slijtagegevoelig (verwijderen en inserten kaart in slot).
Anyway, ESX heeft eea netjes opgevangen. Hardware problemen uiteindelijk opgelost, netwerk opnieuw geconfigureerd, en na een half uurtje draaide alles weer. (Heb alleen even een minder gevoel bij de stabiliteit nu
)
Paar weken terug begon het al, random CRC errors. Ik denk, het nieuwe bijgeprikte memory speelt me parten. Die reepjes er uit, week stabiel gedraaid. Reepjes ge-RMA'ed. Afgelopen donderdag de boel weer hartstikke dood. Niet meer aan de gang te krijgen. Nieuw mobo besteld. Zaterdag er in gezet. Geen POST. Na een troubleshoot van een uurtje, bleek dat de PERC5/i het probleem was. Weer een uurtje gekloot, toen herinnerde ik me dat er een pinmod was toegepast. En inderdaad, de nagellak pinmod was niet meer
Pin mod opnieuw gedaan, ding boot. Na 10 minuten weer geen POST. Schoongemaakt, andere nagellak gebruikt, 3 lagen gedaan, en een nacht laten drogen. Server loopt nu nog steeds.
Ik wil dit gezeik niet nog eens hebben, dus wellicht weet hier iemand een oplossing om de pinmod van de PERC5/i definitief te maken. Dus geen tape, geen nagellak, gewoon definitief disablen van pin 5 en 6. In ieder geval een oplossing die niet hittegevoelig is, of slijtagegevoelig (verwijderen en inserten kaart in slot).
Anyway, ESX heeft eea netjes opgevangen. Hardware problemen uiteindelijk opgelost, netwerk opnieuw geconfigureerd, en na een half uurtje draaide alles weer. (Heb alleen even een minder gevoel bij de stabiliteit nu
Met een scherp mesje de bijbehorende baantjes van pin 5 en 6 doorsnijden? Let wel dat je het ding dan zo goed als nooit meer kan verkopen 
PS: ik gebruik gewoon de tapemod, werkt prima.
PS: ik gebruik gewoon de tapemod, werkt prima.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Ook al aan gedacht. Maar durf niet. Weet niet zo goed wat er nog meer in die PCB zit. Je zult maar iets belangrijks vernietigen
Ik las wel ergens net op het net dat "PCB" paint ook werkt. Ik ken het niet, ook geen idee waar je dat krijgt. Eigenlijk moet je inderdaad gewoon verf hebben die tegen de hitte kan (want damn, wat wordt dat ding heet), en niet geleidend is. Epoxy of zo, weet ik veel.
Verkoop? Wanneer zou je die kaart moeten verkopen dan?Microkid schreef op maandag 07 september 2009 @ 11:02:
Met een scherp mesje de bijbehorende baantjes van pin 5 en 6 doorsnijden? Let wel dat je het ding dan zo goed als nooit meer kan verkopen
PS: ik gebruik gewoon de tapemod, werkt prima.
Tapemod had ik ook ff gedaan. Nagellak duurde me te lang om uit te harden, ik tape er op geplakt. Na 10 minuten crash van ESX en daarna geen POST meer. Ik denk wtf? Trek de kaart uit het slot, tape gesmolten!!
[ Voor 47% gewijzigd door UltraSub op 07-09-2009 11:05 ]
En jawel hoor. Vanaf zondagmiddag flawless operation tot vannacht. Purple screen. Ik ben nu niet thuis, maar ik verdenk de PERC weer. Ik ga die baantjes doorsnijden, krijg de pest van die nagellak. Wat ik nu niet snap, is dat het op die manier 4 maanden per-fect heeft gedraaid, en het ding het nu nog geen 4 dagen vol kan houden. En dat terwijl in die 4 maanden perfecte operatie de temperaturen veel hoger waren. 
/edit
Net thuis. Nagellak was idd weer half gesmolten. Sjeez.
Met nagellak remover restanten weg gepoetst, Stanley mes gepakt, en 5 minuten snijden/krassen, weg baantjes. Op hoop van zegen terug in de server, en meteen draaien. Ik ga er vanuit dat de problemen nu niet meer mogen optreden, tenzij ik te weinig heb weggehaald, en door de temperatuurstijging het koper weer contact kan maken (overigens benieuwd wat dan gebeurd
)
/edit
Net thuis. Nagellak was idd weer half gesmolten. Sjeez.
Met nagellak remover restanten weg gepoetst, Stanley mes gepakt, en 5 minuten snijden/krassen, weg baantjes. Op hoop van zegen terug in de server, en meteen draaien. Ik ga er vanuit dat de problemen nu niet meer mogen optreden, tenzij ik te weinig heb weggehaald, en door de temperatuurstijging het koper weer contact kan maken (overigens benieuwd wat dan gebeurd

[ Voor 33% gewijzigd door UltraSub op 10-09-2009 13:50 ]
Heeft er toevallig iemand ESXi 3.5 draaiend op een DL360 G2? Ik kom nog niet eens door de installatie heen.
Officieël wordt de hardware niet ondersteunt, zover was ik al
Er is een wel een guide voor de DL360 G2 om deze te laten werken met ESXi 3.5, maar die is volgens mij alleen voor 'kernel panic' error. En die error komt ook pas na de installatie? Ik krijg tijdens de installatie een mooi paars scherm met de volgende error: no place on disk to dump data (mocht de voledige foutcode nodig zijn, wil ik die op verzoek ook wel posten
). De error zal vast iets te maken hebben met de raidcontroller die niet herkent wordt? Er zit een HP smart array 5i controller in icm 2 keer 74GB ultra320 in raid 1 in.
Iemand die nog ideeën heeft? Het zijn natuurlijk wel zwaar verouderde bakken
Officieël wordt de hardware niet ondersteunt, zover was ik al
Iemand die nog ideeën heeft? Het zijn natuurlijk wel zwaar verouderde bakken
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Gezien de expertise in dit topic even een vraag waar jullie wellicht een goed advies op kunnen geven. ik ben wat aan het rondkijken naar hardware voor een nieuwe server hier thuis. En dan gelijk te gaan beginnen met virtualisatie. Qua storage zal er 5 x 1.5TB schijven als RAID5 set in komen. Qua controller zit ik sterk te denken aan de perc5i.
Op dit moment heb ik 3 TB aan data wat ik er naar toe zal over gaan zetten. Het grootste punt wat ik me blijf afvragen is hoe ik de storage het best kan gaan opbouwen. Gezien de hoeveelheid data, wat ook een stuk verder zal groeien, kan ik het niet meer even naar een andere schijf zetten en opnieuw beginnen.
Mijn eerste gedachte was om voor hyper-v te gaan aangezien ik hier dan de 6TB vanuit RAID5 als een grote GPT partitie zou gaan formateren als NTFS. Aangezien de parent 2008 R2 is zou ik daar management software op kunnen installeren voor managen/monitoren van de raid controller. nou heb ik nog niet een dergelijke controller maar na een test te hebben gedraaid op een testpc vond ik hyper-v niet echt lekker werken op andere vlakken. ook eigenlijk de vereiste om een extra vm als management server (scvmm) en een als dc te moeten hebben. alles op de parent kon namelijk niet, want dan kreeg je fouten.
Xenserver heb ik nog niet gebruikt. esxi wel. het werkte prima. alleen kon ik nergens iets qua monitoring vinden. ook niet qua managen van de onboard raid controller (deze werd herkend). en om voor thuisgebruik nou vcenter aan te gaan schaffen vind ik too much. althans voor monitoring. ik weet dus niet of managen van raid controllers zelf wel mogelijk is vanuit esxi/xenserver.
Beetje warrig verhaal misschien maar ik vroeg me af wat jullie als advies geven, vooral met storage. Ik heb rondgekeken, hier, op google, etc. maar onderstaande vragen heb ik nog niet echt duidelijke antwoorden op kunnen vinden.
Op dit moment heb ik 3 TB aan data wat ik er naar toe zal over gaan zetten. Het grootste punt wat ik me blijf afvragen is hoe ik de storage het best kan gaan opbouwen. Gezien de hoeveelheid data, wat ook een stuk verder zal groeien, kan ik het niet meer even naar een andere schijf zetten en opnieuw beginnen.
Mijn eerste gedachte was om voor hyper-v te gaan aangezien ik hier dan de 6TB vanuit RAID5 als een grote GPT partitie zou gaan formateren als NTFS. Aangezien de parent 2008 R2 is zou ik daar management software op kunnen installeren voor managen/monitoren van de raid controller. nou heb ik nog niet een dergelijke controller maar na een test te hebben gedraaid op een testpc vond ik hyper-v niet echt lekker werken op andere vlakken. ook eigenlijk de vereiste om een extra vm als management server (scvmm) en een als dc te moeten hebben. alles op de parent kon namelijk niet, want dan kreeg je fouten.
Xenserver heb ik nog niet gebruikt. esxi wel. het werkte prima. alleen kon ik nergens iets qua monitoring vinden. ook niet qua managen van de onboard raid controller (deze werd herkend). en om voor thuisgebruik nou vcenter aan te gaan schaffen vind ik too much. althans voor monitoring. ik weet dus niet of managen van raid controllers zelf wel mogelijk is vanuit esxi/xenserver.
Beetje warrig verhaal misschien maar ik vroeg me af wat jullie als advies geven, vooral met storage. Ik heb rondgekeken, hier, op google, etc. maar onderstaande vragen heb ik nog niet echt duidelijke antwoorden op kunnen vinden.
- is bijv een perc5i te managen vanuit esxi? of althans de vsphere client dan om het goed te zeggen? dus raid expansion, add/remove, etc?
- ik heb gelezen dat als je de raid5 set in esxi als storage maakt je deze niet meer kunt uitbreiden. vanuit de perc5i bios werd er ook gesproken. de extra ruimte aan de set die je er bij krijgt zou je niet kunnen gebruiken.
- is er iets qua monitoring mogelijk met esxi zonder vcenter? in de vsphere client kwam ik niks tegen iig.
- en de grote vraag in hoe ik het beste de storage kan regelen. misschien moet ik wel helemaal niet naar esxi kijken maar juist wel hyper-v om een af andere reden, of misschien wellicht xenserver. dan hoor ik het natuurlijk graag. en hoe dus het best op te bouwen. in esxi zag ik enkel de storages die je aanmaakt. maar tevens zag ik een mogelijkheid om hardware dedicated toe te wijzen aan een vm. misschien dat ik het zo wel moet gaan doen, een vm bouwen als fireserver en daar de perc controller aan hangen. als ik de contructie goed begrijp tenminste.
Out of order...
Nee, je kan hem wel zien en de health bekijken, maar geen acties uitvoeren.Dat gaat gewoon via de bios van de Perc 5i.Da Killah schreef op maandag 14 september 2009 @ 23:27:
[list]
• is bijv een perc5i te managen vanuit esxi? of althans de vsphere client dan om het goed te zeggen? dus raid expansion, add/remove, etc?
Lijkt me vreemd,. Als je er een schijf bijprikt en je raid volume groter maakt, of een nieuw volume maakt, zou ESXi dat gewoon moeten zien (met name een nieuw volume). Ik kan me voorstellen dat je datastore natuurlijk niet groter wordt, maar de lege ruimte op je volume wel. En die kan je dan weer gebruiken om een nieuwe datastore op te maken. Zowiezo kan een datastore max 2TB zijn. Als je je datastore wilt uitbreiden zal je dit middels een extent moeten doen.• ik heb gelezen dat als je de raid5 set in esxi als storage maakt je deze niet meer kunt uitbreiden. vanuit de perc5i bios werd er ook gesproken. de extra ruimte aan de set die je er bij krijgt zou je niet kunnen gebruiken.
Kijk eens naar VEEAM monitor• is er iets qua monitoring mogelijk met esxi zonder vcenter? in de vsphere client kwam ik niks tegen iig.
• en de grote vraag in hoe ik het beste de storage kan regelen. misschien moet ik wel helemaal niet naar esxi kijken maar juist wel hyper-v om een af andere reden, of misschien wellicht xenserver. dan hoor ik het natuurlijk graag. en hoe dus het best op te bouwen. in esxi zag ik enkel de storages die je aanmaakt. maar tevens zag ik een mogelijkheid om hardware dedicated toe te wijzen aan een vm. misschien dat ik het zo wel moet gaan doen, een vm bouwen als fireserver en daar de perc controller aan hangen. als ik de contructie goed begrijp tenminste.
[/list]
Alvast bedankt voor het lezen en beantwoorden
[ Voor 8% gewijzigd door Microkid op 15-09-2009 05:43 ]
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Ik ben ook bezig met VEEAM monitor (gratis versie), op zich hele mooie software. Ik heb nu 2 ESXi 4.0 server toegevoegd, die kan ik goed monitoren, werkt perfect. Maar nu wil ik een derde server toevoegen en daar gaat het nu mis. IP en DNS configuratie is goed. Ik kan pingen op hostname en IP-adres, ik kan ook naar de webpagina van de server. Met vSphere kan ik de server ook gewoon beheren. Echter als ik hem toevoeg komt er na een 10 seconden '(connection problems) (not responding)' te staan...
Voor zover ik kan zien is alle configuratie hetzelfde. Het enige verschil is dat de server waar ik problemen mee heb, is dat die ESXi vanaf usb stick draait...
Zijn er meer mensen die VEEAM monitor gebruiken icm ESXi 4.0 en op een usb-stick hebben draaien?
Het gaat om 2 DL380 G5 servers en 1 DL360 G5, bij 1 van de DL380's komt het probleem voor.
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Ah, probleem is opgelost...StefanvanGelder schreef op dinsdag 15 september 2009 @ 09:41:
[...]
Ik ben ook bezig met VEEAM monitor (gratis versie), op zich hele mooie software. Ik heb nu 2 ESXi 4.0 server toegevoegd, die kan ik goed monitoren, werkt perfect. Maar nu wil ik een derde server toevoegen en daar gaat het nu mis. IP en DNS configuratie is goed. Ik kan pingen op hostname en IP-adres, ik kan ook naar de webpagina van de server. Met vSphere kan ik de server ook gewoon beheren. Echter als ik hem toevoeg komt er na een 10 seconden '(connection problems) (not responding)' te staan...
Voor zover ik kan zien is alle configuratie hetzelfde. Het enige verschil is dat de server waar ik problemen mee heb, is dat die ESXi vanaf usb stick draait...
Zijn er meer mensen die VEEAM monitor gebruiken icm ESXi 4.0 en op een usb-stick hebben draaien?
Het gaat om 2 DL380 G5 servers en 1 DL360 G5, bij 1 van de DL380's komt het probleem voor.
De tijd stond niet goed op de ESXi server
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Hoi Microkid, bedankt voor het reageren. Het zullen newbie vragen zijn maar kom pas net om de hoek kijken met virtualisatie.
Ah ok. Wel jammer dat er geen ondersteuning is om je raid sets ook te managen zoals je met openmanage onder linux of windows kan. Maar in ieder geval kun je dus wel zien dat er iets mis is.Nee, je kan hem wel zien en de health bekijken, maar geen acties uitvoeren.Dat gaat gewoon via de bios van de Perc 5i.
Mijn doel is om een fileserver te hebben in een VM met de volledige RAID5 set van 6TB ruimte als dan GPT partitie. Maar dit is dus niet mogelijk om als datastore te maken. Zijn er andere mogelijkheden waar jij van weet waarbij dit wel mogelijk te maken is? Hoe dan ook?Lijkt me vreemd,. Als je er een schijf bijprikt en je raid volume groter maakt, of een nieuw volume maakt, zou ESXi dat gewoon moeten zien (met name een nieuw volume). Ik kan me voorstellen dat je datastore natuurlijk niet groter wordt, maar de lege ruimte op je volume wel. En die kan je dan weer gebruiken om een nieuwe datastore op te maken. Zowiezo kan een datastore max 2TB zijn. Als je je datastore wilt uitbreiden zal je dit middels een extent moeten doen.
Of moet ik dan echt het hypervisor idee gaan afschaffen en voor vmware server op linux of windows gaan?
Bedankt! Die was ik nog niet tegenkomen. Zo te zien kun je van daaruit wel alerts in stellen terwijl je daar anders vcenter voor nodig hebt. Of zie ik het verkeerd?Kijk eens naar VEEAM monitor
Out of order...
Met de custom Dell ESX3i flash installer heb je de OM agents welke je gewoon middels openmanage server console kan aansturen. Op die manier kun je je raid controller monitoren/managen enz.Da Killah schreef op dinsdag 15 september 2009 @ 22:39:
[...]
Ah ok. Wel jammer dat er geen ondersteuning is om je raid sets ook te managen zoals je met openmanage onder linux of windows kan. Maar in ieder geval kun je dus wel zien dat er iets mis is.
[...]
Deze kun je probleemloos upgraden naar ESX4i (de 4i iso is nog niet voor publiek beschikbaar).
Daarnaast heeft ESXi natuurlijk zelf ook monitoring voor de Perc5/i echter geen management.
[ Voor 22% gewijzigd door DukeBox op 15-09-2009 23:03 ]
Duct tape can't fix stupid, but it can muffle the sound.
Ik heb het gisteren even uitgezocht en uitgeprobeerd. Je kan gewoon schijven bijprikken en dan je volume groter maken via de Perc bios. ESXi zal dan ook een groter volume zien. Je kan dan je datastore extenden zodat ie groter wordt (tot max 2TB). Of je maakt extra datastores aan. In elk geval kan je zo je 6TB helemaal gebruiken. Echter niet als 1 grote datastore, maar dat is puur de beperking van ESXi. GPT gaat gewoon niet lukken, ESXI zal alle disks voor zichzelf willen hebben dus zal je ze moeten converteren naar VMFS formaat.Da Killah schreef op dinsdag 15 september 2009 @ 22:39:
Mijn doel is om een fileserver te hebben in een VM met de volledige RAID5 set van 6TB ruimte als dan GPT partitie. Maar dit is dus niet mogelijk om als datastore te maken. Zijn er andere mogelijkheden waar jij van weet waarbij dit wel mogelijk te maken is? Hoe dan ook?
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Verwijderd
Gister heb ik ESXi 4 geïnstalleerd op een systeem met een MSI K9N SLI (nForce 570) moederbord als basis, alles werd probleemloos herkend
.
bedankt! dat is zeker interessant. nergens heb ik kunnen vinden dat je de perc controllers kon managen. bedankt voor de link. te zien aan de ondersteunde server lijst moet de perc6i op deze manier ook te managen zijn. ik zag ik ik die goedkoper kan krijgen dan de perc5i. weet jij zo ook of je dit kunt gebruiken met een white box met daarin een perc controller?DukeBox schreef op dinsdag 15 september 2009 @ 23:00:
[...]
Met de custom Dell ESX3i flash installer heb je de OM agents welke je gewoon middels openmanage server console kan aansturen. Op die manier kun je je raid controller monitoren/managen enz.
Deze kun je probleemloos upgraden naar ESX4i (de 4i iso is nog niet voor publiek beschikbaar).
Daarnaast heeft ESXi natuurlijk zelf ook monitoring voor de Perc5/i echter geen management.
Out of order...
bedankt daarvoor. dat geeft dus al heel wat info. in esxi heb je ook een optie om devices rechtstreeks aan een vm te koppelen. nadeel is dan dat andere vm's de devices niet zien. heb je toevallig hier ook ervaring mee? bij mijn hardware werd het niet ondersteund dus kon het niet proberen.Microkid schreef op woensdag 16 september 2009 @ 05:26:
[...]
Ik heb het gisteren even uitgezocht en uitgeprobeerd. Je kan gewoon schijven bijprikken en dan je volume groter maken via de Perc bios. ESXi zal dan ook een groter volume zien. Je kan dan je datastore extenden zodat ie groter wordt (tot max 2TB). Of je maakt extra datastores aan. In elk geval kan je zo je 6TB helemaal gebruiken. Echter niet als 1 grote datastore, maar dat is puur de beperking van ESXi. GPT gaat gewoon niet lukken, ESXI zal alle disks voor zichzelf willen hebben dus zal je ze moeten converteren naar VMFS formaat.
misschien verkeerde gedachte en is het niet mogelijk op die manier, maar je zou zeggen dat je dan puur de perc controller aan een vm toekent welke een fileserver is. daarin zou ik windows kunnen gebruiken en alsnog een 6TB set kunnen maken. tevens dan denk ik ook openmanage software installeren. mits dat gebruikt kan worden voor een perc controller in een niet-dell systeem. kan alleen nergens iets over die functie met betrekking tot bovenstaande vinden...
EDIT: LINKJE
Out of order...
Daar heb je vrij speciale hardware voor nodig en dan nog is het de vraag of het werkt. Ik zou gewoon die 6TB opknippen in 3 datastores van 2TB elk en die aan je Windows fileserver VM hangen
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Sjonge jonge... Ik krijg er een beetje de schijt van. Al vanalles geprobeerd.UltraSub schreef op donderdag 10 september 2009 @ 09:31:
En jawel hoor. Vanaf zondagmiddag flawless operation tot vannacht. Purple screen. Ik ben nu niet thuis, maar ik verdenk de PERC weer. Ik ga die baantjes doorsnijden, krijg de pest van die nagellak. Wat ik nu niet snap, is dat het op die manier 4 maanden per-fect heeft gedraaid, en het ding het nu nog geen 4 dagen vol kan houden. En dat terwijl in die 4 maanden perfecte operatie de temperaturen veel hoger waren.
/edit
Net thuis. Nagellak was idd weer half gesmolten. Sjeez.
Met nagellak remover restanten weg gepoetst, Stanley mes gepakt, en 5 minuten snijden/krassen, weg baantjes. Op hoop van zegen terug in de server, en meteen draaien. Ik ga er vanuit dat de problemen nu niet meer mogen optreden, tenzij ik te weinig heb weggehaald, en door de temperatuurstijging het koper weer contact kan maken (overigens benieuwd wat dan gebeurd)
De baantjes zijn doorgesneden, want hij boot zonder pinmod (naja, nagellak/tape dan). Draait een dag of twee, crash. Heb ik van die zwarte electriciteitstape geprobeerd, lijm laat los, en de boel verschuift. Daarna met 10 seconden lijm die tape vast geplakt. Bijna twee weken gedraaid, ik denk probleem opgelost. Net weer een crash. Ik check de tape, die nog gewoon vast zit, zitten er 3 puntjes in waar ik de pins door kan zien. Het ding wordt gewoon zo vies warm, das niet normaal. Hebben jullie op die PERC allemaal extra koeling zitten of zo? Ben super tevreden over mijn whitebox, over die PERC adapter ook, maar die pinmod breekt me echt op. Zeer irritant, zo'n systeem wat je niet kan vertrouwen. Zeker niet nu ik net vader van de tweede ben geworden, en daar dus ál mijn tijd ff naar toe gaat
Ik zoe ze niet doorsnijden maar echt over enkele millimeters doorkrassen.
Dus 2 sneetjes en het deel ertussen wegkrassen.
Dus 2 sneetjes en het deel ertussen wegkrassen.
Volgens mij moet je toch echt eens nakijken wat je fout doet, want deze pinmod is vrij gebruikelijk en ik lees er geen problemen over. Zelf draai ik er al ruim een half jaar mee zonder problemen. Als koeling heb ik een 4cm fannetje op de Perc geschroeft, meer niet. En natuurlijk voldoende airflow in de kast. Wellicht gebeurt er bij jou iets anders waardoor het zo heet wordt. Andere voltages? Andere PCI-e slot? Kijk anders eens bij mijn specs ter vergelijking.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Ik heb geen perc5 meer, alleen de perc6 maar die wordt niet echt warm.. ik kan mijn vingers nog makkelijk op de koelblokjes houden.
Duct tape can't fix stupid, but it can muffle the sound.
Heb ik gedaan. Kwam tot de conclusie dat ik blijkbaar toch best diep moest. Heb een paar mm er tussen uit gehaald. Hij boot zonder tape als hij koud is, maar na een paar dagen heb ik een crash. Dus toch niet genoeg. Durf eigenlijk niet nog verder, bang dat ik de kaart afschrijfBoudewijn schreef op zondag 20 september 2009 @ 19:51:
Ik zoe ze niet doorsnijden maar echt over enkele millimeters doorkrassen.
Dus 2 sneetjes en het deel ertussen wegkrassen.
Ik weet dat deze mod overal gebruikt wordt. En mede daarom snap ik het ook echt niet. Kast en layout zijn exact hetzelfde als toen ik de eerste 4 maanden vlekkeloos heb gedraaid (met nagellak). Alles in bios is in principe default qua voltages en zo. Het gaat om een PCI-e x8 x16 slot. Heb zelfs een nieuwere versie van mijn mobo (P5Q Pro Turbo, waar ik voorheen zonder problemen op een P5Q Pro heb gedraaid) geprobeerd, maar ook daar gaat het mis. Als ik die kaart er uit pak nadat hij een tijdje heeft gedraaid, verbrand ik net mijn vingers niet. Ik denk dat de airflow niet 100% perfect is, maar als ik alle andere componenten zo voel, is er niks mis mee. Er ligt een 1-wire geijkte sensor onder de kaart, en die geeft strak 33 graden kasttemperatuur aan. Zelf denk ik dat de chips op de controller zo heet worden (daar brand je dus wel je vingers aan) dat die warmte door wordt gegeven aan de pins die het slot in gaan. Ik ga eens testen (als ik tijd krijg), met een 8 cm ventilator recht op de kaart gericht, kijken of dat wat uitmaakt.Microkid schreef op zondag 20 september 2009 @ 19:52:
Volgens mij moet je toch echt eens nakijken wat je fout doet, want deze pinmod is vrij gebruikelijk en ik lees er geen problemen over. Zelf draai ik er al ruim een half jaar mee zonder problemen. Als koeling heb ik een 4cm fannetje op de Perc geschroeft, meer niet. En natuurlijk voldoende airflow in de kast. Wellicht gebeurt er bij jou iets anders waardoor het zo heet wordt. Andere voltages? Andere PCI-e slot? Kijk anders eens bij mijn specs ter vergelijking.
Is de 6 sowieso koeler doorgaans? Ik heb geen idee. Maar dat er bij iets niet lekker gaat mag wel duidelijk zijn.DukeBox schreef op zondag 20 september 2009 @ 22:34:
Ik heb geen perc5 meer, alleen de perc6 maar die wordt niet echt warm.. ik kan mijn vingers nog makkelijk op de koelblokjes houden.
[ Voor 0% gewijzigd door UltraSub op 21-09-2009 14:58 . Reden: Slot is x16, kaar is x8 ;) ]
Verwijderd
Ik heb even een vraag over de Perc 6. Kan deze zonder modden gewoon in een non-Dell machine gestopt worden? Ik heb een ML110 en wil hier graag een Perc 6 instoppen. Gaat dit zonder problemen? Of is hier ook een mod voor nodig net zoals de 5i?
Update over mijn PERC5i:
Weer een hoop problemen gehad. Uiteindelijk de complete pin 5 en 6 weg gekrast, inclusief het gedeelte wat in het slot gaat. Ding kan dus never nooit geen contact meer maken. Tenminste, daar ga ik vanuit
Net echter toch weer een crash gehad. Ik denk, zet ik even een kaart van een vriend er in, exact dezelfde, zelfde firmware zelfde alles. Kreeg UUID problemen bij opstarten. Ik denk hmm, nu ff geen zin in, oude kaart er weer in, inmiddels koelertje opgefrot. 0 logical drives found. *slik*. Import foreign disks gedaan, array weer terug, wel UUID problemen. Gefixed met esxcfg-boot -p. Resignature van de disks, alles opnieuw geimporteerd en rdms aangepast. Ding draait dus weer.
Kaart is WAY koeler nu met een chipset fan op de heatsink. Is nu handwarm. Hoop nu dat de kaart gewoon te warm werd, en daardoor raar ging doen. Time will tell.
Ik vind het wel maar raar dat die kaart bij mij zo warm wordt. Ik lees op het net veel dat deze kaart zo warm wordt, maar nergens lees ik zoveel problemen. Alhoewel in dit topic (nice topic btw) er wel wordt gesproken dat forced air cooling een must is:
http://www.overclock.net/...c-5-i-raid-card-tips.html
Weer een hoop problemen gehad. Uiteindelijk de complete pin 5 en 6 weg gekrast, inclusief het gedeelte wat in het slot gaat. Ding kan dus never nooit geen contact meer maken. Tenminste, daar ga ik vanuit
Net echter toch weer een crash gehad. Ik denk, zet ik even een kaart van een vriend er in, exact dezelfde, zelfde firmware zelfde alles. Kreeg UUID problemen bij opstarten. Ik denk hmm, nu ff geen zin in, oude kaart er weer in, inmiddels koelertje opgefrot. 0 logical drives found. *slik*. Import foreign disks gedaan, array weer terug, wel UUID problemen. Gefixed met esxcfg-boot -p. Resignature van de disks, alles opnieuw geimporteerd en rdms aangepast. Ding draait dus weer.
Kaart is WAY koeler nu met een chipset fan op de heatsink. Is nu handwarm. Hoop nu dat de kaart gewoon te warm werd, en daardoor raar ging doen. Time will tell.
Ik vind het wel maar raar dat die kaart bij mij zo warm wordt. Ik lees op het net veel dat deze kaart zo warm wordt, maar nergens lees ik zoveel problemen. Alhoewel in dit topic (nice topic btw) er wel wordt gesproken dat forced air cooling een must is:
http://www.overclock.net/...c-5-i-raid-card-tips.html
Sooo... Fingers crossed! Als dit werkt ga ik een nette oplossing met heatsinks/pipes bouwen. Is nu alleen een 60 mm fannetje met 1 schroefje er in gedraaid.Forced Airflow is Required
Intel thermal specifications: http://download.intel.com/design/iio...s/30663002.pdf
The Tj maximum temperature is 110C. However, do NOT run the IOP333 passively. The heatsink needs force airflow. Intel's thermal analysis used a heatsink of the same size but with more fins (hence better). However, they require a minimum of 200LFM with there heatsink. Over the surface the PERC stock heatsink, that is at least 4CFM. Do realize that if you used a 80mm fan, you would need a higher CFM rating of around 16CFM. This is assuming that the 80mm fan is next to the HS.
Bottom Line: Make sure to force air cool the PERC 5/i CPU. The card is designed for Dell servers with forced air.
Tja, dat hebben we inderdaad over het hoofd gezien. De perc 5/i zit normaliter in een server met tig fans. Dan wordt hij goed gekoeld. Maar in een PC met minder airflow moet je zelf aan de slag. Ik heb er een 40mm fan op en die houdt de CPU lekker koel. Doe je dat niet, dan kunnen inderdaad crashes ontstaan.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Dat valt wel mee.. in mijn T300 zitten maar 2 fans.. 1 grote als tunnel voor de cpu en geheugen en 1 in de standaard atx voeding.Microkid schreef op donderdag 08 oktober 2009 @ 23:47:
Tja, dat hebben we inderdaad over het hoofd gezien. De perc 5/i zit normaliter in een server met tig fans.
Ding is ook erg stil voor een server. De perc6 wordt echt maar hand warm.
Is het niet iets als een pcie bus die is overgeclocked o.i.d. ?
[ Voor 7% gewijzigd door DukeBox op 09-10-2009 00:02 ]
Duct tape can't fix stupid, but it can muffle the sound.
Dat zou ik zeker ook nooit doen voor een ESXi server. Gewoon lekker alles op stock laten draaien, geen risico's nemen.DukeBox schreef op vrijdag 09 oktober 2009 @ 00:01:
[...]
Is het niet iets als een pcie bus die is overgeclocked o.i.d. ?
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Inderdaad, dat zou ik nooit doen voor een server als ESX. Allemaal stock hier dus.
Maar misschien heeft de kaart meer ruimte, en toevallig meer airflow bij jou DukeBox. In ieder geval zat hij bij mij met ongeveer een cm speling boven de nics. Heb hem nu verwisseld met de vga kaart. Nu zit de perc in het bovenste pcie slot, met daar onder een cm of 8 vrije ruimte. Dus ook plenty ruimte om straks op andere manieren te gaan koelen mocht dit de oorzaak van mijn problemen zijn geweest.
Maar ik blijf er bij dat ik het heel heel raar vind dat het eerst 4 maanden vlekkeloos draait, en dan ineens zo'n enorme hitteproblemen ontstaan. Verder is niks veranderd aan de indeling en koeling van de case. Iek niet snap.
Maar goed, time will tell. Hoop dat het blijft draaien zo en dat dit de oorzaak was.
Maar misschien heeft de kaart meer ruimte, en toevallig meer airflow bij jou DukeBox. In ieder geval zat hij bij mij met ongeveer een cm speling boven de nics. Heb hem nu verwisseld met de vga kaart. Nu zit de perc in het bovenste pcie slot, met daar onder een cm of 8 vrije ruimte. Dus ook plenty ruimte om straks op andere manieren te gaan koelen mocht dit de oorzaak van mijn problemen zijn geweest.
Maar ik blijf er bij dat ik het heel heel raar vind dat het eerst 4 maanden vlekkeloos draait, en dan ineens zo'n enorme hitteproblemen ontstaan. Verder is niks veranderd aan de indeling en koeling van de case. Iek niet snap.
Maar goed, time will tell. Hoop dat het blijft draaien zo en dat dit de oorzaak was.
Hardware kan natuurlijk onder invloed van hitte langzaam slechter worden, waarna je pas na verloop van tijd rare dingen gaat zien. Als het op een niet-overclockte machine met voldoende koeling gewoon goed werkt weet je in elk geval de waarschijnlijke oorzaak.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Net weer een crash. Unable to mount root.
Kaart er uit, kaart van een vriend pinmod met tape gedaan, fan er op geschroefd, nodige herconfiguratie weer, en draaien.. Laatste hoop is dus dat de hoge temperaturen mijn kaart om zeep hebben geholpen. Die van die maat is nieuw, en gaat dus vanaf het begin actief gekoeld draaien. Again; time will tell.
Krijg er wel behoorlijk de schijt van zo. Lekker hoor
Kaart er uit, kaart van een vriend pinmod met tape gedaan, fan er op geschroefd, nodige herconfiguratie weer, en draaien.. Laatste hoop is dus dat de hoge temperaturen mijn kaart om zeep hebben geholpen. Die van die maat is nieuw, en gaat dus vanaf het begin actief gekoeld draaien. Again; time will tell.
Krijg er wel behoorlijk de schijt van zo. Lekker hoor
Ik weet dat dit een oud topic is, maar ik reageer graag toch even hier, in plaats van een nieuw aan te maken topic.
Ik wil voor mezelf een soort testlab bouwen, niet alleen omdat ik het interessant vind, maar ook omdat ik hands on practice ervaring wil hebben met Windows 2003, Windows 2008. Ook wil ik graag wat meer met Linux doen, dus kan dat gelijk meenemen, een Ubuntu distro lijkt me daar goed genoeg voor.
Eventueel wat XP clients tbv testdomein of zo, al is dat geen pre, zolang ik maar de ervaring opdoe met ESX(i) en Windows 2003 en Windows 2008.
Het liefste heb ik een kant en klaar systeem, welke gelijk werkt met ESX, zonder al te veel poespas.
Ik zit daarom te kijken naar HP ML11x systemen en heb momenteel de volgenden op het oog:
De HP ProLiant ML115 G5 is een AMD Opteron 1354 machine, 2,2GHz, het werkgeheugen en de storage ga ik dan wel opwaarderen natuurlijk.
De HP ProLiant ML110 G5 is een Intel Xeon X3330 machine, 2,6GHz, het werkgeheugen en de storage ga ik dan wel (ook hier) opwaarderen natuurlijk.
Ik denk dat ik aan 8GB werkgeheugen wel voldoende heb, dit is tevens de max van beide machines.
Qua storage zit ik te denken aan 1,5 a 2 TB, dat is voor mij ruim voldoende. Performance hiervan is voor mij niet echt van belang, ben dan meestal toch de enige gebruiker en via een gbit lan moet dat voor mezelf wel snel genoeg zijn dacht ik zo.
Ik weet alleen niet welke beter zal presteren. Het prijsverschil is ongeveer 250 euro. Heb niet echt een budget nog, want zit in een inventariseerde fase en wil vooral bang for the buck hebben / weten.
Als het qua performance niets of weinig uit zou maken, is het dus het interessants om de AMD te nemen, de 250 euro 'winst' kan ik dan gebruiken voor geheugen en storage en moet dan denk ik echt wel een eind komen.
Hoe zijn jullie ideeën hierbij, ben ik een beetje goed op weg voor een thuis (ESX(i)) machine?
Heb de HCL en zo wel bekeken, maar het is zo'n berg info wat er dan op je af komt denderen. Omdat er zoveel informatie is, en een boel systemen er zijn die (goed) werken met ESX ben ik momenteel het spoor bijster.
Ik wil voor mezelf een soort testlab bouwen, niet alleen omdat ik het interessant vind, maar ook omdat ik hands on practice ervaring wil hebben met Windows 2003, Windows 2008. Ook wil ik graag wat meer met Linux doen, dus kan dat gelijk meenemen, een Ubuntu distro lijkt me daar goed genoeg voor.
Eventueel wat XP clients tbv testdomein of zo, al is dat geen pre, zolang ik maar de ervaring opdoe met ESX(i) en Windows 2003 en Windows 2008.
Het liefste heb ik een kant en klaar systeem, welke gelijk werkt met ESX, zonder al te veel poespas.
Ik zit daarom te kijken naar HP ML11x systemen en heb momenteel de volgenden op het oog:
De HP ProLiant ML115 G5 is een AMD Opteron 1354 machine, 2,2GHz, het werkgeheugen en de storage ga ik dan wel opwaarderen natuurlijk.
De HP ProLiant ML110 G5 is een Intel Xeon X3330 machine, 2,6GHz, het werkgeheugen en de storage ga ik dan wel (ook hier) opwaarderen natuurlijk.
Ik denk dat ik aan 8GB werkgeheugen wel voldoende heb, dit is tevens de max van beide machines.
Qua storage zit ik te denken aan 1,5 a 2 TB, dat is voor mij ruim voldoende. Performance hiervan is voor mij niet echt van belang, ben dan meestal toch de enige gebruiker en via een gbit lan moet dat voor mezelf wel snel genoeg zijn dacht ik zo.
Ik weet alleen niet welke beter zal presteren. Het prijsverschil is ongeveer 250 euro. Heb niet echt een budget nog, want zit in een inventariseerde fase en wil vooral bang for the buck hebben / weten.
Als het qua performance niets of weinig uit zou maken, is het dus het interessants om de AMD te nemen, de 250 euro 'winst' kan ik dan gebruiken voor geheugen en storage en moet dan denk ik echt wel een eind komen.
Hoe zijn jullie ideeën hierbij, ben ik een beetje goed op weg voor een thuis (ESX(i)) machine?
Heb de HCL en zo wel bekeken, maar het is zo'n berg info wat er dan op je af komt denderen. Omdat er zoveel informatie is, en een boel systemen er zijn die (goed) werken met ESX ben ik momenteel het spoor bijster.
[ Voor 4% gewijzigd door CH4OS op 22-11-2009 23:02 ]
Ik vind het nog best veel voor de specs.. de T series van Dell heb je vergelijkbaar al voor 260€ minder.
Duct tape can't fix stupid, but it can muffle the sound.
Ik stond een tijdje terug voor dezelfde keuze. Ben toen voor de HP ML150 G5 gegaan. Belangrijkste argument was uiteindelijk 't lawaai. De HP was een stuk stiller dan de vergelijkbare Dell toen. Iets wat voor een thuisserver toch best belangrijk kan zijn.
Ik zou de ML110 nemen. Meer snelheid, meer cache in de CPU, dat vindt ESX alleen maar lekker 
Let er trouwens op dat de ML110 en ML115 officieel niet op de HCL staan, maar volgens bronnen op internet wel met ESX(i) 4.0 werken.
Let er trouwens op dat de ML110 en ML115 officieel niet op de HCL staan, maar volgens bronnen op internet wel met ESX(i) 4.0 werken.
[ Voor 41% gewijzigd door Microkid op 23-11-2009 05:23 ]
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Daar zit zeker veel verschil in.. ik zelf heb zo een PE2900 gehad.. maar uiteindelijk na 2 jaar toch verkocht vanwege het toch wel heel erg aanwezige lawaai. Zeker rond de zomer periodes, temp ligt dan toch wat hoger en je zet dan het liefst wat meer deuren open, zodat het lawaai alleen maar erger wordt.PisPix schreef op maandag 23 november 2009 @ 00:35:
Belangrijkste argument was uiteindelijk 't lawaai.
Uiteindelijk vervangen voor een T300, deze is net zo stil als een gemiddelde dimension desktop.
Duct tape can't fix stupid, but it can muffle the sound.
Hmmm... Dacht dat de AMD's NUMA hebben, wat ESX(i) ook erg fijn vind, maar dat ga ik nog even zelf uitzoeken, dankjewel voor je advies in ieder geval.Microkid schreef op maandag 23 november 2009 @ 05:21:
Ik zou de ML110 nemen. Meer snelheid, meer cache in de CPU, dat vindt ESX alleen maar lekker
Let er trouwens op dat de ML110 en ML115 officieel niet op de HCL staan, maar volgens bronnen op internet wel met ESX(i) 4.0 werken.
Mja ik kan hardware nemen welke wél allemaal in de HCL is te vinden, maar dan word het systeem helemaal veels te duur, waar ik niet op zit te wachten.
Alleen ben ik niet zo gecharmeerd van Dell, vandaar dat ik Dell liever vermijd en wat meer betaal voor een mooi HP systeem.DukeBox schreef op zondag 22 november 2009 @ 23:03:
Ik vind het nog best veel voor de specs.. de T series van Dell heb je vergelijkbaar al voor 260€ minder.
Tja geluid is op zich niet z'n probleem, zeker bij het booten niet.PisPix schreef op maandag 23 november 2009 @ 00:35:
Ik stond een tijdje terug voor dezelfde keuze. Ben toen voor de HP ML150 G5 gegaan. Belangrijkste argument was uiteindelijk 't lawaai. De HP was een stuk stiller dan de vergelijkbare Dell toen. Iets wat voor een thuisserver toch best belangrijk kan zijn.
Mijn huidige server maakt ook wel wat herrie, maar hoor ik toch niet zo erg, omdat ik over het algemeen altijd met een headset op muziek luister en een spelletje speel op mijn PC.
[ Voor 3% gewijzigd door CH4OS op 23-11-2009 13:09 ]
Ik ben ook met vmware esxi 4.0 aan het experimenteren. Hoe zit het eigenlijk met jullie configuratie kwa schijven?
Ik zelf heb 4 SCSI schijven die ik in raid wil draaien. Helaas geen geld voor meer schijven en ook raid 5 is niet ondersteund maar goed dat even terzijde.
Hoe delen jullie dat in? Nemen jullie aparte schijven om vmware esxi zelf op te draaien of draaien jullie esxi op de zelfde schijven als de vmware VMFS partitie op komt te staan?
Zelf zit ik een beetje te denken om het als Raid 1 + 0 in te delen en dan 2 partities aan te maken. 1 voor vmware esxi en 1 voor de VMFS partitie. Is dit het slimste om op deze manier te doen of zijn er betere manieren voor ?
Ik zelf heb 4 SCSI schijven die ik in raid wil draaien. Helaas geen geld voor meer schijven en ook raid 5 is niet ondersteund maar goed dat even terzijde.
Hoe delen jullie dat in? Nemen jullie aparte schijven om vmware esxi zelf op te draaien of draaien jullie esxi op de zelfde schijven als de vmware VMFS partitie op komt te staan?
Zelf zit ik een beetje te denken om het als Raid 1 + 0 in te delen en dan 2 partities aan te maken. 1 voor vmware esxi en 1 voor de VMFS partitie. Is dit het slimste om op deze manier te doen of zijn er betere manieren voor ?
Hoe zitten jullie met memory in whiteboxes?
Na de PERC5 geelimineerd te hebben (warmte prob opgelost, en pinmod definitief gemaakt), had ik nog steeds last van purple screens. Is nu ook opgelost (naja, workaround), door terug te gaan van 8 naar 4GB ram. Draai op een P5Q Pro Turbo plank. Met 2x 2GB niks aan de hand. Met 4x 2GB random crashes. RAM is al ge-rma'd en heb ik nieuwe voor gekregen (alle repen zijn Corsair Dominator XMS2-8500 1066MHz 5-5-5-15)
Na de PERC5 geelimineerd te hebben (warmte prob opgelost, en pinmod definitief gemaakt), had ik nog steeds last van purple screens. Is nu ook opgelost (naja, workaround), door terug te gaan van 8 naar 4GB ram. Draai op een P5Q Pro Turbo plank. Met 2x 2GB niks aan de hand. Met 4x 2GB random crashes. RAM is al ge-rma'd en heb ik nieuwe voor gekregen (alle repen zijn Corsair Dominator XMS2-8500 1066MHz 5-5-5-15)
Draai hier gewoon met 8GB en de Perc 5/i zonder problemen. Zie systemspecs.UltraSub schreef op maandag 23 november 2009 @ 20:47:
Hoe zitten jullie met memory in whiteboxes?
Na de PERC5 geelimineerd te hebben (warmte prob opgelost, en pinmod definitief gemaakt), had ik nog steeds last van purple screens. Is nu ook opgelost (naja, workaround), door terug te gaan van 8 naar 4GB ram. Draai op een P5Q Pro Turbo plank. Met 2x 2GB niks aan de hand. Met 4x 2GB random crashes. RAM is al ge-rma'd en heb ik nieuwe voor gekregen (alle repen zijn Corsair Dominator XMS2-8500 1066MHz 5-5-5-15)
Ik heb 1 x 320GB disk waarop de VM's staan, en 5 x 1TB in raid-5 waar alle data op staat. (2 volumes van 2TB, aangezien ESXi geen LUN aan kan van groter dan 2TB-512B).nilisvw schreef op maandag 23 november 2009 @ 19:53:
Hoe delen jullie dat in? Nemen jullie aparte schijven om vmware esxi zelf op te draaien of draaien jullie esxi op de zelfde schijven als de vmware VMFS partitie op komt te staan?
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Met paravirtualisation kan het wel..Microkid schreef op dinsdag 24 november 2009 @ 05:23:
...aangezien ESXi geen LUN aan kan van groter dan 2TB-512B).
Duct tape can't fix stupid, but it can muffle the sound.
Naja zeg. Ik weet het ook echt niet meer. Net weer een crash gehad.Microkid schreef op dinsdag 24 november 2009 @ 05:23:
[...]
Draai hier gewoon met 8GB en de Perc 5/i zonder problemen. Zie systemspecs.
So far:
- Asus P5Q Pro vervangen door een nieuwe P5Q Pro Turbo.
- De 2 laatst aangeschafte Corsair repen ge-rma'd en nieuwe voor gekregen.
- Perc 5/i actief gekoeld, werd veel te warm.
- Perc 5/i vervangen door een nieuw exemplaar
- Volledig gelijk gedraaid aan situatie waarin het 4 maanden vlekkeloos heeft gewerkt door het terug gaan naar 4 GB.
Ik weet het niet meer. Zit nu te denken aan de voeding (Tagan 430W) . Maar verdomme, het is zó irritant testen als iets een week of twee goed loopt, en dan weer crashed. Heb zelfs al gedacht om de hele setup er uit te gooien, en iets heel nieuws neer te zetten. Meest irritante is nog dat in de logging van ESX niets maar dan ook niets te vinden is. Hij stopt er gewoon mee. Het lijkt nog het meeste op memory problemen. Heb nadat dit gebeurd is, en ik reboot, ook altijd een corrupte ESX config.
Bij mij zit de Perc 5/i in een HP ML150 G5 met 9 Gb geheugen. Ik heb geen mods oid toegepast het werkte out of the box. Hij wordt bij mij trouwens niet onwijs heet ofzo. Er hangen 4x 750 Gb schijven aan in RAID 10 configuratie. Zou het aan de firmware van de harde schijven kunnen liggen? Omdat je esx config ook corrupt raakt?
Draai dan eens memtest(+) om het zeker te weten.UltraSub schreef op dinsdag 24 november 2009 @ 20:13:
Het lijkt nog het meeste op memory problemen.
Ook zou ik, eventueel via een andere PC, je harde schijven even controleren. Misschien zijn er bad sectors of zo.
Zo, even maar een schopje. Het begint steeds meer te kriebelen bij mij om hiervoor een nieuwe server aan te schaffen, mijn oude PC kan dan doorschuiven naar mijn pa. Heb hiervoor al even een systeem samengesteld en al iets getuned, maar vraag me af of het nóg goedkoper kan. Mooiste zou zijn als de hardware ook daadwerkelijk ondersteund word. 
Heb nu namelijk even geshopt bij Azerty en ik weet zeker, dit kan goedkoper. Bij deze machine weet ik van de HP site dat VMWare 4.0.1 gaat werken in combinatie met de ML150 G6 die ik (momenteel) voor ogen heb.
Kan eventueel wel de HCL en de unofficial supported lijst erbij pakken en dan stuk voor stuk kijken wat dan inderdaad werkt, maar ik wil het liefste gewoon zekerheid, zonder flauwe grappen uit te moeten halen.
Waar ik deze machine dan uiteindelijk voor wil gebruiken is het volgende
[list]• VMWare ESX(i) natuurlijk
• Twee virtuele machines: W2K3 en W2K8 (misschien met Exchange 2010), voornamelijk voor (zelf)studie
• Fileserver, ik kan voorlopig met 2TB wel uit de voeten, upgraden is zo gepiept
Hebben jullie misschien nog tips voor me?
Heb nu namelijk even geshopt bij Azerty en ik weet zeker, dit kan goedkoper. Bij deze machine weet ik van de HP site dat VMWare 4.0.1 gaat werken in combinatie met de ML150 G6 die ik (momenteel) voor ogen heb.
Kan eventueel wel de HCL en de unofficial supported lijst erbij pakken en dan stuk voor stuk kijken wat dan inderdaad werkt, maar ik wil het liefste gewoon zekerheid, zonder flauwe grappen uit te moeten halen.
Waar ik deze machine dan uiteindelijk voor wil gebruiken is het volgende
[list]• VMWare ESX(i) natuurlijk
• Twee virtuele machines: W2K3 en W2K8 (misschien met Exchange 2010), voornamelijk voor (zelf)studie
• Fileserver, ik kan voorlopig met 2TB wel uit de voeten, upgraden is zo gepiept
Hebben jullie misschien nog tips voor me?
[ Voor 5% gewijzigd door CH4OS op 28-12-2009 17:16 ]
Ja, bouw gewoon een whitebox. Werkt ook en is stukken goedkoperGJtje schreef op maandag 28 december 2009 @ 17:10:
Hebben jullie misschien nog tips voor me?
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Ja, dat weet ik, dat een whitebox stukken goedkoper is, maar wil aan de andere kant ook niet hoeven te klooien. Ik moet hem zeg maar opstarten en ding moet dan gaan zeg maar.Microkid schreef op maandag 28 december 2009 @ 17:13:
Ja, bouw gewoon een whitebox. Werkt ook en is stukken goedkoperEr zijn diverse sites waarop de werkende hardware (combinaties) aangegeven worden.
Bedoel, de juist voor deze doeleinden erg interessante ML110 en ML115 zijn geloof ik ook niet erg goed beschikbaar meer, of wel?
[ Voor 11% gewijzigd door CH4OS op 28-12-2009 17:31 ]
Niemand die misschien een leuk linkje heeft, voor whiteboxjes <= €1200,-?
Voor dat bedrag heb je ook gewoon een gesupporte server. Eventueel kun je dan zelf 'white' geheugen en hdd's bijplaatsen e.d.
Bijv. een Dell PE T310, met 4GB, PERC 6i, voor nog geen 800€
Hoe dan ook, je post is niet echt GoT waardig zo he ? Beetje zelf zoeken is wel gewenst.
Bijv. een Dell PE T310, met 4GB, PERC 6i, voor nog geen 800€
Hoe dan ook, je post is niet echt GoT waardig zo he ? Beetje zelf zoeken is wel gewenst.
[ Voor 12% gewijzigd door DukeBox op 30-12-2009 20:39 ]
Duct tape can't fix stupid, but it can muffle the sound.
Tja ehh, zie mijn eerdere reactie, waar ik een reactie op terug krijg, dat ik voor een whitebox moet gaan...DukeBox schreef op woensdag 30 december 2009 @ 20:34:
Voor dat bedrag heb je ook gewoon een gesupporte server. Eventueel kun je dan zelf 'white' geheugen en hdd's bijplaatsen e.d.
Bijv. een Dell PE T310, met 4GB, PERC 6i, voor nog geen 800€
Hoe dan ook, je post is niet echt GoT waardig zo he ? Beetje zelf zoeken is wel gewenst.
[ Voor 18% gewijzigd door CH4OS op 30-12-2009 21:20 ]
Iemand die kan bevestigen dat de HP Smart Array P410/256MB werkt in combinatie met ESX4 (U1) of ESX4i (U1)? Ik wil deze misschien gaan gebruiken in een HP ProLiant ML150 G6, waar ik 2 arrays op wil aanmaken. De (standaard meegeleverde?) 2x 250GB (voor de VM's) in RAID1 en 3 of 4 1TB (Of 1,5TB) schijven in RAID0 (voor storage). Of is het verstandiger (ook gezien de prijs) om de HP SmartArray P212 te nemen en daar bijvoorbeeld 256 of 512MB in te prikken?
Ik lees in de release notes dat het kaartje een trage performance kan geven, of is dit alleen tijdens het opstarten van een virtuele machine? Wat dat betreft vind ik de release notes een beetje vaag.
Tevens nog een andere vraag, is een (enkele) Xeon E5502 voldoende om ongeveer 3 a 4 VM's mee te draaien? Ik denk het haast wel, maar wil graag zekerheid. Ik wil namelijk graag VMWare leren, tesamen met in ieder geval Windows 2003 en Windows 2008, met 1 a 2 test clients.
Ik lees in de release notes dat het kaartje een trage performance kan geven, of is dit alleen tijdens het opstarten van een virtuele machine? Wat dat betreft vind ik de release notes een beetje vaag.
Tevens nog een andere vraag, is een (enkele) Xeon E5502 voldoende om ongeveer 3 a 4 VM's mee te draaien? Ik denk het haast wel, maar wil graag zekerheid. Ik wil namelijk graag VMWare leren, tesamen met in ieder geval Windows 2003 en Windows 2008, met 1 a 2 test clients.
[ Voor 21% gewijzigd door CH4OS op 07-01-2010 00:05 ]
De P410 is volgens mij een supported controller, alleen wordt afaik geadviseerd om in productie alleen de P410/512 mét BBWC te gebruiken. Zonder die BBWC wordt de cache alleen voor lezen en niet voor schrijven gebruikt en als je er dan een Raid 5 set aan hangt kan je bij schrijven (vrijwel zeker begreep ik) performance problemen verwachten.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Het is niet voor productie in een bedrijf of iets dergelijks, gewoon voor thuis, als 'studiebak' en fileserver. Ik snap de voordelen van RAID5 wel, alleen is dat voor thuis gebruik en hetgeen ik er aan files op wil zetten, wellicht overdreven, dus RAID5 ga ik sowieso niet gebruiken.Ethirty schreef op donderdag 07 januari 2010 @ 00:01:
De P410 is volgens mij een supported controller, alleen wordt afaik geadviseerd om in productie alleen de P410/512 mét BBWC te gebruiken. Zonder die BBWC wordt de cache alleen voor lezen en niet voor schrijven gebruikt en als je er dan een Raid 5 set aan hangt kan je bij schrijven (vrijwel zeker begreep ik) performance problemen verwachten.
Die BBWC maakt het (ook voor thuis gebruik) eigenlijk best wel interessant, zeker als de cache dan ook gebruikt word voor schrijven, wat mij zeker bij wegschrijven van bestanden een boost geeft. Ik wil de machine dan ook gebruiken voor fileserver (en dus download bak), dus kan het handig zijn eventueel, mits die BBWC niet te duur is.
Eerder dan 2 array's: 2x 250GB (die schijnbaar standaard bij de server zitten) voor ESX en VM's in RAID1, de andere schijven (3 of 4 schijven van 1 a 1,5TB elk) in RAID0.
[ Voor 38% gewijzigd door CH4OS op 07-01-2010 00:14 ]
En ook geen R5 zie ik inmiddels. Zou niet weten waarom het niet zou werken.
Ook je 3 a 4 testsysteempjes zouden volgens mij geen schokkende eisen aan je systeem opleggen. Ik draai er soms wel meer op een C2D E8200 met 4GB geheugen en een enkele SATA disk, al moet je dan soms wat geduld opbrengen.
Ik heb zelf nog niet echt veld-ervaring met de P410, maar de P400/512/BBWC draait zonder problemen 4 Windows setups tegelijk en was véééél sneller klaar dan ik had verwacht (sneller nog dan een normale enkelvoudige single-disk install meen ik). Ook daarna kon in zonder problemen een stuk of 8 productie servers draaien. Daar zit dan wel een 6 disk R1+0 config achter op 15K toeren.
Raid 0 voor >4TB aan storage raad ik je sterk af tenzij het data is die geen enkele waarde voor je heeft.
Dus als ik zo kort je verhaal aanhoor, dan is zo'n P410 wellicht al mega-overkill voor jouw doeleinden. No offence, maar een downloadbak met wat test-VM's krijgt de cache niet eens vol volgens mij, laat staan dat je het verschil merkt tussen geen, 256 of 512MB.
Ook je 3 a 4 testsysteempjes zouden volgens mij geen schokkende eisen aan je systeem opleggen. Ik draai er soms wel meer op een C2D E8200 met 4GB geheugen en een enkele SATA disk, al moet je dan soms wat geduld opbrengen.
Ik heb zelf nog niet echt veld-ervaring met de P410, maar de P400/512/BBWC draait zonder problemen 4 Windows setups tegelijk en was véééél sneller klaar dan ik had verwacht (sneller nog dan een normale enkelvoudige single-disk install meen ik). Ook daarna kon in zonder problemen een stuk of 8 productie servers draaien. Daar zit dan wel een 6 disk R1+0 config achter op 15K toeren.
Raid 0 voor >4TB aan storage raad ik je sterk af tenzij het data is die geen enkele waarde voor je heeft.
Dus als ik zo kort je verhaal aanhoor, dan is zo'n P410 wellicht al mega-overkill voor jouw doeleinden. No offence, maar een downloadbak met wat test-VM's krijgt de cache niet eens vol volgens mij, laat staan dat je het verschil merkt tussen geen, 256 of 512MB.
[ Voor 25% gewijzigd door Ethirty op 07-01-2010 00:18 ]
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Ah oke, al heb ik dan aan de andere kant wel de zekerheid dat het een supported controller is. Weet niet of de P212 een supported controller is (moet ik nog even opzoeken), maar dan zou dat dus (mits supported) een interessant (en goedkoper) alternatief zijn voor de P410?Ethirty schreef op donderdag 07 januari 2010 @ 00:14:
En ook geen R5 zie ik inmiddels. Zou niet weten waarom het niet zou werken.
Ook je 3 a 4 testsysteempjes zouden volgens mij geen schokkende eisen aan je systeem opleggen. Ik draai er soms wel meer op een C2D E8200 met 4GB geheugen en een enkele SATA disk, al moet je dan soms wat geduld opbrengen.
Ik heb zelf nog niet echt veld-ervaring met de P410, maar de P400/512/BBWC draait zonder problemen 4 Windows setups tegelijk en was véééél sneller klaar dan ik had verwacht (sneller nog dan een normale enkelvoudige single-disk install meen ik). Ook daarna kon in zonder problemen een stuk of 8 productie servers draaien. Daar zit dan wel een 6 disk R1+0 config achter op 15K toeren.
Dus als ik zo kort je verhaal aanhoor, dan is zo'n P410 wellicht al mega-overkill voor jouw doeleinden.
PS: Raid 0 voor >4TB aan storage raad ik je sterk af tenzij het data is die geen enkele waarde voor je heeft.
Mja ik twijfel dan ook nog wat ik zal gaan nemen, 3 óf 4TB, waarschijnlijk 3, dat kan eventueel ook met 2x 1,5TB behaald worden. En echt waarde zal het zeker niet hebben, voornamelijk mijn muziek-, film- en gamecollectie komt er dan op te staan.
De P212 controller word, volgens dit HP documentje ondersteund in VMWare 4, al raden zij ook aan de BBWC aan te schaffen tbv performance, al is dat niet echt mijn uitgangspunt, zou het (voor mij) merkbaar worden als ik de BBWC niet aanschaf?
Heb nu overigens deze machine samengesteld, wat voor mijn doeleinden in eerste instantie wel voldoende lijkt. Ik kan later eventueel altijd nog uitbreiden met de RAID controller.
[ Voor 31% gewijzigd door CH4OS op 07-01-2010 00:57 ]
Heb bovenstaande configuratie iets aangepast, de server is nu een ML110 G6 geworden. Deze heeft een betere CPU, quadcore (de ML150 heeft dualcore) en veel meer cache, mede omdat ik hier had gelezen dat ESX graag van L2 / L3 cache houdt en niet veel duurder dan wat ik had.
Wellicht ga ik in de UK bestellen, daar is de ML110 al ongeveer 300 euro goedkoper als hier!
Mijn vraag over de controller blijft nog wel, welke kan ik, in mijn geval, beter gebruiken, de P212 of de P410? Ik wil de terabyte schijven sowieso in RAID0 zetten, dus misschien dat ik van de schijven beter een WD Caviar green van maak of zo?
Wellicht ga ik in de UK bestellen, daar is de ML110 al ongeveer 300 euro goedkoper als hier!
Mijn vraag over de controller blijft nog wel, welke kan ik, in mijn geval, beter gebruiken, de P212 of de P410? Ik wil de terabyte schijven sowieso in RAID0 zetten, dus misschien dat ik van de schijven beter een WD Caviar green van maak of zo?
Waarom ga je dan niet voor een NAS met iSCSI /NFS optie ?GJtje schreef op donderdag 07 januari 2010 @ 00:05:
...gewoon voor thuis, als 'studiebak' en fileserver. Ik snap de voordelen van RAID5 wel...
De kosten van een HCL controller zijn net zo hoog als een instap model qnap..
Duct tape can't fix stupid, but it can muffle the sound.
Ja en nee.DukeBox schreef op vrijdag 08 januari 2010 @ 12:03:
[...]
Waarom ga je dan niet voor een NAS met iSCSI /NFS optie ?
De kosten van een HCL controller zijn net zo hoog als een instap model qnap..
Nee, omdat je een PERC5/i hebt voor een habbekrats, en die staat op de HCL. Is goedkoper dan een NAS.
Ja, omdat ik na weken te hebben gekloot met een PERC5/i nu op een QNAP TS509 Pro draai over NFS. ESXi is geboot vanaf een usb stick, en alle guests staan volledig op een nfs share. Achteraf was er niets mis met de PERC, maar toch, ik wilde sowieso een NAS, en nu ik alles over nfs draai moet ik eerlijk zeggen dat me dat heel heel goed bevalt. Lekker alles centraal, kan doen met ESX wat ik wil, mijn vmdks zullen nooit verloren gaan door bijvoorbeeld een reinstall. Ik ben er blij mee.
Waar haal jij dan een PERC5/i vandaan voor een habbekrats.. als het 2e hands is moet je ook een 2e hands qnap vergelijken.
Duct tape can't fix stupid, but it can muffle the sound.
Omdat ik er juist een fileserver en studiebak (VMWare, Windows 2003 en Windows 2008) in één van wil maken, dus een extra apparaatje hoeft niet, de storage komt intern te zitten, op een andere partitie dan waar ik VMWare op ga installeren, kwijtraken is dus niet nodig.DukeBox schreef op vrijdag 08 januari 2010 @ 12:03:
Waarom ga je dan niet voor een NAS met iSCSI /NFS optie ?
De kosten van een HCL controller zijn net zo hoog als een instap model qnap..
Maar waarom dan je disken in RAID0? Eén kapotte disk en ál je data is weg, ook op de andere disken.
Freelance (Microsoft) Cloud Consultant & Microsoft Certified Trainer
Omdat ik al die zekerheid niet nodig heb, ik verwacht niet dat ik de PC 24/7 zal laten draaien, dat doe ik nu ook al niet en het gaat (even afkloppen) al jaren goed, vanaf mijn vorige PC en nu ook met mijn huidige. En aangezien ik die server dan als download / fileserver en studiebak gebruik, en de files op de RAID0 array zet, vind ik het ook niet erg als ik al die spullen zou verliezen.ralpje schreef op vrijdag 08 januari 2010 @ 22:22:
Maar waarom dan je disken in RAID0? Eén kapotte disk en ál je data is weg, ook op de andere disken.
Of ik moet 4 schijven er dan in doen en daar dan vervolgens een RAID5 array van maken, ben daar nog niet helemaal uit...
[ Voor 9% gewijzigd door CH4OS op 09-01-2010 12:25 ]
Verwijderd
Het wel of niet 24/7 laten draaien maakt niet zoveel uit mbt eventueel dataverlies. Als je drie disks in RAID0 zet, heb je gewoon meer kan dat het mis gaan. Je hebt immers drie schijven waarvan 1 kan klappen. De hele 3TB set is dan verloren. Als je dat risico wilt nemen kun je prima voor RAID0 gaan. Zorg alleen wel voor backups van belangrijke data af en toe. (Foto's, documenten etc.) Je zou ook een goedkope 1TB USB disk kunnen kopen voor backups.
Is niet tweedehands, is nieuw. Of een refurb, maar ruikt zelfs nieuw en is verzegeldDukeBox schreef op vrijdag 08 januari 2010 @ 16:28:
Waar haal jij dan een PERC5/i vandaan voor een habbekrats.. als het 2e hands is moet je ook een 2e hands qnap vergelijken.
eBay
Dit is een 5/E, hij heeft even geen 5/i, maar het effect moge duidelijk zijn. Ik heb al twee keer dezelfde prijs betaald voor een 5/i (heb er twee, een bij een vriend in een server). Beide met BBU (ook nieuw). En laten we eerlijk zijn, das geen geld voor zo'n kaart..
Hier een topique over deze kaart, oa met benchmarks.
/edit
Oh, ik zie net dat deze used is. Serieus, ik heb voor die prijs bij die buyer 2x een nieuwe gehad.
[ Voor 5% gewijzigd door UltraSub op 09-01-2010 14:38 ]
Ik vind 130€ niet een prikkie als ie nieuw 190 (ex) is als kit, maar dat is persoonlijk. De 5e versie is wel interesant aangezien je dan ook extern storage kan aansluiten.. die is een meerprijs ook wel waard.
Duct tape can't fix stupid, but it can muffle the sound.
Ja ik begrijp het helemaal... Ik wil de belanrijke documenten ook niet op mijn server hebben, die staan op mijn gewone PC, dus dat zit wel goed. Ik begin nu ook te twijfelen aan 4 disks en dan RAID5 te draaien.Verwijderd schreef op zaterdag 09 januari 2010 @ 12:55:
Het wel of niet 24/7 laten draaien maakt niet zoveel uit mbt eventueel dataverlies. Als je drie disks in RAID0 zet, heb je gewoon meer kan dat het mis gaan. Je hebt immers drie schijven waarvan 1 kan klappen. De hele 3TB set is dan verloren. Als je dat risico wilt nemen kun je prima voor RAID0 gaan. Zorg alleen wel voor backups van belangrijke data af en toe. (Foto's, documenten etc.) Je zou ook een goedkope 1TB USB disk kunnen kopen voor backups.
Ik heb een DL330G6 gekocht. Deze server is ESX 4 gecertificeerd door VMware. Deze server heeft HP Smart Array B110i SATA RAID-controller (RAID 0/1/0+1). Nu las ik op verschillende forums dat deze niet altijd goed samenwerkt met ESX:
Is there a workaround for ESXi v4 to see the HP Smart Array B110i SATA RAID controller on the ML150G6?
Heeft iemand hier pratijkervaring mee, of betekent dat ik er een extra RAID controller uit de B serie bij moet kopen?
Is there a workaround for ESXi v4 to see the HP Smart Array B110i SATA RAID controller on the ML150G6?
Heeft iemand hier pratijkervaring mee, of betekent dat ik er een extra RAID controller uit de B serie bij moet kopen?
Schijnt dat als je een BBWC aansluit dat dan de performance beter of wel goed is.
Andere berichten zeggen / schrijven weer, dat de B110i gewoon een verpakte ICH10R is en dus software RAID.
Andere berichten zeggen / schrijven weer, dat de B110i gewoon een verpakte ICH10R is en dus software RAID.
[ Voor 40% gewijzigd door CH4OS op 09-01-2010 17:50 ]
Ik heb net mijn Acer Altos G330 MK2 aan de praat gekregen met ESXi 3.5.
Alles werkt op de RAID controller na (logisch want het is BIOS RAID).
Het booten vanaf USB krijg ik niet aan de praat.
Melding dat USB partition niet gevonden kan worden maar installatie op HDD werkt perfect.
ESXi 4.0 kon ik niet installeren omdat ik maar 1GB RAM heb.
ESXi 3.5 gebruikt na installatie (zonder VM's) 361MB is dit normaal?
Alles werkt op de RAID controller na (logisch want het is BIOS RAID).
Het booten vanaf USB krijg ik niet aan de praat.
Melding dat USB partition niet gevonden kan worden maar installatie op HDD werkt perfect.
ESXi 4.0 kon ik niet installeren omdat ik maar 1GB RAM heb.
ESXi 3.5 gebruikt na installatie (zonder VM's) 361MB is dit normaal?
Voor een PERC5/i? Mwoah, tussen 130 incl en 190 excl zit nogal wat verschil! Ik vind het een nette prijs, voor nogmaals, een nieuwe. Want dat schrijf ik. Ik heb twee keer een nieuwe 5/i gekocht voor die prijs!DukeBox schreef op zaterdag 09 januari 2010 @ 16:27:
Ik vind 130€ niet een prikkie als ie nieuw 190 (ex) is als kit, maar dat is persoonlijk. De 5e versie is wel interesant aangezien je dan ook extern storage kan aansluiten.. die is een meerprijs ook wel waard.
We gaan een beetje offtopic, maar ik had het over officiele dell prijzen.. op e-bay kan ik heel veel flink goedkoper vinden maar het blijft altijd een gok.
Duct tape can't fix stupid, but it can muffle the sound.
Ja, inderdaad.. Dat klopt. De Dell prijzen is natuurlijk een ander verhaal. Maar dat boeit de gemiddelde tweaker hier in dit topic niet denk ik, of hij van Dell of van eBay komtDukeBox schreef op zaterdag 09 januari 2010 @ 22:26:
We gaan een beetje offtopic, maar ik had het over officiele dell prijzen.. op e-bay kan ik heel veel flink goedkoper vinden maar het blijft altijd een gok.
Is inderdaad beetje off-topic, maar ook niet te zwaar, daar het een heel interessante kaart is voor dit topic. Met name omdat hij op de HCL staat, en ten tweede omdat het een lekkere snelle, goedkope kaart is.
Ontopic:
Ik heb met jou een tijd terug wat gediscussieerd in dit topic over wel/niet usb install. Ik draai dus inmiddels toch usb, en server is compleet diskless nu. Heerlijk, de stilte! Ook de mogelijkheid van een dd van de usb stick naar een andere stick bevalt me wel. Sneuvelt de stick (of de install), dan prik ik de backup er in, en draaien maar. Of denk ik hier te simpel, en wijzigt er meer op de stick dan ik denk?
Nope.. er wordt nog wel wat (performance) logging bij gehouden maar met een VC kan je die ook centraal trekken als je die niet kwijt wilt raken. Overigens wordt die logging pas weggeschreven bij een maintanance en shutdown aktie. Wanneer ESX operationeel is wordt de USB key niet gebruikt.
Dat brengt ook meteen een bug/feature met zich mee, je zou middels paravirtualisation de USB poort aan een guest kunnen toewijzen zodat je geen shutdown meer kan doen..
Dat brengt ook meteen een bug/feature met zich mee, je zou middels paravirtualisation de USB poort aan een guest kunnen toewijzen zodat je geen shutdown meer kan doen..
Duct tape can't fix stupid, but it can muffle the sound.
Hoe is de performance dan (met name tijdens het booten)? Lijkt me dat je daar nu wel gigantisch op hebt moeten inleveren? Anders zou je eventueel kunnen overwegen over te stappen naar een SSD als stilte en performance belangrijk is natuurlijk.UltraSub schreef op zondag 10 januari 2010 @ 12:46:
Ik heb met jou een tijd terug wat gediscussieerd in dit topic over wel/niet usb install. Ik draai dus inmiddels toch usb, en server is compleet diskless nu. Heerlijk, de stilte! Ook de mogelijkheid van een dd van de usb stick naar een andere stick bevalt me wel. Sneuvelt de stick (of de install), dan prik ik de backup er in, en draaien maar. Of denk ik hier te simpel, en wijzigt er meer op de stick dan ik denk?
[ Voor 8% gewijzigd door CH4OS op 10-01-2010 14:39 ]
^ Wat dacht je van tich keer sneller.. o.a. initialisatie van je controller, opspinnen van je storage en valideren van je raidconfig sla je over. Daarnaast leest de gemiddelde USB key al snel 15MB/s en is de footprint maar 68GB MB.. dus een krappe 5 sec. De tijd dat het kost om tewachten op het laden van de services maakt niet uit, dat blijft gelijk. De gemiddelde boottijd op een Dell R710 neemt af met bijna 2 minuten door te booten van USB i.p.v. een lokale raid1 opeen PERC6i set van 2x 146GB 15k rpm hdd's.
[ Voor 3% gewijzigd door DukeBox op 18-01-2010 12:30 ]
Duct tape can't fix stupid, but it can muffle the sound.
Hmmm, dat is nog eens interessant! Misschien dat ik dan ook van USB ga booten en de VM's opsla op de lokale storage, met daarnaast mijn storage voor fileserver...DukeBox schreef op zondag 10 januari 2010 @ 14:48:
^ Wat dacht je van tich keer sneller.. o.a. initialisatie van je controller, opspinnen van je storage en valideren van je raidconfig sla je over. Daarnaast leest de gemiddelde USB key al snel 15MB/s en is de footprint maar 68GB.. dus een krappe 5 sec. De tijd dat het kost om tewachten op het laden van de services maakt niet uit, dat blijft gelijk. De gemiddelde boottijd op een Dell R710 neemt af met bijna 2 minuten door te booten van USB i.p.v. een lokale raid1 opeen PERC6i set van 2x 146GB 15k rpm hdd's.
Met lokale storage heb je natuurlijk nog steeds de initialisatie e.d. dus veel maakt het niet uit. Wat ik voorheen altijd deed op mijn eigen servers is (een deel van) de lokale storage als RDM hangen aan een VM, mocht ik ooit naar iets anders willen (geen vmware meer bijv.) hoef ik niet alles te restoren want ik kan gewoon de storage aan iets anders hangen. Nu heb ik alles op iSCSI op een equallogic, nergens meer hdd's in (in geen enkele pc meer, ook mijn htpc's booten van iSCSI).
Duct tape can't fix stupid, but it can muffle the sound.
Iemand ervaring met een goeie 1GBps ethernet netwerkkaart binnen ESXi?
De Intel 1000GT is niet duur en staat ook op de whitelist maar ik ben mensen tegengekomen die klaagde over de snelheid.
De Intel 1000GT is niet duur en staat ook op de whitelist maar ik ben mensen tegengekomen die klaagde over de snelheid.
Mja, het zit met name in de validatie van de config. De post zeg maar, duurde voorheen stuk langer. Echter het booten lijkt niet sneller te zijn geworden. Maar dat is inherent aan het gebruik van een 5 jaar oude Sandisk Cruzer van 1GB, die leest écht geen 15MB/s.DukeBox schreef op zondag 10 januari 2010 @ 14:48:
^ Wat dacht je van tich keer sneller.. o.a. initialisatie van je controller, opspinnen van je storage en valideren van je raidconfig sla je over. Daarnaast leest de gemiddelde USB key al snel 15MB/s en is de footprint maar 68GB.. dus een krappe 5 sec. De tijd dat het kost om tewachten op het laden van de services maakt niet uit, dat blijft gelijk. De gemiddelde boottijd op een Dell R710 neemt af met bijna 2 minuten door te booten van USB i.p.v. een lokale raid1 opeen PERC6i set van 2x 146GB 15k rpm hdd's.
Maar verrek DukeBox, hoe heb ik 68GB op die 1GB stick gekregen dan? Ik heb bij mijn weten niet iets als het oude Stacker geinstalleerd op die stick
Ik heb die en een PT en beide geven gewoon de volledige doorvoer. Ik heb het met iperf getest en hij haalt mooi 90MB/sec wat voor het goedkope gigabit switchje ook zon beetje de limiet is. Dit heb ik eerder ondervonden door dezelfde opstelling te gebruiken met een professionele 19" gigabit doos (die hogere resultaten gaf).timskiej schreef op maandag 11 januari 2010 @ 11:27:
Iemand ervaring met een goeie 1GBps ethernet netwerkkaart binnen ESXi?
De Intel 1000GT is niet duur en staat ook op de whitelist maar ik ben mensen tegengekomen die klaagde over de snelheid.
Paar kleine tips : in esxi kan je wel degelijk raw device mappings maken van s-ata disk op de console. sil3112 en sil3114, 3512 kaartjes werken allemaal prima (geen raid natuurlijk). Deze kaarten zijn zon beetje de goedkoopste sata kaarten die beschikbaar zijn. Als je bovenstaande combineert krijg je zoals ik thuis draai; een openfiler (web-interface ^^) software raid (mdadm) fileserver VM met raw device mappings naar de goedkope controllertjes.
[ Voor 26% gewijzigd door analog_ op 11-01-2010 12:32 ]
Dus als ik het goed begrijp heb je zon goedkoop SATA controllertje in je ESXi systeem hangen.
Op de controller sluit je een aantal harddisk aan.
Vervolgens installeer je ESXi.
Maakt een Openfiler virtual machine aan.
Voegt twee of meerdere harde schijven toe aan de VM.
En configureert virtuele disk in RAID.
Heb namelijk nog een zon SATA kaartje liggen
Op de controller sluit je een aantal harddisk aan.
Vervolgens installeer je ESXi.
Maakt een Openfiler virtual machine aan.
Voegt twee of meerdere harde schijven toe aan de VM.
En configureert virtuele disk in RAID.
Heb namelijk nog een zon SATA kaartje liggen
[ Voor 10% gewijzigd door timskiej op 11-01-2010 12:40 ]
Ja, ik gebruik een 3512 en 3114 samen met een onboard intel ich7. Ik boot vanaf de 3512 (of usb stick) en dan hou ik nog negen poorten over voor software raid. Voordeel van deze opstelling is dat je niet beperkt bent tot een (relatief) dure controller en dat je indien nodig een willekeurige linux live cd kan gebruiken om je software raid te redden. Er is geen goede vmfs driver op linux dus hd->vmfs -> gigantische-vmdk en die doorgeven aan je VM is niet zo praktisch.
Ik ga twee harde schijven van 80GB in RAID-0 installeren (de VM's zijn niet belangrijk, beetje goeie troughput wel.).
Dus als ik het goed begrijp.
* Maak ik een OpenFiler virtualmachine.
*Voeg nog twee extra VMDK toe aan de VM (dit wordt de resterende ruimte van de harde schijven) en configureer ze voor RAID-0.
* Deze RAID-0 ruimte instellen voor iSCSI gebruik?
* ESXi laten koppelen naar de iSCSI ruimte.
* En vervolgens hier verdere VM's op maken.
Dus als ik het goed begrijp.
* Maak ik een OpenFiler virtualmachine.
*Voeg nog twee extra VMDK toe aan de VM (dit wordt de resterende ruimte van de harde schijven) en configureer ze voor RAID-0.
* Deze RAID-0 ruimte instellen voor iSCSI gebruik?
* ESXi laten koppelen naar de iSCSI ruimte.
* En vervolgens hier verdere VM's op maken.
[ Voor 3% gewijzigd door timskiej op 11-01-2010 12:55 ]
Ik zit er stevig over te denken een nieuwe whitebox te bouwen.
Nu:
Q6600
Asus P5Q Pro Turbo
Corsair 4X 2GB 1066-555 Dominator
Niet stabiel te krijgen. Zie ook eerdere posts van me in dit topic. Heb inmiddels alles al vervangen en ben het zat. Random PSOD's. En dat terwijl het 4 maanden per-fect heeft gedraaid. Het lijkt een geheugen probleem, maar dat is ook al uitgebreid getest. Inmiddels draait de server helemaal diskless (alles over NFS), dus de raid kaart die ik zo lang verdacht heb, kan ook uitgesloten worden. Voeding, moederbord, memory, cpu, alles is al vervangen. En ik heb er geen zin meer in. Het komt nooit uit als het ding crashed
Zit nu te denken aan:
Iemand die daar ervaring mee heeft? Ik weet dat de nics niet supported zijn, en dus disabled moeten worden. Komen Intel nics in.
Nu:
Q6600
Asus P5Q Pro Turbo
Corsair 4X 2GB 1066-555 Dominator
Niet stabiel te krijgen. Zie ook eerdere posts van me in dit topic. Heb inmiddels alles al vervangen en ben het zat. Random PSOD's. En dat terwijl het 4 maanden per-fect heeft gedraaid. Het lijkt een geheugen probleem, maar dat is ook al uitgebreid getest. Inmiddels draait de server helemaal diskless (alles over NFS), dus de raid kaart die ik zo lang verdacht heb, kan ook uitgesloten worden. Voeding, moederbord, memory, cpu, alles is al vervangen. En ik heb er geen zin meer in. Het komt nooit uit als het ding crashed
Zit nu te denken aan:
# | Product | Prijs | Subtotaal |
1 | Asus P6T | € 185,50 | € 185,50 |
1 | GeIL Value GV36GB1600C8TC | € 164,- | € 164,- |
1 | Intel Core i7 920 | € 224,51 | € 224,51 |
Importeren | Totaal | € 574,01 |
Iemand die daar ervaring mee heeft? Ik weet dat de nics niet supported zijn, en dus disabled moeten worden. Komen Intel nics in.
Even serieus, waarom schaf je voor dat bedrag niet een entry server aan van Dell of HP?UltraSub schreef op maandag 18 januari 2010 @ 07:49:
Ik zit er stevig over te denken een nieuwe whitebox te bouwen.
Nu:
Q6600
Asus P5Q Pro Turbo
Corsair 4X 2GB 1066-555 Dominator
Niet stabiel te krijgen. Zie ook eerdere posts van me in dit topic. Heb inmiddels alles al vervangen en ben het zat. Random PSOD's. En dat terwijl het 4 maanden per-fect heeft gedraaid. Het lijkt een geheugen probleem, maar dat is ook al uitgebreid getest. Inmiddels draait de server helemaal diskless (alles over NFS), dus de raid kaart die ik zo lang verdacht heb, kan ook uitgesloten worden. Voeding, moederbord, memory, cpu, alles is al vervangen. En ik heb er geen zin meer in. Het komt nooit uit als het ding crashed
Zit nu te denken aan:
# Product Prijs Subtotaal 1 Asus P6T € 185,50 € 185,50 1 GeIL Value GV36GB1600C8TC € 164,- € 164,- 1 Intel Core i7 920 € 224,51 € 224,51 Importeren Totaal € 574,01
Iemand die daar ervaring mee heeft? Ik weet dat de nics niet supported zijn, en dus disabled moeten worden. Komen Intel nics in.
Je hoeft dan alleen maar te weten of het werkt met ESX en daarna heb je geen hardware issues meer. Zelf was ik rond de 550 euro kwijt voor een HP Proliant ML115 met 8 GB geheugen, 3 schijven met in totaal 1,5 TB en een hardware RAID kaart (Dell Perc 5i). Hiervoor had ik een Dell PowerEdge 830, waar ik ook geen problemen mee had.
Heb ik ook al verschillende keren aan gedacht. Maar zodra je er snellere cpu's en meer ram in gaat stoppen gaat de prijs ook enorm omhoog. Daarnaast: stilte... Groot issue hier. En stroom niet te vergeten.Makaveli09 schreef op maandag 18 januari 2010 @ 09:25:
[...]
Even serieus, waarom schaf je voor dat bedrag niet een entry server aan van Dell of HP?
Je hoeft dan alleen maar te weten of het werkt met ESX en daarna heb je geen hardware issues meer. Zelf was ik rond de 550 euro kwijt voor een HP Proliant ML115 met 8 GB geheugen, 3 schijven met in totaal 1,5 TB en een hardware RAID kaart (Dell Perc 5i). Hiervoor had ik een Dell PowerEdge 830, waar ik ook geen problemen mee had.
Hoe stil is die ML115?
/edit
Heel even gekeken, alleen de cpu gewijzigd, hoppa... 900 euro.
Dan is mijn voorstel toch wel ff een bom goedkoper, en sneller. Maar ja, ik begrijp je punt.
[ Voor 9% gewijzigd door UltraSub op 18-01-2010 09:38 ]
De CPU van de ML115 die ik heb is een AMD Opteron 1352 quadcore (2,1 Ghz). De CPU power gebruik ik vrijwel niet, het is het geheugen wat flink wordt verbuikt door de VM's.
Ik moet ook erbij zeggen dat ik de server in Engeland heb besteld aangezien ze daar een flink stuk goedkoper zijn dan in Nederland.
En qua geluid kan ik je naar het volgende filmpje doorverwijzen:
http://www.youtube.com/watch?v=pGfbLFIqgIY
(een goeie site trouwens: http://www.techhead.co.uk/)
Alleen het booten tijden het bios is er een stofzuiger aanwezig, daarna is de server stil.
Over het stroomverbruik kan je hieronder wat lezen mbt tot de ML115:
http://www.techhead.co.uk...-perc-5i-array-controller
Ik moet ook erbij zeggen dat ik de server in Engeland heb besteld aangezien ze daar een flink stuk goedkoper zijn dan in Nederland.
En qua geluid kan ik je naar het volgende filmpje doorverwijzen:
http://www.youtube.com/watch?v=pGfbLFIqgIY
(een goeie site trouwens: http://www.techhead.co.uk/)
Alleen het booten tijden het bios is er een stofzuiger aanwezig, daarna is de server stil.
Over het stroomverbruik kan je hieronder wat lezen mbt tot de ML115:
http://www.techhead.co.uk...-perc-5i-array-controller
Thanks Makaveli09.
Lijkt idd wel stil ja. Maar niet zo stil als wat ik nu heb staan, die hoor je niet. Maar goed, beetje geluid kan ik goed mee leven. Maar toch... Een Core i7 met DDR3 op een X58.
Ik gebruik doorgaans niet veel cpu, zeg gerust niks (500Mhz als alles idled of zo), maar ik heb er een Debian VM op draaien, die nu 2 vCPU's heeft. En die trekt hij vol als we gaan parren. Denk dat ik die guest op een i7 platform 4 cores zou toewijzen, voor als hij die sporadisch nodig heeft. Die i7 is HT, dus ik ga er vanuit dat de rest van de guests nog genoeg over heeft, mocht die Debian VM 4 cores dicht trekken. (Of zit ik er nu way naast?).
Maar goed, je proeft het al. Ik heb nu al heel vaak gekeken naar entry servers. En iedere keer kom ik weer uit bij zelfbouw, ondanks de (onverklaarbare) problemen die ik heb gehad. Er zijn zo ontzettend veel whiteboxes die perfect draaien, en dan wel alle voordelen met zich mee brengen tov een entry level server.
Lijkt idd wel stil ja. Maar niet zo stil als wat ik nu heb staan, die hoor je niet. Maar goed, beetje geluid kan ik goed mee leven. Maar toch... Een Core i7 met DDR3 op een X58.
Ik gebruik doorgaans niet veel cpu, zeg gerust niks (500Mhz als alles idled of zo), maar ik heb er een Debian VM op draaien, die nu 2 vCPU's heeft. En die trekt hij vol als we gaan parren. Denk dat ik die guest op een i7 platform 4 cores zou toewijzen, voor als hij die sporadisch nodig heeft. Die i7 is HT, dus ik ga er vanuit dat de rest van de guests nog genoeg over heeft, mocht die Debian VM 4 cores dicht trekken. (Of zit ik er nu way naast?).
Maar goed, je proeft het al. Ik heb nu al heel vaak gekeken naar entry servers. En iedere keer kom ik weer uit bij zelfbouw, ondanks de (onverklaarbare) problemen die ik heb gehad. Er zijn zo ontzettend veel whiteboxes die perfect draaien, en dan wel alle voordelen met zich mee brengen tov een entry level server.
Wat aanpassingen in mijn vorige lijstje na een zoektocht naar RAM. Damn, wat is het moeilijk om 6 banks vol te krijgen met 2GB én stabiliteit te behouden, getuige vele problemen op het net.
Mede naar aanleiding van deze build:
http://www.hak5.org/episodes/episode-519
Mede naar aanleiding van deze build:
http://www.hak5.org/episodes/episode-519
# | Product | Prijs | Subtotaal |
1 | Asus P6T | € 185,50 | € 185,50 |
1 | Corsair XMS3 HX3X12G1333C9 | € 225,23 | € 225,23 |
1 | Intel Core i7 920 | € 224,40 | € 224,40 |
Importeren | Totaal | € 635,13 |
En weer een nieuwe lijst.. Deze is net besteld, hoop dat ik hem dit weekend in elkaar kan zetten.
Mobo en cpu besteld bij Komplett.nl en ram bij Informatique. Wordt je lijstje wel een stuk duurder, maar daar was tenminste alles uit eigen voorraad. Ik kan niet te lang meer wachten, want ESXi blijft hier maar random crashen. Ik heb zoals gezegd alles al vervangen, nu doen we nog eens alles, en dan goed.
Denk dat het wel een bommetje is voor een thuis ESXi server
De onboard nics zullen (uiteraard) disabled worden, en omdat dit mobo 2x een PCI-X slot heeft, kom ik mooi weg met een rits "HP NC7170 Dual Port PCI-X Gigabit Server Adapter" die ik hier heb liggen. Die heb ik er nu ook in draaien, alleen draaien ze nu in een normaal PCI slot, dus ze zijn gecapped.
# | Product | Prijs | Subtotaal |
1 | Asus P6T WS Professional | € 243,80 | € 243,80 |
1 | Intel Core i7 920 | € 224,40 | € 224,40 |
2 | Kingston ValueRAM KVR1333D3N9K3/6G | € 133,- | € 266,- |
Importeren | Totaal | € 734,20 |
Mobo en cpu besteld bij Komplett.nl en ram bij Informatique. Wordt je lijstje wel een stuk duurder, maar daar was tenminste alles uit eigen voorraad. Ik kan niet te lang meer wachten, want ESXi blijft hier maar random crashen. Ik heb zoals gezegd alles al vervangen, nu doen we nog eens alles, en dan goed.
Denk dat het wel een bommetje is voor een thuis ESXi server
De onboard nics zullen (uiteraard) disabled worden, en omdat dit mobo 2x een PCI-X slot heeft, kom ik mooi weg met een rits "HP NC7170 Dual Port PCI-X Gigabit Server Adapter" die ik hier heb liggen. Die heb ik er nu ook in draaien, alleen draaien ze nu in een normaal PCI slot, dus ze zijn gecapped.
Is de PCI-X bus niet veel te traag voor dual Gigabit? Kan je niet beter voor PCI-e gaan dan?UltraSub schreef op donderdag 21 januari 2010 @ 09:25:
De onboard nics zullen (uiteraard) disabled worden, en omdat dit mobo 2x een PCI-X slot heeft, kom ik mooi weg met een rits "HP NC7170 Dual Port PCI-X Gigabit Server Adapter" die ik hier heb liggen. Die heb ik er nu ook in draaien, alleen draaien ze nu in een normaal PCI slot, dus ze zijn gecapped.
Ik heb de volgende hardware in mijn zelfbouwserver hangen:
Moederboard: Tyan 500V Tempest
CPU: 2 x Intel Xeon E-5310
Geheugen: 4 GB ECC-FB Dimm
Ik kan echter niet vinden in de hardware compatibility list van vSphere of dit gaat werken. Iemand hier die dit wel weet?
Moederboard: Tyan 500V Tempest
CPU: 2 x Intel Xeon E-5310
Geheugen: 4 GB ECC-FB Dimm
Ik kan echter niet vinden in de hardware compatibility list van vSphere of dit gaat werken. Iemand hier die dit wel weet?
Rebuilding knowledge database