Thx, ik dacht dat de HP Insight Manager Providers alleen op de HP site zelf zouden staan en kon ze maar niet vinden.
                    
            - Moederbord: Tyan Thunder n3600B
- Processor(s): 2x Dual-core AMD Opteron 2212
- Geheugen: 4 GB
- RAID controller: Onboard
Het werkt helaas niet, maar ik ben gaan kijken op website van VMware (HCL).
Als ik goed heb, wordt mijn moederbord nog niet ondersteund.
De processor wordt wel ondersteund, maar dan onder andere merken.
Betekent het dat ik op dit moment pech heb?
            kan die raid controller niet in AHCI mode  meestal werkt het dan wel
 meestal werkt het dan wel
of je moet (net als ik) booten vanaf een usb stick en dan enkele files editten om hem werkend te krijgen
welke controller is het eigenlijk? ich7 ich8
 ich8  ich9
 ich9  iets anders
 iets anders  
                    
                    of je moet (net als ik) booten vanaf een usb stick en dan enkele files editten om hem werkend te krijgen
welke controller is het eigenlijk? ich7
A wise man's life is based around fuck you
Ik kan helaas geen linkje sturen, want je moet inloggen bij Vmware voor je kan downloaden. Maar als ik inlog kan ik de gewone versie (iso) downloaden en daaronder staat de: VMware ESXi 3.5 U3 Installable with HP Management Components (iso).Verwijderd schreef op dinsdag 10 februari 2009 @ 17:39:
@PisPix Bijna dezelfde setup heb ik hier staan en wil ik ook graag met ESXi gaan testen. Mag ik vragen waar je VMware esxi voor Proliant 3,5 en update 3 hebt gevonden (linkje) ?
Ik heb natuurlijk wel gezocht maar de HP site blinkt m.i. niet uit in overzichtelijkheid. Kwam nog wel een mooi overzicht van een ESXi installatie op een Proliant tegen:
http://www.techhead.co.uk...oliant-ml115-g5-quad-core
Deze pak ik dan uit op een linux bak .tgz en .bzip en daarna zet ik de .dd file met dd op een usbstick.
- Ik zal gaan uitzoeken wat AHCI mode is. Die optie heb ik helaas nietPowershell schreef op dinsdag 10 februari 2009 @ 20:23:
kan die raid controller niet in AHCI modemeestal werkt het dan wel
of je moet (net als ik) booten vanaf een usb stick en dan enkele files editten om hem werkend te krijgen
welke controller is het eigenlijk? ich7ich8
ich9
iets anders
- USB-stick werkt niet, ik krijg foutmelding "Disk I/O error"
-- USB-stick geformatteerd naar FAT32 ipv. FAT
-- Uitgepakte ISO op USB-stick gezet
-- Nu heb ik foutmelding "Missing Operating System"
RAID-controller = onboard NVIDIA controller
[ Voor 13% gewijzigd door Silver7 op 10-02-2009 21:15 ]
Dat gaat niet werken, zie deze PDF voor de juiste procedure om een bootable USB stick met ESXi te maken.
MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B
Ik kan redelijk veel zien. Schijven, raid level, batterij status enz... Zie screenshot.Powershell schreef op dinsdag 10 februari 2009 @ 18:45:
wel jammer dat je (ondanks dat je hp insight manager kan configureren voor ESXi) niet de raid config van een dl360 (of ander model) uit kan lezen
temparatuur/powersupply's/cpu kan allemaal wel alleen niet de raid statusook niet met de HP versie
of heeft iemand anders hier een workaround voor
 
                    
            Welke versie ESX draai je? Ik heb het net even gecontroleerd op een dl380G5 met ESXi 3.5 update 2 en daar staat inderdaad geen storage bij de health status.
                    
                    MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B
Ik draai ESXi update 3. Daarna heb ik twee patches gedraaid. Eentje voor ESXi en eentje voor de VMWare tools. Mijn build nummer is: 143129Question Mark schreef op woensdag 11 februari 2009 @ 14:13:
Welke versie ESX draai je? Ik heb het net even gecontroleerd op een dl380G5 met ESXi 3.5 update 2 en daar staat inderdaad geen storage bij de health status.
Let op, ik heb wel de iso met hp proliant tools gebruikt. Grappig wel dat daar ook Dell Perc 5i ondersteuning in zit. :-)
je hebt een perc controlller... das wat anders als een smartarrayPisPix schreef op woensdag 11 februari 2009 @ 15:01:
[...]
Ik draai ESXi update 3. Daarna heb ik twee patches gedraaid. Eentje voor ESXi en eentje voor de VMWare tools. Mijn build nummer is: 143129
Let op, ik heb wel de iso met hp proliant tools gebruikt. Grappig wel dat daar ook Dell Perc 5i ondersteuning in zit. :-)
op geen enkele HP server heb ik dit voor elkaar gekregen (alles behalve storage status)
A wise man's life is based around fuck you
Verwijderd
            Kan er hier iemand mij vertellen wat momenteel de beste cpu is voor virtualisatie met ESXI?
AMD Opteron 2300 series
Intel Xeon 5400 series
Het zou gaan om 2 quad core cpu's in 1 machine.
Of anders welke cpu's gebruiken jullie zoal?
Mvg
Sven
            AMD Opteron 2300 series
Intel Xeon 5400 series
Het zou gaan om 2 quad core cpu's in 1 machine.
Of anders welke cpu's gebruiken jullie zoal?
Mvg
Sven
            Wat heb je zelf al aan benchmarks gevonden? Ik heb je in je originele post al gewezen op het voordeel van Numa wat de Opterons hebben. 
Verder is het niet eenvoudig om simpelweg "de beste" CPU aan te wijzen voor virtualisatie. Het is sterk afhankelijk van het gedrag van je VM's. Doen deze weinig I/O, maar veel CPU intensief werk dan wil je wellicht een "snelle" CPU. Doen je VM's veel aan I/O en weining CPU intensief werk, dan ben je wellicht beter af met een CPU die NUMA ondersteund.
Ook is een CPU niet "alles" in een fysieke host. Let ook op zaken als memory-snelheid en chipset mogelijkheden.
Wellicht is het handiger dat je eerst verteld naar welke van de twee platforms jezelf neigt, en nog belangrijker: beargumenteer je keuze.
Bij mijn klant gebruiken we DL380's (Intel Xeon) als fysieke hosts, bij mijn eigen werkgever gebruiken we een blade platform met Opterons. Verschillende eisen/wensen vertaald zich nu eenmaal naar een verschillend hardware platform.
                    Verder is het niet eenvoudig om simpelweg "de beste" CPU aan te wijzen voor virtualisatie. Het is sterk afhankelijk van het gedrag van je VM's. Doen deze weinig I/O, maar veel CPU intensief werk dan wil je wellicht een "snelle" CPU. Doen je VM's veel aan I/O en weining CPU intensief werk, dan ben je wellicht beter af met een CPU die NUMA ondersteund.
Ook is een CPU niet "alles" in een fysieke host. Let ook op zaken als memory-snelheid en chipset mogelijkheden.
Wellicht is het handiger dat je eerst verteld naar welke van de twee platforms jezelf neigt, en nog belangrijker: beargumenteer je keuze.
Bij mijn klant gebruiken we DL380's (Intel Xeon) als fysieke hosts, bij mijn eigen werkgever gebruiken we een blade platform met Opterons. Verschillende eisen/wensen vertaald zich nu eenmaal naar een verschillend hardware platform.
[ Voor 12% gewijzigd door Question Mark op 11-02-2009 18:41 ]
MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B
Verwijderd
            Ik probeer bij deze mijn situatie te schetsen.
Deze server zou ongeveer een 30-tal desktops gaan hosten waar ik applicatie zou op gaan draaien.
deze desktops zouden niet altijd moeten draaien.
eerder maar bepaalde uren per dag.
ook zou deze host een 10 servers moeten kunnen draaien, met zeker niet zwaar belaste taken.
zoals een altiris deployment server voor thin clients, backup domain controller, lichte sql server, ...
aangezien een esxi server de ghz bij elkaar telt zou ik durven gaan voor de cpu met het meeste ghz, en dat is dus de xeon, maar is er echt zoveel verschil tussen een xeon aan 3 ghz en een opteron aan 2,7ghz.
Ook het prijskaartje speelt hier mee, een opteron setup is toch wel wat goedkoper, en als ik deze tegenover elkaar zet in een vergelijking moet ik mijn baas ook overtuigd krijgen om te kiezen voor Intel moest deze echt de betere cpu hiervoor zijn.
Dus zou ik eerder een voorkeur uitspreken voor amd.
een echte vergelijking voor deze cpu's kan ik niet direct vinden.
            Deze server zou ongeveer een 30-tal desktops gaan hosten waar ik applicatie zou op gaan draaien.
deze desktops zouden niet altijd moeten draaien.
eerder maar bepaalde uren per dag.
ook zou deze host een 10 servers moeten kunnen draaien, met zeker niet zwaar belaste taken.
zoals een altiris deployment server voor thin clients, backup domain controller, lichte sql server, ...
aangezien een esxi server de ghz bij elkaar telt zou ik durven gaan voor de cpu met het meeste ghz, en dat is dus de xeon, maar is er echt zoveel verschil tussen een xeon aan 3 ghz en een opteron aan 2,7ghz.
Ook het prijskaartje speelt hier mee, een opteron setup is toch wel wat goedkoper, en als ik deze tegenover elkaar zet in een vergelijking moet ik mijn baas ook overtuigd krijgen om te kiezen voor Intel moest deze echt de betere cpu hiervoor zijn.
Dus zou ik eerder een voorkeur uitspreken voor amd.
een echte vergelijking voor deze cpu's kan ik niet direct vinden.
Bedankt voor de handleiding. Het boot goed vanaf USB-stick.Question Mark schreef op woensdag 11 februari 2009 @ 07:40:
[...]
Dat gaat niet werken, zie deze PDF voor de juiste procedure om een bootable USB stick met ESXi te maken.
Voor mij gevoel ben ik verkeerd bezig. Ik mis iets om te configureren. Oftewel hoe maak ik verschillende hosts aan enzo? Want in de startpost staat er niets. Of ik zit in verkeerde topic Laatste tekst niet gelezen. Mijn fout. sorry!
[ Voor 4% gewijzigd door Silver7 op 11-02-2009 20:13 ]
            -
                                                
            [ Voor 99% gewijzigd door deadlock2k op 06-08-2021 15:49 ]
            Ik draai inmiddels niet meer de HP tools variant van esxi. Ik bleef PSOD's houden. Ik draai nu de gewone variant en kan nog gewoon alle parameters en sensoren uitlezen. Storage, cpu, memory, fan, temperature, enz...
                    
            
            Dat die Perc uitgelezen kon worden had ik wel verwacht. Maar de rest van die system management gegevens... dan ga je je toch afvragen waar die uitvoering met hp-spul voor is  
                    
                    i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Ik heb altijd begrepen dat die er (met name) voor zorgde dat de fan's weer netjes 'terugklokken' als de belasting minder is.spone schreef op donderdag 12 februari 2009 @ 23:04:
Dat die Perc uitgelezen kon worden had ik wel verwacht. Maar de rest van die system management gegevens... dan ga je je toch afvragen waar die uitvoering met hp-spul voor is
Freelance (Microsoft) Cloud Consultant & Microsoft Certified Trainer
            Misschien denk ik teveel vanuit desktop-perspectief, maar waarom zou ESX of een CIM dat moeten regelen? Lijkt me meer een taak voor het BIOS.
                    
                    i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Integratie en het kunnen opnemen van de server in bv. HP Insight Manager. Wel zo handig dat je als beheerder sms-berichten/mail krijgt als niet alleen je Fysieke Windows servers problemen hebben, maar ook je ESX Hosts.spone schreef op donderdag 12 februari 2009 @ 23:04:
dan ga je je toch afvragen waar die uitvoering met hp-spul voor is
MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B
Dat regelt de machine zelf al. Zo'n 10 seconden na het aanzetten gaan de fans van full-speed naar de snelheid die nodig is om hem koel te houden. Ik denk inderdaad dat de HP variant niets extra's doet mbt sensors oid. Het zal voornamelijk integratie zijn met bestaande HP tools (monitoring/asset management/enz).ralpje schreef op donderdag 12 februari 2009 @ 23:11:
[...]
Ik heb altijd begrepen dat die er (met name) voor zorgde dat de fan's weer netjes 'terugklokken' als de belasting minder is.
Verwijderd
            Hai,
Ik draai ESX 3i op de volgende configuratie:
- MSI K7 (MS-7125) Soket 939 moederbord
- Athlon 64X2 4200+ processor (2,2 Mhz)
- 3 SATA disks
Probleem: Als ik mijn systeem na een upgrade reboot moet ik de reboot meestal een paar keer herhalen voordat hij pas het moederbord en de 2de kern herkent. Weet iemand hier een oplossing voor?
Grtz
Frans.
            Ik draai ESX 3i op de volgende configuratie:
- MSI K7 (MS-7125) Soket 939 moederbord
- Athlon 64X2 4200+ processor (2,2 Mhz)
- 3 SATA disks
Probleem: Als ik mijn systeem na een upgrade reboot moet ik de reboot meestal een paar keer herhalen voordat hij pas het moederbord en de 2de kern herkent. Weet iemand hier een oplossing voor?
Grtz
Frans.
Zelf al gekeken op de VMWare site?Verwijderd schreef op zondag 15 februari 2009 @ 12:20:
Kan iemand mij vertellen of dat een kans van slagen heeft?
Er staan twee lijsten op de site: een met officieel supported hardware vanuit VMWare, en een lijst met niet officieel supported hardware maar waar vanuit de community aangegeven is dat het werkt.
MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B
            @xstreur:
Het is me niet helemaal duidelijk hoe en waar jij je vmfs hebt? Op een niet-vermelde raid controller of draai je losse schijven?
                    Het is me niet helemaal duidelijk hoe en waar jij je vmfs hebt? Op een niet-vermelde raid controller of draai je losse schijven?
i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
            Heb mijn config nu ook klaar voor ESXi 3.5u3. 
Mobo: Asus P5E-VM DO
MEM 2x2GB daarkomt nog 2x2GB bij is onderweg
HDD: 3x250GB SATA + 2x500GB SATA Hitachie T7K500`s
I/O: Dell Perc 5/i 256MB (gemod voor koeling en werking op een Intel bord) + BBU
Daarbij komt nog een QNAP Turbo Station TS-209 Pro II voor backup en NFS. 2x 1TB Hitachi T7K1000.B
Al met al verstookt dit iets meer dan 120Watt als er volle belasting is en dat komt niet al te vaak voor.
Dit scheelt me aanzienlijk in me stroom rekening
Me vorige systeem was een W2K3 machine
2x xeon 2,8 2MB Nocona`s
4GB
3x250GB
deze verstookt in Idle al bijna net zoveel.
            Mobo: Asus P5E-VM DO
MEM 2x2GB daarkomt nog 2x2GB bij is onderweg
HDD: 3x250GB SATA + 2x500GB SATA Hitachie T7K500`s
I/O: Dell Perc 5/i 256MB (gemod voor koeling en werking op een Intel bord) + BBU
Daarbij komt nog een QNAP Turbo Station TS-209 Pro II voor backup en NFS. 2x 1TB Hitachi T7K1000.B
Al met al verstookt dit iets meer dan 120Watt als er volle belasting is en dat komt niet al te vaak voor.
Dit scheelt me aanzienlijk in me stroom rekening
Me vorige systeem was een W2K3 machine
2x xeon 2,8 2MB Nocona`s
4GB
3x250GB
deze verstookt in Idle al bijna net zoveel.
            Moederbord
Gigabyte EP35-DS3L
Processor
Intel Core 2 Duo E8400
Geheugen
4 x 2GB Kingstom HyperX PC6400
Schijf
2 x Seagate Barracudo 7200.10 500 GB
Deze werkt ook draait thuis perfect
 draait thuis perfect
http://haneev.nl/blog/4/a...irtueels-vmware-esxi.html
(voor diegenen die een werkende wil maken ;-) )
            Gigabyte EP35-DS3L
Processor
Intel Core 2 Duo E8400
Geheugen
4 x 2GB Kingstom HyperX PC6400
Schijf
2 x Seagate Barracudo 7200.10 500 GB
Deze werkt ook
http://haneev.nl/blog/4/a...irtueels-vmware-esxi.html
(voor diegenen die een werkende wil maken ;-) )
            Ik heb nu 2x ESXi op een D945gclf2 draaien, samen met een eenvoudig nasje met NFS. Heb er alleen nog een intel dual GBit kaart bij moeten steken maar ik denk dat ik de realteks ook bijna werkend heb (worden wel al herkend maar niet nog niet geactiveerd). Totaal vermogen incl. NAS is 56 Watt (23Watt voor 1 systeem).
                                                
                    Duct tape can't fix stupid, but it can muffle the sound.
            Welke realtek kaartjes heb je het dan over?
Trouwens, leuk dat je het werkend hebt op een Atom-bordje, maar is nou juist het gebrek aan processing power niet het manco van de Atom? Sommige mensen willen er nou juist vanaf vanwege het gebrek aan performance 
                                                
                    Trouwens, leuk dat je het werkend hebt op een Atom-bordje, maar is nou juist het gebrek aan processing power niet het manco van de Atom? Sommige mensen willen er nou juist vanaf vanwege het gebrek aan performance
[ Voor 71% gewijzigd door spone op 22-02-2009 13:15 ]
i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
            Ik heb gisteren de redundant voeding in de ML150 G5 gezet en daarna alle VM's opgestart. Het stroomverbruik zit dan op 180 watt. Ik vond het geen slechte score. Er zitten 4 7200 toeren schijven in het systeem. Zonder de VM's pakt de server 150 watt. Als de server uit staat pakt deze 35 watt!?! Das best een hoop voor alleen de ilo... Maar ja, hij zal binnenkort als het goed is komende jaren niet meer uit gaan.
                    
            De onboard RTL8111Cspone schreef op zondag 22 februari 2009 @ 13:13:
Welke realtek kaartjes heb je het dan over?
Tja, als een cpu van 8Watt TDP (atom 330) net zo zou presteren als een van 65Watt TDP (xeon 5110).. je moet alles in verhouding zien, zolang je geen hoge memory io nodig hebt performt het naar mijn idee boven verwachting. Het is gewoon leuk speelgoed...maar is nou juist het gebrek aan processing power niet het manco van de Atom?
Duct tape can't fix stupid, but it can muffle the sound.
Zoiets wil ik ook ooit, een thecus iscsi / nfs doos. En dan 2 mini servertjes met 4/8 GB mem ofzo kleine laptop disk of esx van een usb stick en dan spelen.DukeBox schreef op zondag 22 februari 2009 @ 13:02:
Ik heb nu 2x ESXi op een D945gclf2 draaien, samen met een eenvoudig nasje met NFS. Heb er alleen nog een intel dual GBit kaart bij moeten steken maar ik denk dat ik de realteks ook bijna werkend heb (worden wel al herkend maar niet nog niet geactiveerd). Totaal vermogen incl. NAS is 56 Watt (23Watt voor 1 systeem).
"De kans dat een snee brood op een nieuw tapijt valt met de beboterde zijde onderaan, is recht evenredig met de prijs van het tapijt"
            Misschien een gekke zijstap, maar zijn er mensen die ervaring hebben met ESXi op virtuele hardware? Puur om eens met ESXi te spelen, ik heb momenteel geen gesupporte hardware. Vanmiddag heb ik het geinstalleerd en draaiend gekregen op Windows 2003 x64 met VMware server 2, maar ik moet nog even wennen aan alle nieuwe mogelijkheden die erbij zijn gekomen.
Gaat dit überhaupt een beetje werken of zal de performance om te huilen zijn. Ik voorzie problemen met de aansturing van cdrom of het kopieren van een iso en de performance van de virtuele HD. Ik heb het eerder al eens met ESX 2.5 geprobeerd, maar dat was zo traag dat het meer dan 12u duurde om te installeren (zat een nachtje slapen tussen, heb er niet meer op gewacht). Heb het daarna maar opgegeven.
                    Gaat dit überhaupt een beetje werken of zal de performance om te huilen zijn. Ik voorzie problemen met de aansturing van cdrom of het kopieren van een iso en de performance van de virtuele HD. Ik heb het eerder al eens met ESX 2.5 geprobeerd, maar dat was zo traag dat het meer dan 12u duurde om te installeren (zat een nachtje slapen tussen, heb er niet meer op gewacht). Heb het daarna maar opgegeven.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB
            Ik draai ESXi en ESX hier regelmatig in Workstation. Puur om mee te spelen en zaken te testen werkt het goed genoeg. Je kan zelfs een VM starten, maar dat gaat niet supersnel natuurlijk. Meer mag je er dus ook echt niet van verwachten.
                    
                    4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
            Wat voor soort diskperformance en netwerksnelheden moet je aan denken om een kleine test/productie omgeving te draaien met isci of nfs? Zou bijvoorbeeld een kleine nas als een QNAP TS-439 in R5 op gigabit genoeg zijn voor een 4-tal Windows servers, waaronder 1 exchange en 1 terminal server.
                    
                    #team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB
            Hangt ervan wat voor snelheid je haalt met je QNAP. Lijkt me dat je dat met iets als iometer kunt bepalen.
http://www.cdfreaks.com/r...O-Review/Performance.html
                    http://www.cdfreaks.com/r...O-Review/Performance.html
[ Voor 26% gewijzigd door Saab op 26-02-2009 00:38 ]
https://www.discogs.com/user/jurgen1973/collection
            Ja ok, maar even los van de QNAP als specifieke oplossing, wat zou een raid-set minmaal moeten behalen aan snelheid om werkbaar te zijn. Een fiberchannel SAN is niet voor iedereen weggelegd.
                    
                    #team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB
            Hoeveel snelheid je nodig hebt hangt volgens mij heel erg af van de workload van je servers. Gebruiken die veel disk? Hoeveel gebruikers zitten er op de TS en wat spoken die uit? Voor een eenvoudige testomgeving die voornamelijk idle draait moet je misschien denken aan 15-20MB/sec wil het een beetje werkbaar zijn, maar dat is niet heel eenvoudig zo te zeggen.
                    
                    i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Inmiddels het ik er 8GB aan RAM in zitten en er 4 SATA WD drives in hangen. Alles werkt hier nog steeds perfect met ESX 3.5 update 3. Zelf draait ik er nu 5 VM's op. Het is een mix van 32 en 64 bit Windows en Linux VM's en dat gaat ook allemaal goed.LeNNy schreef op vrijdag 15 augustus 2008 @ 12:39:
Hier draai ik ESX 3.5.x op een Asus M2NPV-VM plank met Athlon X2 5000+, 4GB RAM en 3 niet in RAID geconfigureerde WD drives. Deze setup draait super stabiel en werkt perfect.
De NVidia SATA en LAN controllers werken allebei out-of-the-boxen. Ik heb dus geen extra Storage of LAN kaarten nodig. Heb er nog wel een Intel Pro/100+ in zitten voor het netwerk naar de buurman en die werkt ook perfect.
Tijdens het booten verschijnter wel een of andere rode tekst over .. TSC... enzo, maar daar werkt het prima om.
Wil er in de toekomst nog wel 8GB aan RAM in zetten en wat grotere schijven plaatsen, maar voorlopig gaat het prima.
Daarnaast nog een Adpatec 29160 kaart geplaatst om een externe LTO2 drive op aan te sluiten. De tape drive heb ik aan een VM gekoppeld. Zodoende kan ik mijn data vanuit de VM backuppen.
Ik weet niet of je vanuit een bestaande omgeving wilt gaan migreren maar je kunt dan het beste de huidige load bekijken.Ethirty schreef op donderdag 26 februari 2009 @ 10:36:
Ja ok, maar even los van de QNAP als specifieke oplossing, wat zou een raid-set minmaal moeten behalen aan snelheid om werkbaar te zijn. Een fiberchannel SAN is niet voor iedereen weggelegd.
Ik ben sinds een paar weken aan het testen en ik heb een ML530 (g2, geloof ik) met 2Gb geheugen en 1 Xeon processor en een RAID5 set. Ik ben best onder de indruk over de performance ondanks dat de machine niet echt meer nieuw is( 3 jaar oud denk ik)
Verder test ik op een DX2000 workstation maar dat is een stuk moeizamer, ik denk dat een P4 2.8 het niet echt lekker trekt. Geheugen is dan ook maar 1.25Gb.
Morgen begin ik aan een migratie op een ML350 met 4Gb waar twee Novell servers en 1 Windows server op gaan draaien op een RAID5 set. Tot nu toe draait alles in VMware server maar dat is verre van stabiel.
https://www.discogs.com/user/jurgen1973/collection
Ik ben een beetje aan het inlezen en testen met in het achterhoofd een aankomende kleinschalige migratie bij een klant. CPU en geheugen zijn niet zo problematisch, maar hoe maak je een nauwkeurige inschatting van disk I/O. Zijn wat testjes met Atto voldoende, moet je uitgebreidere langere tests doen? En zou zo NAS dan de capaciteit hebben om het draaiend te houden.Saab schreef op vrijdag 27 februari 2009 @ 22:39:
Ik weet niet of je vanuit een bestaande omgeving wilt gaan migreren maar je kunt dan het beste de huidige load bekijken.
Het gaat slechts om een tijdelijke situatie (ong 1 jaar), puur om hardware wat uit onderhoud loopt functioneel in de lucht te houden met P2V. Over een a anderhalf jaar komen er grootscheepse veranderingen, maar dat zien we dan wel. Maar nu een handjevol servers vervangen door evenzoveel nieuwe voor een jaartje lijkt me financieel niet zo aantrekkelijk voor de klant.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB
            Om terug te komen op je QNAP, ik denk dat ie in een bedrijfsmatige omgeving al snel tegen zijn limiet zal aanlopen. QNAP valt toch nog in de consumenten/small office categorie en om daarvan een Exchange en Terminal server af te gaan draaien, ik weet het niet.
Alles hangt sterk af van de load die je nu hebt, hoeveel gebruikers, hoeveel mail per dag/uur/minuut, anit virus/spam, etc. Wat doen die gebruikers zoal.
Start anders de performance viewer eens, selecteer de physical disk avg disk transfers en je krijgt een idee over de load.
Mi is de CPU en memory prima in te schalen maar zal het knelpunt snel rondom de disksnelheid liggen.
                    Alles hangt sterk af van de load die je nu hebt, hoeveel gebruikers, hoeveel mail per dag/uur/minuut, anit virus/spam, etc. Wat doen die gebruikers zoal.
Start anders de performance viewer eens, selecteer de physical disk avg disk transfers en je krijgt een idee over de load.
Mi is de CPU en memory prima in te schalen maar zal het knelpunt snel rondom de disksnelheid liggen.
https://www.discogs.com/user/jurgen1973/collection
            Waarom moet het per sé een NAS (met NFS export/iSCSI) zijn? Is het niet veel handiger (en performance-wise waarschijnlijk wel beter) om een aardige raid-controller te kopen met een aantal schijven in raid 10 intern? Heb je ook geen last van een 1Gb-beperking (ervanuit gaande dat het geen 10GbE-NAS is).
                                                
                    i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Kijk even naar de Microsoft MAP toolkit. Da's een toolkit die je huidige omgeving scanned en aan kan geven welke performance benodigd is op (uiteraard) de virtualisatie produkten van MS. Dat zal echter voor ESX niet veel schelen.Ethirty schreef op zaterdag 28 februari 2009 @ 01:36:
[...]
Ik ben een beetje aan het inlezen en testen met in het achterhoofd een aankomende kleinschalige migratie bij een klant. CPU en geheugen zijn niet zo problematisch, maar hoe maak je een nauwkeurige inschatting van disk I/O. Zijn wat testjes met Atto voldoende, moet je uitgebreidere langere tests doen?
MAP is a powerful inventory, assessment, and reporting tool that can securely run in small or large IT environments without requiring the installation of agent software on any computers or devices. The data and analysis provided by this Solution Accelerator can significantly simplify the planning process for migrating to Windows Vista®, Microsoft Office 2007, Windows Server® 2008, Windows Server 2008 Hyper-V, Virtual Server 2005 R2, SQL Server 2008 and Microsoft Application Virtualization 4.5 (formerly SoftGrid), Microsoft SQL Server 2008, Microsoft Online Services, Forefront/NAP.
MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B
            Betreffende klant heeft na het bespreken van het idee aangegeven het niet zo'n fijn idee te vinden om alles op 1 machine te hebben draaien. Nu hebben ze 1 HP DL380 (mega overkill: 2x quad-xeon, 8GB) met lokale opslag (5x SAS in R5) waarop W2K3 x64/VMware server draait met 3 VM's: 2 productie (Exchange 2000 en Terminal server op 2000) en 1 testsysteem voor hun database. Hier zou nog bij moeten komen een DC/file en de legacy database server (alleen nog maar interne support vanuit het moederbedrijf, de database zelf is al jaren eol). Het is MKB (40 man) en in feite is dit het hele netwerk. 
Ik heb voorgesteld dat je dan performance technisch beter naar ESX(i) kan kijken en zij gaven zelf aan er graag een extra bak naast te hebben voor failover. Mi heb ik daarbij dan een vorm van centrale storage nodig voor de VM's. Een cold spare server en disks wisselen is wellicht ook mogelijk, maar van dat idee ben ik zelf geen voorstander. HA, DRS, etc is allemaal niet nodig, gaat puur om disaster-failover en misschien een heel klein beetje load-balancing.
Inmiddels heb ik afgelopen vrijdag een beetje kunnen spelen met een voor onszelf aangeschafte HP DL185 6TB storage server. Misschien is dit in kleinere variant (2TB is meer dan zat) wel binnen hun budget te krijgen. Misschien kan een DL160 qua performance ook nog wel. Ik zal eens voorstellen wat performance tests over langere tijd te laten lopen op alle machines (fysiek én virtueel).
Maar goed, nu wordt ik eigenlijk al veel te specifiek, ik wilde het voor het topic juist algemeen houden. Tips blijven overigens wel welkom 
                                                
                    Ik heb voorgesteld dat je dan performance technisch beter naar ESX(i) kan kijken en zij gaven zelf aan er graag een extra bak naast te hebben voor failover. Mi heb ik daarbij dan een vorm van centrale storage nodig voor de VM's. Een cold spare server en disks wisselen is wellicht ook mogelijk, maar van dat idee ben ik zelf geen voorstander. HA, DRS, etc is allemaal niet nodig, gaat puur om disaster-failover en misschien een heel klein beetje load-balancing.
Inmiddels heb ik afgelopen vrijdag een beetje kunnen spelen met een voor onszelf aangeschafte HP DL185 6TB storage server. Misschien is dit in kleinere variant (2TB is meer dan zat) wel binnen hun budget te krijgen. Misschien kan een DL160 qua performance ook nog wel. Ik zal eens voorstellen wat performance tests over langere tijd te laten lopen op alle machines (fysiek én virtueel).
Maar goed, nu wordt ik eigenlijk al veel te specifiek, ik wilde het voor het topic juist algemeen houden. Tips blijven overigens wel welkom
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB
2 kleinere servers met een thecus 8000 (dual psu / rackmount etc), met raid 6 erop ?Ethirty schreef op zaterdag 28 februari 2009 @ 12:11:
Betreffende klant heeft na het bespreken van het idee aangegeven het niet zo'n fijn idee te vinden om alles op 1 machine te hebben draaien. Nu hebben ze 1 HP DL380 (mega overkill: 2x quad-xeon, 8GB) met lokale opslag (5x SAS in R5) waarop W2K3 x64/VMware server draait met 3 VM's: 2 productie (Exchange 2000 en Terminal server op 2000) en 1 testsysteem voor hun database. Hier zou nog bij moeten komen een DC/file en de legacy database server (alleen nog maar interne support vanuit het moederbedrijf, de database zelf is al jaren eol). Het is MKB (40 man) en in feite is dit het hele netwerk.
Ik heb voorgesteld dat je dan performance technisch beter naar ESX(i) kan kijken en zij gaven zelf aan er graag een extra bak naast te hebben voor failover. Mi heb ik daarbij dan een vorm van centrale storage nodig voor de VM's. Een cold spare server en disks wisselen is wellicht ook mogelijk, maar van dat idee ben ik zelf geen voorstander. HA, DRS, etc is allemaal niet nodig, gaat puur om disaster-failover en misschien een heel klein beetje load-balancing.
Inmiddels heb ik afgelopen vrijdag een beetje kunnen spelen met een voor onszelf aangeschafte HP DL185 6TB storage server. Misschien is dit in kleinere variant (2TB is meer dan zat) wel binnen hun budget te krijgen. Misschien kan een DL160 qua performance ook nog wel. Ik zal eens voorstellen wat performance tests over langere tijd te laten lopen op alle machines (fysiek én virtueel).
Maar goed, nu wordt ik eigenlijk al veel te specifiek, ik wilde het voor het topic juist algemeen houden. Tips blijven overigens wel welkom
Eventueel kan je je thecus nog in sync houden met een 2e.
Alles is relatief aan het budget.
"De kans dat een snee brood op een nieuw tapijt valt met de beboterde zijde onderaan, is recht evenredig met de prijs van het tapijt"
Als load balancing niet nodig is (als 1 systeem voldoende capaciteit heeft) waarom zorg je dan niet voor een heel goed support contract ? Met bijv. een 2 uur fix heb je een prima (hardware) disaster plan als je daarnaast gewoon goed je backups regeld.[b][message=31568080,noline]...gaat puur om disaster-failover en misschien een heel klein beetje load-balancing.
B.t.w. ik heb zelf regelmatig met de thecus gewerkt (heb er ook een privé gehad) maar geen haar op mijn hoofd die dat ding in een productie omgeving zal zetten.. het wordt door niemand gesupport, is ie stuk ben je zo 4 weken verder voor dat ie gerepareerd is en met het syncen heb ik al meerdere malen aan beide kanten een corrupt FS gehad. Daar komt ook nog bij dat de performance tijdens een sync of wanneer je meerdere snapshots wilt bewaren om te huilen is.
[ Voor 37% gewijzigd door DukeBox op 28-02-2009 14:11 ]
Duct tape can't fix stupid, but it can muffle the sound.
            N.a.v. dit topic heb ik een Ml110G5 gekocht om wat mee te spelen. Dit bevalt zo goed dat ik de Ml wil gaan gebruiken als server voor hier en een tweede ml110 op de zaak. In mijn oude servers heb ik gebruik gemaakt van HP/quantum 160/320gb SATA DLT units. 
Deze krijg ik echter niet aan de gang op esx ... ik kan ze wel als scsi device aanvinken maar windows backup snapt er niets van ..
Aangezien ik toch wil vernieuwen maar wel backups wil blijven maken zit ik nu te kijken naar een deonet oplossing ingebouwde raid 1 :

Deze units werken 'gewoon' op esata en moeten dus kunnen werken in esx. Vervolgens wil ik de oracle database (~120gb)op één van de raid 1 disks plaatsen en deze beschikbaar maken in de vm's.
Naast de standaard schijf die in de deonet zit heb je dus continu meerdere dag-schijven die verschillen. Dit geintje kost zo'n ~1000 euro aan hdd's en deonet units. Is dit een goede keuze? Of kan ik beter kijken naar andere oplossingen? Ik kan op google weinig vinden m.b.t. de combinatie deonet + esx
            Deze krijg ik echter niet aan de gang op esx ... ik kan ze wel als scsi device aanvinken maar windows backup snapt er niets van ..
Aangezien ik toch wil vernieuwen maar wel backups wil blijven maken zit ik nu te kijken naar een deonet oplossing ingebouwde raid 1 :

Deze units werken 'gewoon' op esata en moeten dus kunnen werken in esx. Vervolgens wil ik de oracle database (~120gb)op één van de raid 1 disks plaatsen en deze beschikbaar maken in de vm's.
Naast de standaard schijf die in de deonet zit heb je dus continu meerdere dag-schijven die verschillen. Dit geintje kost zo'n ~1000 euro aan hdd's en deonet units. Is dit een goede keuze? Of kan ik beter kijken naar andere oplossingen? Ik kan op google weinig vinden m.b.t. de combinatie deonet + esx
            "Windows Backup' snapt hier niks van. hebben we het over windows 2003 of windows 2008 
de backup tool in 2008 (Windows Server Backup) kan namelijk niet meer met tapeapparaten overweg. wil je dat wel dan moet je backupexec of iets anders aan gaan schaffen
                    de backup tool in 2008 (Windows Server Backup) kan namelijk niet meer met tapeapparaten overweg. wil je dat wel dan moet je backupexec of iets anders aan gaan schaffen
A wise man's life is based around fuck you
            Deonet werkt prima, is gewoon een mirror, wat op disk 1 staat, staat ook op disk 2, disk 2 wissel je met disk 3, zo vaak je wil (overkopieren van 500gb kan een paar uur duren), als disk 1 kapot gaat, heb je altijd nog disk 2, of disk 3 natuurlijk. 
Als het moet zet je disk 2 of 3 er weer in, en je kunt verder gaan waar je gebleven was. Je kunt disk 2/3 natuurlijk ook aan indentieke hardware zetten, kun je direcht weer aan de slag, zonder herinstallatie.
Zo zou je een hardwarematig kapotte server binnen 5 minuten weer aan de gang kunnen hebben (met weinig afwijkende of indentieke hardware).
Zijn er ook gewoon normale consumenten moederborden met bijbehorende chipset die werken met ESXi?
Ik heb de hardwarelijst gekeken, maar daar zie ik bijv. geen Intel ICH9/10 of bijv. jmicron chipsets tussen staan.
            Als het moet zet je disk 2 of 3 er weer in, en je kunt verder gaan waar je gebleven was. Je kunt disk 2/3 natuurlijk ook aan indentieke hardware zetten, kun je direcht weer aan de slag, zonder herinstallatie.
Zo zou je een hardwarematig kapotte server binnen 5 minuten weer aan de gang kunnen hebben (met weinig afwijkende of indentieke hardware).
Zijn er ook gewoon normale consumenten moederborden met bijbehorende chipset die werken met ESXi?
Ik heb de hardwarelijst gekeken, maar daar zie ik bijv. geen Intel ICH9/10 of bijv. jmicron chipsets tussen staan.
[ Voor 57% gewijzigd door eX0duS op 01-03-2009 10:37 ]
2003. De koppeling sata dlt i.c.m. esxi werkt gewoon niet ...Powershell schreef op zondag 01 maart 2009 @ 09:02:
"Windows Backup' snapt hier niks van. hebben we het over windows 2003 of windows 2008
de backup tool in 2008 (Windows Server Backup) kan namelijk niet meer met tapeapparaten overweg. wil je dat wel dan moet je backupexec of iets anders aan gaan schaffen
Je kunt eens op http://ultimatewhitebox.com/ kijken, daar staat een lijst met moederborden en andre hardware welke werken onder ESX en ESXi.eX0duS schreef op zondag 01 maart 2009 @ 09:16:
Zijn er ook gewoon normale consumenten moederborden met bijbehorende chipset die werken met ESXi?
Ik heb de hardwarelijst gekeken, maar daar zie ik bijv. geen Intel ICH9/10 of bijv. jmicron chipsets tussen staan.
ah, sata tape nee dat werkt idd niet. alleen disken zijn supported.Wimo. schreef op zondag 01 maart 2009 @ 10:32:
[...]
2003. De koppeling sata dlt i.c.m. esxi werkt gewoon niet ...
A wise man's life is based around fuck you
Verwijderd
            Misschien aardige info voor PisPix en anderen met een HP ML150 G5 server.
Specs server:
- Intel Xeon E5410 quad-core Processor 2,33 GHz
- 12 Gb geheugen PC2-5300
- HP E200 Smart Array SAS/SATA controller met 8 interne poorten
- 4x HP 1TB Hot-Plug 7 2K SATA HDD (Seagate ES.2) in Raid 0+1
- HP Lights-Out 100C Kit
- HP Redundant Power Supply
VMWare ESX Server 3i / Version 3.5.0 / Build: 123629
(de standaard versie zonder de HP Management Components want die versie crasht bij mij)
HDTune tests (alleen lezen) in Windows Server 2008 Standaard zonder VMWare en met VMWare. Zoals te zien geven de tests onder VMWare resultaten die niet kunnen kloppen dus als benchmark om te zien wat het verschil ongeveer is in harddisk performance bij werken met en zonder VMWare heeft dit niet veel nut gehad.
Misschien test ik nog eens op een andere manier, ik houd me aanbevolen voor suggesties van te gebruiken software daarvoor.
                                                
            Specs server:
- Intel Xeon E5410 quad-core Processor 2,33 GHz
- 12 Gb geheugen PC2-5300
- HP E200 Smart Array SAS/SATA controller met 8 interne poorten
- 4x HP 1TB Hot-Plug 7 2K SATA HDD (Seagate ES.2) in Raid 0+1
- HP Lights-Out 100C Kit
- HP Redundant Power Supply
VMWare ESX Server 3i / Version 3.5.0 / Build: 123629
(de standaard versie zonder de HP Management Components want die versie crasht bij mij)
HDTune tests (alleen lezen) in Windows Server 2008 Standaard zonder VMWare en met VMWare. Zoals te zien geven de tests onder VMWare resultaten die niet kunnen kloppen dus als benchmark om te zien wat het verschil ongeveer is in harddisk performance bij werken met en zonder VMWare heeft dit niet veel nut gehad.
Misschien test ik nog eens op een andere manier, ik houd me aanbevolen voor suggesties van te gebruiken software daarvoor.
| Proliant ML150 G5 | ||
|  |  |  | 
|  |  |  | 
Leuke specs! Ik haal binnen Centos op Vmware een schrijfsnelheid van zo'n 55 Mb/s. Ik gebruik dd om een file te genereren. Maar ik heb een andere raid controller (Dell perc 5i met write back cache). Ik ben niet gegaan voor de E200 omdat ik deze te duur vond voor een SATA-1 controller. Ik had trouwens ook constant paarse schermen met de HP versie van Vmware. Ik heb 4x Seagate ES.2 7200 rpm 750 Gb schijven in Raid 1+0 staan.Verwijderd schreef op woensdag 04 maart 2009 @ 17:47:
Misschien aardige info voor PisPix en anderen met een HP ML150 G5 server.
Specs server:
- Intel Xeon E5410 quad-core Processor 2,33 GHz
- 12 Gb geheugen PC2-5300
- HP E200 Smart Array SAS/SATA controller met 8 interne poorten
- 4x HP 1TB Hot-Plug 7 2K SATA HDD (Seagate ES.2) in Raid 0+1
- HP Lights-Out 100C Kit
- HP Redundant Power Supply
VMWare ESX Server 3i / Version 3.5.0 / Build: 123629
(de standaard versie zonder de HP Management Components want die versie crasht bij mij)
HDTune tests (alleen lezen) in Windows Server 2008 Standaard zonder VMWare en met VMWare. Zoals te zien geven de tests onder VMWare resultaten die niet kunnen kloppen dus als benchmark om te zien wat het verschil ongeveer is in harddisk performance bij werken met en zonder VMWare heeft dit niet veel nut gehad.
Misschien test ik nog eens op een andere manier, ik houd me aanbevolen voor suggesties van te gebruiken software daarvoor.
Proliant ML150 G5 [afbeelding] [afbeelding] [afbeelding] [afbeelding] [afbeelding] [afbeelding] 
[root@transltr tmp]# dd if=/dev/zero of=test.bin bs=1024k count=100
100+0 records in
100+0 records out
104857600 bytes (105 MB) copied, 1.89458 seconds, 55.3 MB/s
En voor lees snelheden:
[root@transltr tmp]# hdparm -tT /dev/sda
/dev/sda:
Timing cached reads: 13668 MB in 1.99 seconds = 6862.57 MB/sec
Timing buffered disk reads: 222 MB in 3.04 seconds = 72.94 MB/sec
Om andere mensen een hoop tijd en moeite te besparen: op ESXi binnen VMware server kan je geen virtuele machines starten. Was natuurlijk ook wel te verwachten.Ethirty schreef op zondag 22 februari 2009 @ 22:45:
Misschien een gekke zijstap, maar zijn er mensen die ervaring hebben met ESXi op virtuele hardware? Puur om eens met ESXi te spelen, ik heb momenteel geen gesupporte hardware. Vanmiddag heb ik het geinstalleerd en draaiend gekregen op Windows 2003 x64 met VMware server 2, maar ik moet nog even wennen aan alle nieuwe mogelijkheden die erbij zijn gekomen.
 Je kan verder alles testen en inrichten, maar als je een guest wil starten krijg je de melding dat je dat wel kan vergeten.
  Je kan verder alles testen en inrichten, maar als je een guest wil starten krijg je de melding dat je dat wel kan vergeten.Vandaag heb ik ook nog even een testje gedaan met de eerder genoemde storage server die we op de zaak nu hebben staan. Wel leuke scores met >600MB read en >400MB write
En zo te zien prima geschikt voor VMware als een echt SAN buiten budget ligt (Of valt zo'n apparaat ook al in de categorie SAN?)
 
  
                    #team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB
gek genoeg werkt het hier onder VMware Workstation 6.5 met ESXi welEthirty schreef op woensdag 04 maart 2009 @ 21:52:
[...]
Om andere mensen een hoop tijd en moeite te besparen: op ESXi binnen VMware server kan je geen virtuele machines starten. Was natuurlijk ook wel te verwachten.Je kan verder alles testen en inrichten, maar als je een guest wil starten krijg je de melding dat je dat wel kan vergeten.
 
                    A wise man's life is based around fuck you
            Kennelijk is de hardware emulatie binnen Server dan net even anders dan in Workstation. De melding was geloof ik dat je geen VM mag starten vanaf virtuele hardware.
                    
                    #team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB
            Waarom zou je dat uberhaupt willen?
                    
                    https://www.discogs.com/user/jurgen1973/collection
consultancySaab schreef op donderdag 05 maart 2009 @ 15:10:
Waarom zou je dat uberhaupt willen?
even laten zien hoe de techniek werkt zonder direct een live omgeving te hoeven optuigen. even vmotion testen. vswitch configuratie in elkaar zetten. erg handig als je dat in een VM kan doen.
+ niet iedereen heeft een SAN thuis staan en door ESXI in vmware te draaien kan je vrij makkelijk een stukje iscsi ontsluiten via een andere windows host
A wise man's life is based around fuck you
Dan neem je toch gewoon 2 laptops met een nasje ? Booten van usb en klaar..Powershell schreef op donderdag 05 maart 2009 @ 16:18:
consultancy
even laten zien hoe de techniek werkt zonder direct een live omgeving te hoeven optuigen. even vmotion testen. vswitch configuratie in elkaar zetten. erg handig als je dat in een VM kan doen.
Duct tape can't fix stupid, but it can muffle the sound.
Vraag me af of je nog iets zinnigs kunt zeggen over perfomance als je er dan weer een laag tussen plakt. Plus dat je helemaal geen SAN nodig hebt.Powershell schreef op donderdag 05 maart 2009 @ 16:18:
[...]
consultancy
even laten zien hoe de techniek werkt zonder direct een live omgeving te hoeven optuigen. even vmotion testen. vswitch configuratie in elkaar zetten. erg handig als je dat in een VM kan doen.
+ niet iedereen heeft een SAN thuis staan en door ESXI in vmware te draaien kan je vrij makkelijk een stukje iscsi ontsluiten via een andere windows host
https://www.discogs.com/user/jurgen1973/collection
            Moet je dus wel weer eerst een laptop hebben waarvan je esxi kan booten. Het is zoals Powershell zegt vooral handig voor consultancy, maar ook om zelf te testen als je geen supported hardware heb. 
Met een paar avondjes stoeien kan ik nou tenminste met enig vertrouwen een simpele échte omgeving bouwen, zonder al te veel uhhh-momentjes. Voor 1 projectje is het voor ons ook niet rendabel om de volledige VMware certificering te doorlopen al zou ik dat als techneut natuurlijk wel graag willen.
Performance is niet denderend, maar dat zal het met 2 laptops en een nas ook niet zijn. Daarnaast heb ik geen 2 laptops en een nas 
                    
                    Met een paar avondjes stoeien kan ik nou tenminste met enig vertrouwen een simpele échte omgeving bouwen, zonder al te veel uhhh-momentjes. Voor 1 projectje is het voor ons ook niet rendabel om de volledige VMware certificering te doorlopen al zou ik dat als techneut natuurlijk wel graag willen.
Performance is niet denderend, maar dat zal het met 2 laptops en een nas ook niet zijn. Daarnaast heb ik geen 2 laptops en een nas
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 5 64GB  iPhone SE 128GB
Als ik kan kiezen om 1 laptop in een rugtas mee te nemen naar een klant of 2 laptops + een nasje + switch meezeulen om exact hetzelfde te demonstreren is het voor mij geen lastige keuzeDukeBox schreef op donderdag 05 maart 2009 @ 16:40:
[...]
Dan neem je toch gewoon 2 laptops met een nasje ? Booten van usb en klaar..
Bovendien wordt op zulke momenten het POC gedemonstreerd (proof of concept), en is performance nog geen issue.
[ Voor 12% gewijzigd door Question Mark op 05-03-2009 18:25 ]
MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B
ik heb het niet over performance maar over functionaliteitSaab schreef op donderdag 05 maart 2009 @ 16:52:
[...]
Vraag me af of je nog iets zinnigs kunt zeggen over perfomance als je er dan weer een laag tussen plakt. Plus dat je helemaal geen SAN nodig hebt.
geen san nodig voor VMotion
[ Voor 6% gewijzigd door Zwelgje op 05-03-2009 18:24 ]
A wise man's life is based around fuck you
            Kijk eens aan, een ESXi topic op tweakers.net mooi!
Zelf ben ik geïnteresseerd om hier thuis ook de overstap te maken van Win2k8 + VMware server 2 naar ESXi. Dit omdat het doel van de server (ZEER snelle storage + services) meer veranderd is naar services + storage. Dan nog moet het met een goede cpu ook wel lukken om een gigabit nic vol te trekken met genoeg spindels.
Niet als anderen ben ik geïnteresseerd in het gebruik van een Phenom II 920. Dit vanwege al mijn andere systemen welke ook AMD gebaseerd zijn. Deels de hardware welke aanwezig is en ook door bijvoorbeeld dit artikel wat laat zien dat AMD een grote voorsprong heeft op het gebied van virtualisatie. 4 cores winnen met overtuiging van de nieuwste intel's met 6 cores!
Bedankt dan ook nog eens dat de nieuwe core i7 enorm duur is, nou, toen was het sommetje bij mij zo gemaakt.
Hiervoor heb ik dan ook een topic op ultimatewhitebox geopend. Maar helaas nog geen reply's.
Wat zijn jullie gedachten hierin? Zie ook mijn post, daar staan mijn gedachten in. Uiteraard kunnen we hier speculeren in het Nederlands! 
                                                
                    
            Zelf ben ik geïnteresseerd om hier thuis ook de overstap te maken van Win2k8 + VMware server 2 naar ESXi. Dit omdat het doel van de server (ZEER snelle storage + services) meer veranderd is naar services + storage. Dan nog moet het met een goede cpu ook wel lukken om een gigabit nic vol te trekken met genoeg spindels.
Niet als anderen ben ik geïnteresseerd in het gebruik van een Phenom II 920. Dit vanwege al mijn andere systemen welke ook AMD gebaseerd zijn. Deels de hardware welke aanwezig is en ook door bijvoorbeeld dit artikel wat laat zien dat AMD een grote voorsprong heeft op het gebied van virtualisatie. 4 cores winnen met overtuiging van de nieuwste intel's met 6 cores!
Bedankt dan ook nog eens dat de nieuwe core i7 enorm duur is, nou, toen was het sommetje bij mij zo gemaakt.
Hiervoor heb ik dan ook een topic op ultimatewhitebox geopend. Maar helaas nog geen reply's.
Wat zijn jullie gedachten hierin? Zie ook mijn post, daar staan mijn gedachten in. Uiteraard kunnen we hier speculeren in het Nederlands!
[ Voor 12% gewijzigd door Quindor op 05-03-2009 18:30 ]
            Misschien handiger om gewoon je vragen gewoon hier te posten ipv mensen te verwijzen naar een post op een ander forum.
                    
                    MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B
Dat valt best wel mee.. ik heb nu 2 x Intel D945GCLF2 in een aopen s100, dual intel 1000mt kaart erin met een buffalo LinkStation Mini als storage (raid 0)..Question Mark schreef op donderdag 05 maart 2009 @ 18:19:
[...]
Als ik kan kiezen om 1 laptop in een rugtas mee te nemen naar een klant of 2 laptops + een nasje + switch meezeulen om exact hetzelfde te demonstreren is het voor mij geen lastige keuze
Bovendien wordt op zulke momenten het POC gedemonstreerd (proof of concept), en is performance nog geen issue.
Alles boot via iscsi, bij elkaar nog geen 4 kilo, past in iedere rugtas + nog een laptop en performt erg leuk als demo opstelling.
Er komt er nu een aan met een quadcore en meer geheugen maar nog steeds miniitx.
Duct tape can't fix stupid, but it can muffle the sound.
Ah, uiteraard ook geen probleem.Question Mark schreef op donderdag 05 maart 2009 @ 18:33:
Misschien handiger om gewoon je vragen gewoon hier te posten ipv mensen te verwijzen naar een post op een ander forum.
- Zijn er chipsets bekend welke werken met de Phenom II en compatible zijn met ESXi. Dus inclusief nic en sata storage. Werken de nieuwste Nforce chipsets bijvoorbeeld? Zoals de NForce 750a?
- Weet iemand of de AMD/ATI 790GX of AMD/ATI 790FX werkt of een voorbeeld kan leveren van iemand die een machine hier omheen gebouwd heeft?
- Zijn er machines met een Phenom II bekend en hebben deze geen problemen met CPUID, PSOD, etc.
Ik ben zelf aan het denken om een 790GX of 790FX mobo met een Phenom II 920 te kopen. Hiervan zal het onboard storage en netwerk gedeelte niet werken verwacht ik. Maar je hebt mobo's met 4xpci-e 16x + 2xpci. Dit moet genoeg zijn voor 2 raid controllers (adaptec 3805 + dell perc5/i) en minimaal 2 nic's op pci-express (Intel's in mijn geval). De grafische kaart zou gewoon een pci gevalletje kunnen zijn, aangezien er standaard geen monitor op aangesloten zal zijn. Van dit type moederbord zijn vele variaties aanwezig. Ook met 2x 16x en 2x 1x met onboard graphics, etc.
Dus eigenlijk zoek ik mensen die willen mee denken aan het bouwen van een snel maar toch effectief en niet al te duur AMD systeem.
Naar mijn mening vergelijkbare performance in VM's:
AMD
Mobo : 179 euro (Asus M4A79 Deluxe 790FX)
Proc : 190 euro (AMD Phenom II 920 2.8Ghz)
Mem : 109 (OCZ 8 GB DDR2-800 Quad Kit)
Total : 478 euro
Intel
Mobo : 269 euro (Asus P6T Deluxe)
Proc : 549 (Intel® Core i7-940)
Mem : 349 (OCZ 12 GB DDR3-1333 Tri-Kit)
Total : 1167 euro.
 
 Een veschil van een goede 689 euro. Als we kijken naar een iets zwakker alternatief aan de intel kant dan komt het op het volgende neer :
Intel
Mobo : 269 euro (Asus P6T Deluxe)
Proc : 289 (Intel® Core i7-920)
Mem : 130 (OCZ 6 GB DDR3-1333 Tri-Kit)
Total : 688 euro.
Dat komt nog steeds op 210 euro meer dan het AMD systeem neer, met minder geheugen en een minder snelle cpu. Vandaar dus mijn AMD wens.
Hopelijk kunnen we de informatie bij elkaar krijgen zodat ik binnenkort een systeem kan bestellen! Een gokje daarin wil ik best wagen, en mijn ervaring zal ik zeker delen. Maar hopelijk is van te voren te vinden wat er nodig is.
            Qua hardware support al gekeken op de overzichten op de VMWare site?
                    http://www.vmware.com/resources/guides.htmlVMware Certified Compatibility Guides
VMware offers certified compatibility guides which list System, I/O, Storage/SAN and Backup compatibility with VMware Infrastructure and previous versions of VMware ESX Server. VMware also offers a VMware View Compatibility Guide for VMware View certified clients.
Community-Supported Hardware and Software
A list of hardware and software components that have been reported to work with VMware Infrastructure and previous versions of VMware ESX Server i
MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B
Aha, ok, dan snap ik het idee. En ik had even over VMotion heen gekeken.Powershell schreef op donderdag 05 maart 2009 @ 18:24:
[...]
ik heb het niet over performance maar over functionaliteit
geen san nodig voor VMotion(ja want dat is de reden dat ik iscsi aanhaal
)
Het was ook niet bedoeld om een idee af te schieten maar ik vroeg me gewoon af over de gedachte erachter.
https://www.discogs.com/user/jurgen1973/collection
            Ik vind de tyan S5393WG2NR een erg mooi bordje, niet al te duur (<=400€) maar wel alles specs die je nodig hebt (inc. dual cpu).
                    
                    Duct tape can't fix stupid, but it can muffle the sound.
Wow, zeker een nice bordje. Alleen 'oudere' intel technologie en ik verwacht dat de chipset alleen al meer stroom verbruikt dan ik eigenlijk voor de complete bak over heb! En de prijs, die is hetzelfde van in mijn geval het complete systeem.DukeBox schreef op donderdag 05 maart 2009 @ 20:16:
Ik vind de tyan S5393WG2NR een erg mooi bordje, niet al te duur (<=400€) maar wel alles specs die je nodig hebt (inc. dual cpu).
Maar de 5xxx CPU serie is verder wel heel betaalbaar..Quindor schreef op donderdag 05 maart 2009 @ 21:15:
Wow, zeker een nice bordje. Alleen 'oudere' intel technologie ..
Maar deze nieuws: Asus toont eerste dualsocket LGA1366-moederbord kan ook nog wat zijn, met name omdat je goedkoper (non ecc) geheugen kan gebruiken. Daarnaast dezelfde LSI controller en zover ik kan vinden op het board 2 intel nic's. Helaas nog geen prijs bekend..
Duct tape can't fix stupid, but it can muffle the sound.
Verwijderd
Same setup here, heb je de onboard NIC's al aan de praat? Hoe heb je dit voor elkaar gekregenDukeBox schreef op zondag 22 februari 2009 @ 13:02:
Ik heb nu 2x ESXi op een D945gclf2 draaien, samen met een eenvoudig nasje met NFS. Heb er alleen nog een intel dual GBit kaart bij moeten steken maar ik denk dat ik de realteks ook bijna werkend heb (worden wel al herkend maar niet nog niet geactiveerd). Totaal vermogen incl. NAS is 56 Watt (23Watt voor 1 systeem).
Verwijderd schreef op zondag 08 maart 2009 @ 15:55:
[...]
Same setup here, heb je de onboard NIC's al aan de praat? Hoe heb je dit voor elkaar gekregen
Helaas.. heb wel middels aangepaste firmware een link kunnen krijgen maar kan ze niet configureren. De aansturing zit gewoon niet in de vmkernel gebakken./me
Heb er alleen nog een intel dual GBit kaart bij moeten steken
Duct tape can't fix stupid, but it can muffle the sound.
            Waarschijnlijk om de reden dat je op een beetje behoorlijke server geen NIC van Realtek tegen zal komen  
                    
                    i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Ik denk dat je focus teveel op CPU ipv I/O ligt. In de praktijk zal je veel meer performance boost krijgen van een snelle set schijven met een goede hardwarematige raid controller. Ik heb zelf 1x een QC 2.0 Ghz in m'n systeem zitten en die is nog nooit boven de 65% geweest qua load. I/O daar entegen piekt regelmatig tegen 100% aan.Quindor schreef op donderdag 05 maart 2009 @ 19:17:
[...]
Ah, uiteraard ook geen probleem.
- Zijn er chipsets bekend welke werken met de Phenom II en compatible zijn met ESXi. Dus inclusief nic en sata storage. Werken de nieuwste Nforce chipsets bijvoorbeeld? Zoals de NForce 750a?
- Weet iemand of de AMD/ATI 790GX of AMD/ATI 790FX werkt of een voorbeeld kan leveren van iemand die een machine hier omheen gebouwd heeft?
- Zijn er machines met een Phenom II bekend en hebben deze geen problemen met CPUID, PSOD, etc.
Ik ben zelf aan het denken om een 790GX of 790FX mobo met een Phenom II 920 te kopen. Hiervan zal het onboard storage en netwerk gedeelte niet werken verwacht ik. Maar je hebt mobo's met 4xpci-e 16x + 2xpci. Dit moet genoeg zijn voor 2 raid controllers (adaptec 3805 + dell perc5/i) en minimaal 2 nic's op pci-express (Intel's in mijn geval). De grafische kaart zou gewoon een pci gevalletje kunnen zijn, aangezien er standaard geen monitor op aangesloten zal zijn. Van dit type moederbord zijn vele variaties aanwezig. Ook met 2x 16x en 2x 1x met onboard graphics, etc.
Dus eigenlijk zoek ik mensen die willen mee denken aan het bouwen van een snel maar toch effectief en niet al te duur AMD systeem.
Naar mijn mening vergelijkbare performance in VM's:
AMD
Mobo : 179 euro (Asus M4A79 Deluxe 790FX)
Proc : 190 euro (AMD Phenom II 920 2.8Ghz)
Mem : 109 (OCZ 8 GB DDR2-800 Quad Kit)
Total : 478 euro
Intel
Mobo : 269 euro (Asus P6T Deluxe)
Proc : 549 (Intel® Core i7-940)
Mem : 349 (OCZ 12 GB DDR3-1333 Tri-Kit)
Total : 1167 euro.
Een veschil van een goede 689 euro. Als we kijken naar een iets zwakker alternatief aan de intel kant dan komt het op het volgende neer :
Intel
Mobo : 269 euro (Asus P6T Deluxe)
Proc : 289 (Intel® Core i7-920)
Mem : 130 (OCZ 6 GB DDR3-1333 Tri-Kit)
Total : 688 euro.
Dat komt nog steeds op 210 euro meer dan het AMD systeem neer, met minder geheugen en een minder snelle cpu. Vandaar dus mijn AMD wens.
Hopelijk kunnen we de informatie bij elkaar krijgen zodat ik binnenkort een systeem kan bestellen! Een gokje daarin wil ik best wagen, en mijn ervaring zal ik zeker delen. Maar hopelijk is van te voren te vinden wat er nodig is.
            Nou mijn ESX1 3.5u3 servertje is klaar
de definitieve hardware specs
Mobo: Asus P5E-VM DO
MEM 2x2GB daarkomt nog 2x2GB bij is onderweg
HDD: 3x250GB SATA + 2x500GB SATA Hitachie T7K500`s
I/O: Dell Perc 5/i 256MB (gemod voor koeling en werking op een Intel bord) + BBU
NIC; 2x Intel Pro/1000 GT (PCI)
[img=http://img216.imageshack.us/img216/7280/pic010.th.jpg]
Server draait momenteel een DC, EX2K7, 2 test bakjes.
            de definitieve hardware specs
Mobo: Asus P5E-VM DO
MEM 2x2GB daarkomt nog 2x2GB bij is onderweg
HDD: 3x250GB SATA + 2x500GB SATA Hitachie T7K500`s
I/O: Dell Perc 5/i 256MB (gemod voor koeling en werking op een Intel bord) + BBU
NIC; 2x Intel Pro/1000 GT (PCI)
[img=http://img216.imageshack.us/img216/7280/pic010.th.jpg]
Server draait momenteel een DC, EX2K7, 2 test bakjes.
[ Voor 6% gewijzigd door loodgieter op 09-03-2009 15:59 ]
Mwah, Ik denk dat het met de disk I/O wel los zal lopen voor de VM's zelf. Hiervoor heb ik een adaptec 3805 met 128MB cache liggen en een Perc/5i met 256MB cache. Daar over zijn ongeveer 10 spindels verdeelt van data en 2x 15K sas.PisPix schreef op maandag 09 maart 2009 @ 09:21:
[...]
Ik denk dat je focus teveel op CPU ipv I/O ligt. In de praktijk zal je veel meer performance boost krijgen van een snelle set schijven met een goede hardwarematige raid controller. Ik heb zelf 1x een QC 2.0 Ghz in m'n systeem zitten en die is nog nooit boven de 65% geweest qua load. I/O daar entegen piekt regelmatig tegen 100% aan.
Vandaar dus ook dat ik op de CPU loop te hameren, aangezien disk I/O minder snel een probleem gaat vormen.
Verwijderd
Ok dus ik zal wel voor een dual intel aansluiting moeten gaan, ik kan alleen geen dual 1Gb kaartjes vinden met een pci aansluiting!?DukeBox schreef op zondag 22 februari 2009 @ 13:02:
Ik heb nu 2x ESXi op een D945gclf2 draaien, samen met een eenvoudig nasje met NFS. Heb er alleen nog een intel dual GBit kaart bij moeten steken maar ik denk dat ik de realteks ook bijna werkend heb (worden wel al herkend maar niet nog niet geactiveerd). Totaal vermogen incl. NAS is 56 Watt (23Watt voor 1 systeem).
zie ook:
http://www.intel.com/netw...dapt#s1=all&s2=all&s3=PCI
Tsja, zo gek vind ik dat niet. PCI heeft als theoretisch maximum 133MB/sec. In theorie trek je met een 1Gb kaartje iets van 115MB/sec. Dan zit de pci-bus dus praktisch al vol. En dan wil jij nog een tweede gigabitpoort eraan hangen?Verwijderd schreef op woensdag 11 maart 2009 @ 16:51:
[...]
Ok dus ik zal wel voor een dual intel aansluiting moeten gaan, ik kan alleen geen dual 1Gb kaartjes vinden met een pci aansluiting!?
Wat je wel hebt zijn dual gigabit pci-x kaartjes, die werken (mits ze fysiek in het slot passen, hangt beetje van de indeling van je moederbord af, ze zijn iets langer) ook gewoon in een normaal pci slot. Alleen zit je dan nog steeds met die 133MB/sec beperking. Indien ze in een volwaardig pci-x slot worden gestopt dan heb je dat bandbreedteprobleem niet, die bus heeft 1066MB/sec bandbreedte als ik me niet vergis.
Conclusie: PCI is een verouderde bus waar je niet teveel hogesnelheids-spul aan wilt hangen.
[ Voor 4% gewijzigd door spone op 11-03-2009 19:55 . Reden: iets genuanceerd :) ]
i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Gelukkig kan de PCI bus van dat bord ook op 66MHz draaien wat de dubbele doorvoer levert.spone schreef op woensdag 11 maart 2009 @ 18:23:
[...]
Tsja, zo gek vind ik dat niet. PCI heeft als theoretisch maximum 133MB/sec. In theorie trek je met een 1Gb kaartje iets van 115MB/sec. Dan zit de pci-bus dus praktisch al vol. En dan wil jij nog een tweede gigabitpoort eraan hangen?
Duct tape can't fix stupid, but it can muffle the sound.
Sinds PCI 2.1 of 2.2 geloof ik ja. Daar heb je op zich een punt. Aan de andere kant kan ik me voorstellen dat Intel er niet heel veel voor voelt om kaartjes te maken die enkel op recente moederborden goed presteren. En tja, een dual gigabit-kaartje is meer een serverding dan een desktopding, en daar heb je PCI-X. Dus waarom moeilijk doenDukeBox schreef op woensdag 11 maart 2009 @ 19:28:
[...]
Gelukkig kan de PCI bus van dat bord ook op 66MHz draaien wat de dubbele doorvoer levert.
i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Ik heb er ook een PCI-X op geprikt.. draait keurig op 66MHz (maar dus geen 64-bits) haal er met iSCSI 180MB/s mee met multipath dus over de 133MB/s PCI-33 limiet.
Er zit maar 1 pci slot op.. dus je moet wat.En tja, een dual gigabit-kaartje is meer een serverding dan een desktopding, en daar heb je PCI-X. Dus waarom moeilijk doen
[ Voor 48% gewijzigd door DukeBox op 11-03-2009 22:58 ]
Duct tape can't fix stupid, but it can muffle the sound.
Was ook niet echt mijn mening, meer een mogelijke zienswijze van Intel. Persoonlijk vind ik dat er best een PCIe x1 slot ipv een PCI slot op had gemogen, maar goed. Is nagenoeg even snel als een pci 32/66 slot (of zelfs dubbel zo snel in PCIe 2.0), maar geeft wat meer flexibiliteit imo.DukeBox schreef op woensdag 11 maart 2009 @ 22:57:
[...]
Er zit maar 1 pci slot op.. dus je moet wat.
Heb het trouwens even opgezocht: dat Atom bordje heeft PCI 2.3.
[ Voor 3% gewijzigd door spone op 11-03-2009 23:36 ]
i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
            Very Interesting!
nieuws: Nvidia brengt eind deze maand chipset voor AM3-cpu's uit
Zo te zien komt er een nieuwe AM3 chipset! Aangezien de oudere chipset iig enig support hebben binnen VMware ben ik hoopvol dat dit wellicht mijn AM3 Phenom II wens gaat vervullen! 
                    
                    
            nieuws: Nvidia brengt eind deze maand chipset voor AM3-cpu's uit
Zo te zien komt er een nieuwe AM3 chipset! Aangezien de oudere chipset iig enig support hebben binnen VMware ben ik hoopvol dat dit wellicht mijn AM3 Phenom II wens gaat vervullen!
Verwijderd
            Ik heb een moederbordje van asus gekocht, model P5N-D.
Dit moederbord werkt zonder sleutelen aan config files en dergerlijke.
Het enige wat ik nog niet getest heb zijn de PCI sloten.
Onboard RAID controller werkt niet. Ik had een raid set (5) aangemaakt met drie schijven, maar in de installatie van ESXi kreeg ik 3 aparte schijven te zien, ipv van 1 grote. Raid set verwijderd en installatie opnieuw gestart. Toen kreeg ik constant purple-screens na een succesvolle installatie. Achteraf bleek dat er op iedere schijf een MBR-record stond. Dit verwijderd en alles werkte zoals het moest.
Ik ben op dit moment op zoek naar een betaalbare SATA-RAID-controller (PCI) die werkt met ESXi (3.5i).
Iemand een idee?
Thx
            Dit moederbord werkt zonder sleutelen aan config files en dergerlijke.
Het enige wat ik nog niet getest heb zijn de PCI sloten.
Onboard RAID controller werkt niet. Ik had een raid set (5) aangemaakt met drie schijven, maar in de installatie van ESXi kreeg ik 3 aparte schijven te zien, ipv van 1 grote. Raid set verwijderd en installatie opnieuw gestart. Toen kreeg ik constant purple-screens na een succesvolle installatie. Achteraf bleek dat er op iedere schijf een MBR-record stond. Dit verwijderd en alles werkte zoals het moest.
Ik ben op dit moment op zoek naar een betaalbare SATA-RAID-controller (PCI) die werkt met ESXi (3.5i).
Iemand een idee?
Thx
Zoek eens op ebay naar een Dell Perc 5/i. Heb er net zelf 1 gekocht voor m'n ESXi server. De controller + 256MB cache + battery backup + 2 sets kabels voor 8 Sata schijven voor 160 euro uit Duitsland. Of anders de HP Smart Array P400.Verwijderd schreef op woensdag 18 maart 2009 @ 22:24:
Ik ben op dit moment op zoek naar een betaalbare SATA-RAID-controller (PCI) die werkt met ESXi (3.5i).
Iemand een idee?
Thx
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Verwijderd
            Ik heb hier zonet eens zitten neuzen op volgende website: http://ultimatewhitebox.com/iocontroller.
Maar ik heb nog niets gevonden.
Microkid alvast bedankt voor de tip, ik ga even eBay opzoeken .
.
                    
            Maar ik heb nog niets gevonden.
Microkid alvast bedankt voor de tip, ik ga even eBay opzoeken
            Wat ik in ieder geval weet van een Perc 5/i is dat deze standaard volledig wordt ondersteund in ESXi, zodat je via behalve via de bios van de controller zelf ook remote via VMware Infrastructure Client de status van je disks/arrays/battery kan zien. Of dat ook bij die HP kan weet ik niet.
                                                
                    i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Hmm, ik heb een Dell server met Perc5i met ESX 3.5.spone schreef op woensdag 18 maart 2009 @ 23:22:
Wat ik in ieder geval weet van een Perc 5/i is dat deze standaard volledig wordt ondersteund in ESXi, zodat je via behalve via de bios van de controller zelf ook remote via VMware Infrastructure Client de status van je disks/arrays/battery kan zien. Of dat ook bij die HP kan weet ik niet.
Waar kan ik in Infrastructure client de status van de disks/arrays/battery bekijken?
Heb het zelf niet gevonden maar misschien kijk ik wel verkeerd.
Welk model Dell ? Heb je ESXi of ESX ? Het is voor ESX pas vanaf FP2. ESXi vanaf FP1.fonias schreef op vrijdag 20 maart 2009 @ 10:48:
[...]
Hmm, ik heb een Dell server met Perc5i met ESX 3.5.
Waar kan ik in Infrastructure client de status van de disks/arrays/battery bekijken?
Heb het zelf niet gevonden maar misschien kijk ik wel verkeerd.
Duct tape can't fix stupid, but it can muffle the sound.
            Ik gebruik ESXi 3.5u3, zonder verdere speciale dingen, op deze screenshot is te zien waar je het ziet in de client.
                    
                    i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Ik heb een Dell 1900 met ESX 3.5 maar zonder patchesDukeBox schreef op vrijdag 20 maart 2009 @ 11:14:
[...]
Welk model Dell ? Heb je ESXi of ESX ? Het is voor ESX pas vanaf FP2. ESXi vanaf FP1.
 
 Moet toch maar die patches te pakken zien te krijgen dan
 
                    Die health status kan ik nergens vinden, zal dus de patches moeten hebben.spone schreef op vrijdag 20 maart 2009 @ 12:03:
Ik gebruik ESXi 3.5u3, zonder verdere speciale dingen, op deze screenshot is te zien waar je het ziet in de client.
Ik heb inmiddels een aantal updates geïnstalleerd en krijg in mijn client de optie health status te zien.spone schreef op vrijdag 20 maart 2009 @ 12:03:
Ik gebruik ESXi 3.5u3, zonder verdere speciale dingen, op deze screenshot is te zien waar je het ziet in de client.
Echter zie ik daar alleen de server staan en geen onderdelen hiervan
            Helemaal niks? Of alleen algemene informatie over bios en esx versie?
                    
                    i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Zie alleen staan Dell Inc. PowerEdge 1900spone schreef op zaterdag 21 maart 2009 @ 11:09:
Helemaal niks? Of alleen algemene informatie over bios en esx versie?
            Ik heb hier een PE1950 staan waar alles werkt, net als een hele oude PE1400SC.
                    
                    Duct tape can't fix stupid, but it can muffle the sound.
:fill(white):strip_exif()/i/1276613447.jpeg?f=thumbmini)
:fill(white):strip_exif()/i/1298288865.jpeg?f=thumbmini)
:strip_icc():strip_exif()/u/15793/zwelgje100.jpg?f=community) 
            :strip_icc():strip_exif()/u/84973/images.jpg?f=community) 
            :strip_exif()/u/77058/tick.gif?f=community) 
            :strip_icc():strip_exif()/u/55461/88047.jpg?f=community) 
            /u/97359/crop64803232ade4a_cropped.png?f=community) 
            :strip_icc():strip_exif()/u/58330/twix.jpg?f=community) 
            :strip_icc():strip_exif()/u/159603/msn%2520icon_smaller.jpg?f=community) 
            :strip_icc():strip_exif()/u/5326/crop5ff8e3fc691c6_cropped.jpeg?f=community) 
            :strip_icc():strip_exif()/u/234177/what-carrot.jpg?f=community) 
            :strip_exif()/u/10111/crop67d5f1a9809eb_cropped.gif?f=community) 
            :strip_icc():strip_exif()/u/10414/crop5817c0657774d_cropped.jpeg?f=community) 
            :strip_exif()/u/65557/walkin.gif?f=community)