Kreeg jij het meteen te zien na installatie ESX 3.5?DukeBox schreef op zaterdag 21 maart 2009 @ 15:08:
Ik heb hier een PE1950 staan waar alles werkt, net als een hele oude PE1400SC.
Of ook pas na installeren van patches?
Kreeg jij het meteen te zien na installatie ESX 3.5?DukeBox schreef op zaterdag 21 maart 2009 @ 15:08:
Ik heb hier een PE1950 staan waar alles werkt, net als een hele oude PE1400SC.
Duct tape can't fix stupid, but it can muffle the sound.
Dan zal het daar in zitten ben ik bang voor.DukeBox schreef op zaterdag 21 maart 2009 @ 18:01:
Meteen, maar ik installeerde dan ook U3 die toen beschikbaar was en niet de oude versie.
Verwijderd
Tja, ook ESX gaat mee met z'n tijd. Sata is niet meer weg te denken en wordt dus langzamerhand steeds beter ondersteund. Vanaf ESX 4.0 (vSphere) wordt Sata iig nog beter ondersteund.Verwijderd schreef op zondag 22 maart 2009 @ 18:28:
Ik zit deze lijst even door te nemen en daar staan veel machines genoemd waarop, zonder aanpassing zo ik lees, ESXi kan worden geïnstalleerd op een SATA-schijf. En dat zonder een softwarematige RAID. Dacht dat ESXi alleen ondersteuning bood voor RAID en SCSI?
[ Voor 5% gewijzigd door Microkid op 22-03-2009 20:54 ]
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Verwijderd
[ Voor 4% gewijzigd door Verwijderd op 27-03-2009 03:42 ]
Verwijderd
De mijne heeft dat ook .. lijkt me gewoon een bug. Welke raidcontroller gebruik je precies?Verwijderd schreef op donderdag 26 maart 2009 @ 21:10:
Ik heb nu thuis een ML110 G5 staan met 8GB RAM, andere NIC en LSI RAID controller. Ik heb de laatste ESXi erop gezet. Eerste VM ben ik er nu aan het opzetten. Leuk servertje voor thuis en ook nog goed betaalbaar. Helemaal omdat er gewoon normaal 800Mhz geheugen in kan.(Geen ECC nodig.)
Ik heb echter 1 vaag dingetje. Misschien dat iemand weet hoe ik het op kan lossen? De health status van de server geeft warning aan. (amber kleur) alles onder de server, processors/memory etc, is allemaal groen. Ik heb ook niks geen alerts. Iemand een idee waarom de status van de ML 110 G5 toch warning aan geeft?
En Mijn ML110G5 ook! Ik gebruik een adaptec 2420 met 4 WDC schijven in RAID 10Wimo. schreef op donderdag 26 maart 2009 @ 21:19:
[...]
De mijne heeft dat ook .. lijkt me gewoon een bug. Welke raidcontroller gebruik je precies?
sneep
Verwijderd
[ Voor 68% gewijzigd door Verwijderd op 27-03-2009 18:20 ]
mijn ervaring is dat diskbenches in een VM totaal niet accuraat zijnVerwijderd schreef op vrijdag 27 maart 2009 @ 12:09:
Ik gebruik de 3041E kaart van HP/LSI. (4 Port SATA RAID PCI-E)
/edit
Welke performance halen jullie trouwens qua disk performance in een VM? Ik heb nu twee 320GB disks aangesloten op mijn RAID controller en ik haal nu zo rond de 110MB/s read/write performance volgens ATTO 2.34. Iemand anders toevallig ook zo'n test gedaan?
A wise man's life is based around fuck you
Hangt ervanaf hoe je test en wat voor disk het is.Powershell schreef op vrijdag 27 maart 2009 @ 18:21:
[...]
mijn ervaring is dat diskbenches in een VM totaal niet accuraat zijn
Duct tape can't fix stupid, but it can muffle the sound.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Verwijderd
Verwijderd
Wat is het probleem precies? Je hebt toch ook maar 1 physieke CPU?Verwijderd schreef op maandag 30 maart 2009 @ 19:16:
Softwarevraagje tussendoor: voor een ML150 heb ik hier ESXi 3.5 vandaan gehaald plus de gratis licentie voor twee CPU's. na het invoeren van de key krijg ik te zien dat deze geschikt is voor 1 CPU.
..
Er zit een Xeon Dual Core in.
Verwijderd
[ Voor 84% gewijzigd door Verwijderd op 31-03-2009 00:19 ]
Verwijderd
Wat doe je nu precies? Copy actie vanuit de VM naar een andere host op het netwerk?Verwijderd schreef op maandag 30 maart 2009 @ 20:04:
Oh wacht, ben in de war met mijn andere machine.
Zit nu weer met een ander probleem: netwerkperformance. Heb nu één machine draaien op mijn ML110 (250gb sata schijf, 1GB geheugen). In die machine zelf heb ik geen performanceproblemen, maar wel het lezen/schrijven van bestanden over het netwerk. Het uploaden of downloaden van bestanden gaat met zo'n 0.5mb - 1.5mb per seconde. Ter vergelijking: een zelfde lees/schrijfactie naar een desktop pentium 4 gaat met zo'n 6mb/sec, dit alles over een 100mbit-netwerk. Volgens de grafieken in de VI-client staan de netwerkcontroller en de CPU hun neus leeg te graven.
Verwijderd
Ja klopt, copy host -> vm over 100mbit en weer terug. De controller in ESXi heb ik overigens hard gezet op 100mb full.Verwijderd schreef op dinsdag 31 maart 2009 @ 10:55:
[...]
Wat doe je nu precies? Copy actie vanuit de VM naar een andere host op het netwerk?
[ Voor 10% gewijzigd door Verwijderd op 31-03-2009 12:03 ]
Verwijderd
Het is me nog niet duidelijk. Copy actie in de Windows VM naar een andere Windows machine in het netwerk? Dus gewoon via windows file sharing?Verwijderd schreef op dinsdag 31 maart 2009 @ 12:02:
[...]
Ja klopt, copy host -> vm over 100mbit en weer terug. De controller in ESXi heb ik overigens hard gezet op 100mb full.
Verwijderd
Wij hebben hier een drietal DL380 G5's met een P400/256 controller staan. Werkt op zich prima met ESXi (mag ook wel als deze op de HCL staat). Enige vreemde is dat deze de informatie over de raid array/controller niet laat zien. Ook niet met de HP 3.5u3 versie van ESXi.
[ Voor 11% gewijzigd door spone op 02-04-2009 13:46 ]
i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Duct tape can't fix stupid, but it can muffle the sound.
[ Voor 70% gewijzigd door spone op 03-04-2009 11:27 ]
i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
[ Voor 41% gewijzigd door Nano2009 op 03-04-2009 12:08 ]
Hoezo per cpuNano2009 schreef op vrijdag 03 april 2009 @ 12:04:
16GB Ram (8Gb per cpu)
Duct tape can't fix stupid, but it can muffle the sound.
numa architectuur
A wise man's life is based around fuck you
[ Voor 34% gewijzigd door spone op 03-04-2009 23:50 ]
i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
"De kans dat een snee brood op een nieuw tapijt valt met de beboterde zijde onderaan, is recht evenredig met de prijs van het tapijt"
Ik las op internet dat de onboard nic van dit mobo niet zou werken, kun je dat bevestigen?Microkid schreef op zaterdag 04 april 2009 @ 09:53:
Zowiezo zal de pinmod inderdaad wel werken (doet het bij mij tenslotte ook zo). En anders weet ik ondertussen dat mijn mobo volledig werkt onder ESXi, zowel de Sata controller als de netwerk kaart. Dat is een Intel DG33TL.
Afgaand op http://download.intel.com...dg33tl/sb/d95738001us.pdf, pagina 27 zit er een "Intel® 82566DC Gigabit Ethernet Controller" op. Zou gewoon moeten werken aangezien het een intel-based kaartje is.reconf schreef op zaterdag 04 april 2009 @ 23:23:
[...]
Ik las op internet dat de onboard nic van dit mobo niet zou werken, kun je dat bevestigen?
i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Nee en ja. Niet alle Gbit Intel nics werden ondersteund. De "el cheapo" on-board nics moesten het nog eens ontgelden. Oorspronkelijk werd deze kaart dan ook niet ondersteund t/m ESXi 3.5 U3. Echter ... van de week is ESXi 3.5 U4 uitgekomen en die ondersteunt deze kaart wel. Ik had dus zelf al een Intel Pro/1000 gekocht omdat de onboard het niet deed. Maar sinds de upgrade van afgelopen week heb ik nu 2 werkende nic'sspone schreef op zaterdag 04 april 2009 @ 23:37:
[...]
Afgaand op http://download.intel.com...dg33tl/sb/d95738001us.pdf, pagina 27 zit er een "Intel® 82566DC Gigabit Ethernet Controller" op. Zou gewoon moeten werken aangezien het een intel-based kaartje is.
[ Voor 8% gewijzigd door Microkid op 05-04-2009 00:49 ]
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Ben het even helemaal kwijt. Leg eens uit (of iemand anders).
[ Voor 39% gewijzigd door Nowa op 05-04-2009 01:14 ]
43% of all statistics are worthless.
Zelf heb ik een onboard Realtek dus dat ga ik niet eens proberen. Heb geen gigabit netwerk verder dus ga er ook niet veel tijd/geld in steken en hou het voorlopig nog wel even op mijn trouwe Intel Pro/100VEMicrokid schreef op zondag 05 april 2009 @ 00:48:
[...]
Ik had dus zelf al een Intel Pro/1000 gekocht omdat de onboard het niet deed. Maar sinds de upgrade van afgelopen week heb ik nu 2 werkende nic's
i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
Waar is de U4 versie te downloaden? Bij de downloads op de vmware site staat nog steeds U3..Microkid schreef op zondag 05 april 2009 @ 00:48:
[...]
Nee en ja. Niet alle Gbit Intel nics werden ondersteund. De "el cheapo" on-board nics moesten het nog eens ontgelden. Oorspronkelijk werd deze kaart dan ook niet ondersteund t/m ESXi 3.5 U3. Echter ... van de week is ESXi 3.5 U4 uitgekomen en die ondersteunt deze kaart wel. Ik had dus zelf al een Intel Pro/1000 gekocht omdat de onboard het niet deed. Maar sinds de upgrade van afgelopen week heb ik nu 2 werkende nic's
Dan krijg je dus deze melding, als je dan vervolgens je serial gaat activeren zegt de site dat de serial al geactiveerd is.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
[ Voor 30% gewijzigd door DukeBox op 05-04-2009 10:52 ]
Duct tape can't fix stupid, but it can muffle the sound.
[ Voor 75% gewijzigd door spone op 05-04-2009 15:02 ]
i5-14600K | 32GB DDR5-6000 | RTX 5070 - MacBook Pro M1 Pro 14" 16/512
hier ook met een gratis account (waar weliswaar wel VMware Workstation 6.x op geregisteerd staat, maar toch)spone schreef op zondag 05 april 2009 @ 11:21:
Hmm, donderdag op het werk heb ik met een gratis account op een of andere manier ESXi3.5u4 weten te downloaden als iso, maar dat lukt me nu ook niet meer
A wise man's life is based around fuck you
[ Voor 100% gewijzigd door deadlock2k op 06-08-2021 16:03 ]
mischien wel slim om even naar boven door te scrollen voor je post
A wise man's life is based around fuck you
Duct tape can't fix stupid, but it can muffle the sound.
Ik zou geen spinpoints doen, heel veel problemen met RAID.UltraSub schreef op maandag 06 april 2009 @ 11:30:
LOL!
Net de PERC 5i besteld, met 256MB cache en BBU. Meteen maar de 2 verloopkabels naar 8x SATA mee besteld. Hoef ik daar straks niet meer heen te zoeken mocht ik nog eens willen uitbreiden.
Ga zo 2 Samsung Spinpoints bestellen van 1TB. Zat eerst te denken aan enterprise hd's, maar komop, ze draaien RAID1, komt wel goed
Te Koop:24 Core Intel Upgradeset
Verwijderd
Volgens mij moet je die Perc toch modden om die uberhaupt aan het werk te krijgen op non-Dell hardware? Anyway, er zijn overigens echt weel meer RAID controllers die meteen werken. Waarom trouwens RAID1? Is het geen hobby bakje?UltraSub schreef op maandag 06 april 2009 @ 10:03:
..
Op dit moment lijkt de Perc 5/i de enige die op PCIe loopt, hardware raid doet, en zo uit de kernel werkt. Ik wil geen hacks.
..
[ Voor 5% gewijzigd door Verwijderd op 06-04-2009 11:53 ]
[ Voor 100% gewijzigd door deadlock2k op 06-08-2021 16:03 ]
Er schijnt ook een HP raid kaart te zijn, maar de Dell is beter verkrijgbaar en heel betaalbaar.UltraSub schreef op maandag 06 april 2009 @ 10:03:
Heb het hele weekend al HCLs doorgelopen, en me rot gesurfed. Op dit moment lijkt de Perc 5/i de enige die op PCIe loopt, hardware raid doet, en zo uit de kernel werkt.
De BBU wordt met een klein kabeltje aangesloten op de Dell kaart, dus niet via Molex. BBU heb je ook wel echt nodig, want zonder BBU heb je geen write-cache en is het ding niet zo snel.Over die Perc, ik kan ze krijgen met BBU, en dat wil ik ook. Maar er wordt veel gepraat over "dell compatability", en mijn hardware is natuurlijk niet van Dell. Hoe sluit ik die BBU dan aan? Gewoon molex?
Pin mod uitvoerenZiet iemand hier verder nog issues die ik kan verwachten? Ik ga een strakke planning krijgen, daar de hardware waar alles nu op loopt naar ESX moet, en ik dus downtime heb. Ik kan me dan ook geen missers veroorloven.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Ok, thanks.. Andere goede ervaringen met non-enterprise 1TB disks? Prijs ís een issue atm.|sWORDs| schreef op maandag 06 april 2009 @ 11:38:
[...]
Ik zou geen spinpoints doen, heel veel problemen met RAID.
Als je toch goed gaat zoeken, en dat heb ik echt behoorlijk wat uurtjes gedaan, dan zijn er toch een hoop die niet meteen out of the box werken. En wat ik wilde was een controller die op de HCL van VMware stond. Dat beloofd ook geen (of minder) problemen in de toekomst bij upgrades.Verwijderd schreef op maandag 06 april 2009 @ 11:51:
[...]
Volgens mij moet je die Perc toch modden om die uberhaupt aan het werk te krijgen op non-Dell hardware? Anyway, er zijn overigens echt weel meer RAID controllers die meteen werken. Waarom trouwens RAID1? Is het geen hobby bakje?
Inderdaad heel betaalbaar. Bedankt voor de tip.Microkid schreef op maandag 06 april 2009 @ 12:00:
[...]
Er schijnt ook een HP raid kaart te zijn, maar de Dell is beter verkrijgbaar en heel betaalbaar.
Dus die BBU trekt zijn spanning rechtstreeks uit het PCI slot? Mooi...[...]
De BBU wordt met een klein kabeltje aangesloten op de Dell kaart, dus niet via Molex. BBU heb je ook wel echt nodig, want zonder BBU heb je geen write-cache en is het ding niet zo snel.
Das die twee pinnetjes aftapen of nagellakken om memory problemen te voorkomen, toch?[...]
Pin mod uitvoeren
Western Digital heeft de minste problemen. Hitachi schijnt tegenwoordig ook prima te zijn, maar ik heb ooit gezworen nooit meer IBM schijven te halen (na 647 uitval van de 1000 bij een bedrijf), dus voor mij vallen deze af. Seagate heeft ook nogal last van firmware problemen. (Ik draai mijn array trouwens met Spinpoints, na firmware upgrade werkt alles, echter is voor de 1TB versie er geen nieuwe firmware te krijgen.)UltraSub schreef op maandag 06 april 2009 @ 13:13:
[...]
Ok, thanks.. Andere goede ervaringen met non-enterprise 1TB disks? Prijs ís een issue atm.
[...]
[ Voor 3% gewijzigd door |sWORDs| op 06-04-2009 13:23 ]
Te Koop:24 Core Intel Upgradeset
Hoeft niet altijd. Bij mij werkte ie uit de doos direct op een HP ML150 G5.Verwijderd schreef op maandag 06 april 2009 @ 11:51:
[...]
Volgens mij moet je die Perc toch modden om die uberhaupt aan het werk te krijgen op non-Dell hardware? Anyway, er zijn overigens echt weel meer RAID controllers die meteen werken. Waarom trouwens RAID1? Is het geen hobby bakje?
Ik heb er net van de week 3 stuks WD Green 1TB in gehangen achter een Dell Perc 5/i. Gaat als een raket! ATTO in een VM haalt leessnelheden van 500MB/sec en schrijf snelheden van dik 200MB/sec. En dat op een 5400 toeren disk op RAID-5UltraSub schreef op maandag 06 april 2009 @ 13:13:
[...]
Ok, thanks.. Andere goede ervaringen met non-enterprise 1TB disks? Prijs ís een issue atm.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Op de meeste moederborden met een Intel chipset (G33, P45, 48 enz) moet je de pinmod doen, zeker met 4GB of meer geheugen. Bij mij werkte het prima met 2 en 3GB maar met 4GB wou hij niet opstarten. Pinmod did the trick.Verwijderd schreef op maandag 06 april 2009 @ 11:51:
[...]
Volgens mij moet je die Perc toch modden om die uberhaupt aan het werk te krijgen op non-Dell hardware? Anyway, er zijn overigens echt weel meer RAID controllers die meteen werken. Waarom trouwens RAID1? Is het geen hobby bakje?
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Ikzelf heb juist diverse arrays met spinpints (750GB en 1TB model) en ook met de 1TB en 1.5TB Seagate's op een PERC5i en PERC6i controller. Nog nooit problemen mee gehad.UltraSub schreef op maandag 06 april 2009 @ 13:13:
Ok, thanks.. Andere goede ervaringen met non-enterprise 1TB disks? Prijs ís een issue atm.
iets van 700MB.. maar als je het helemaal handig wilt doen boot je hem gewoon vanaf een USB key..UltraSub schreef op maandag 06 april 2009 @ 16:47:
Hoeveel ruimte slokt een installatie van ESX3.5 U4 op? Maw, hoeveel hou ik over voor een vmfs partitie?
[ Voor 26% gewijzigd door DukeBox op 06-04-2009 17:07 ]
Duct tape can't fix stupid, but it can muffle the sound.
[ Voor 10% gewijzigd door Quindor op 06-04-2009 19:23 ]
Oooeeee... Daar breng je me op een idee. Fikse snelheden idd voor een 5400 rpm disk! Maar dat zal toch wel sequentieel zijn? Hoe gedragen ze zich als er een aantal vm's op staan te rammelen? Zal het toch wel instorten, niet? Alhoewel de density erg hoog is met 2 platters van 500GB. Hmm..Microkid schreef op maandag 06 april 2009 @ 16:59:
[...]
Ik heb er net van de week 3 stuks WD Green 1TB in gehangen achter een Dell Perc 5/i. Gaat als een raket! ATTO in een VM haalt leessnelheden van 500MB/sec en schrijf snelheden van dik 200MB/sec. En dat op een 5400 toeren disk op RAID-5
De grote doorslag voor mij was het stroomverbruik en de stilte. Met 3 schijven 24x7 aan scheelt me dat 100Kw op jaarbasis t.o.v. mijn oude 750GB Spinpoints.
Nah, ben niet zo van de usb key. Moet gewoon betrouwbaar en out of the box draaien, en wat is nou zeg 5GB inleveren op een array van 2TBDukeBox schreef op maandag 06 april 2009 @ 17:05:
[...]
Ikzelf heb juist diverse arrays met spinpints (750GB en 1TB model) en ook met de 1TB en 1.5TB Seagate's op een PERC5i en PERC6i controller. Nog nooit problemen mee gehad.
Heb wel van enkele seagates firmware geupdate vanwege het bekende probleem.
[...]
iets van 700MB.. maar als je het helemaal handig wilt doen boot je hem gewoon vanaf een USB key..
Verwijderd
Dat is nou net het mooie van die USB-key. Je prikt dat ding erin, server aanzetten en "hij doet het". Twee weken terug voor het eerste gespeeld met de USB-key (HP-uitvoering i.c.m. een DL385 G5p, jammer dat de SATA-DVD het niet doet met u3) en het RAM in de server plaatsen kostte me meer tijd dan de "installatie" van ESXi.UltraSub schreef op maandag 06 april 2009 @ 21:02:
[...]
Nah, ben niet zo van de usb key. Moet gewoon betrouwbaar en out of the box draaien, en wat is nou zeg 5GB inleveren op een array van 2TB
Èehm, pricewatch: Western Digital Caviar Green WD10EADS, 1TBUltraSub schreef op maandag 06 april 2009 @ 21:02:
[...]
Oooeeee... Daar breng je me op een idee. Fikse snelheden idd voor een 5400 rpm disk! Maar dat zal toch wel sequentieel zijn? Hoe gedragen ze zich als er een aantal vm's op staan te rammelen? Zal het toch wel instorten, niet? Alhoewel de density erg hoog is met 2 platters van 500GB. Hmm..
Welk type heb je er in gehangen?
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
A wise man's life is based around fuck you
Doh, ik was niet op aan het letten. Dacht dat je het over een Samsung had. Deze heeft 3 platters. Dus lagere density. Maar verdomd, weinig energieverbruik! Straks eens ff kijken of ik nog een 8e disk kwijt kan in mijn serverkast. Zitten er nu 5 + 2 in. 2 gaan er uit, maar ja, waar laat ik die extra disk
ESX 3.5 ondersteunt nog geen thin provisioning. Als je dus een 20GB VM wilt maken zal je 20GB schijfruimte moeten reserveren, ondanks dat je initieel wellicht maar 4GB gebruikt. Maar als je even wacht op vSphere (ESX 4) zal aan je wensen voldaan wordenPowershell schreef op maandag 06 april 2009 @ 21:27:
ik vraag me wel eens af. weten jullie dat ESXi ook 'thin provisioning' ondersteund en dat je niet perse een 1Tb disk nodig hebt om een paar vm's op te draaienof hebben jullie echt zoveel data dat 1Tb nodig is
Amper, komt mede door het lagere toerental.UltraSub schreef op maandag 06 april 2009 @ 21:34:
[...]
Straks maar eens kijken, 3 moet ook passen, komen ze alleen dicht op elkaar. Worden ze warm? Denk het niet?
[ Voor 42% gewijzigd door Microkid op 06-04-2009 21:53 ]
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
[ Voor 100% gewijzigd door deadlock2k op 06-08-2021 16:03 ]
Geen idee wat je budget is maar kijk hier een naar.
[ Voor 8% gewijzigd door Nowa op 06-04-2009 22:42 ]
43% of all statistics are worthless.
Ja en nee, in princiepe is thin provisioning onder gebracht op het storage niveau, ESX zelf kan het niet maar als je storage het kan dan kan het dus wel.Microkid schreef op maandag 06 april 2009 @ 21:45:
ESX 3.5 ondersteunt nog geen thin provisioning.
Duct tape can't fix stupid, but it can muffle the sound.
Tuurlijk, maar dan praat je toch al snel over enterprise oplossingen zoals NetApp, EMC, Hitachi, HP EVO enz. Die zal je thuis niet zo vaak tegenkomen denk ikDukeBox schreef op maandag 06 april 2009 @ 23:48:
[...]
Ja en nee, in princiepe is thin provisioning onder gebracht op het storage niveau, ESX zelf kan het niet maar als je storage het kan dan kan het dus wel.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
[ Voor 6% gewijzigd door UltraSub op 07-04-2009 09:18 ]
Denk dat het je nog zal verbazen. Een EQL van 10 jaar geleden kan ook prima thin provisioning, die zijn op de 2e hands markt voor hele leuke prijzen te krijgen. Nieuwe SATA disken erin en 20TB aan data (14x2TB raid50+2hostpare)
Duct tape can't fix stupid, but it can muffle the sound.
ESXi ondersteund wel thin provising alleen niet vanuit de VI client. Als je bijvoorbeeld via SSH (als je SSH toegang aanzet) of via de remote commandline interface die je kunt downloaden een nieuw volume op je local storage aanmaakt.Microkid schreef op maandag 06 april 2009 @ 21:45:
[...]
ESX 3.5 ondersteunt nog geen thin provisioning. Als je dus een 20GB VM wilt maken zal je 20GB schijfruimte moeten reserveren, ondanks dat je initieel wellicht maar 4GB gebruikt. Maar als je even wacht op vSphere (ESX 4) zal aan je wensen voldaan worden
En ja, ik heb zoveel data. Heb een 20GB W2K8 VM, en daar hangt een 1TB data volume aan met mijn persoonlijke data.
PC1: ASUS B650-Plus WiFi -- 9900X incl. X72 -- 64GB DDR5-6000Mhz -- Kingston Fury Renegade G5 2TB -- HP Z43 | Servers: 2x DELL R730 -- E5-2660 v4 -- 256GB -- Synology DS3617xs: 4x1,92TB SSD RAID F1 -- 6x8TB WD Purple RAID5
Ja hoor, de WD10EADS is 5400rpm, staat overal op internetUltraSub schreef op dinsdag 07 april 2009 @ 09:09:
/edit
@MicroKid, uhmm.. die WD die jij opgeeft, overal waar ik die wil bestellen is die 7200 rpm?
Weet je zeker dat die van jou 5400 rpm doet?
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Ah, nice.ftpfreak schreef op dinsdag 07 april 2009 @ 16:08:
[...]
ESXi ondersteund wel thin provising alleen niet vanuit de VI client. Als je bijvoorbeeld via SSH (als je SSH toegang aanzet) of via de remote commandline interface die je kunt downloaden een nieuw volume op je local storage aanmaakt.
Via het commando vmkfstools -c 100G -d thin /vmfs/volumes/storagenamehere/vmpath/thin_disk.vmdk
En je hebt een VMDK van 100GB welke thin provised is dus geen 100GB op je storage gebruikt, dan kun je vanuit de VI client een bestaande VMDK toevoegen aan je vm en draaien maar
Het totale CPU gebruik van alle VM's opgeteld plus een stukje overhead is het verbruik van je server. Dus als jij 5 VM's hebt die elk 5% CPU doen zal je server iets van 30% nemen. Idem voor memory. Hij zal dus nooit 100% belast zijn, tenzij al je VM's opgeteld voor 100% cpu belasting zorgen. Echter zal je zien dat een gemiddelde server VM slechts 5-10% cpu neemt, zodat je er makkelijk tientallen kan draaien voordat je tegen de fysieke limiet van je cpu aan zit.Operations schreef op dinsdag 07 april 2009 @ 16:36:
Even een vraagje over de hardware voor ESXi en de daarbij behorende energie rekening.
Is het zo dat als je VM's zo goed als idle zijn, het verbruik van je server hardware zeg maar dan toch nog hoog is? Ik heb standaard 1 VM, die vaak zo goed als idle is maar volgens ESXi wordt er toch nog wel wat gebruikt aan cpu/mem. Is dat dan ook je echte server verbruik of is die nu 100% aan het doen continue?
[ Voor 38% gewijzigd door Microkid op 07-04-2009 16:46 ]
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Dan kijk hier eens?Microkid schreef op dinsdag 07 april 2009 @ 16:41:
[...]
Ja hoor, de WD10EADS is 5400rpm, staat overal op internet
[ Voor 19% gewijzigd door UltraSub op 07-04-2009 16:57 ]
Een variable speed lijkt me technisch onhaalbaar, want tijdens de snelheidswijzigingen kan je dan niet lezen of schrijven. Diverse tests hebben al aangegeven dat ze met een frequentiemeter konden aantonen dat het ding op 5400 rpm werkte. Anyhow, mij boeit het niet, hij is lekker stil en snelUltraSub schreef op dinsdag 07 april 2009 @ 16:54:
Anyway, op het net zijn de meningen fíks verdeeld. De een zegt 5400, de ander 7200, en weer een ander zegt dat het variable is.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
jup en linked clones kun je ook op die manier aanmakenftpfreak schreef op dinsdag 07 april 2009 @ 16:08:
[...]
ESXi ondersteund wel thin provising alleen niet vanuit de VI client. Als je bijvoorbeeld via SSH (als je SSH toegang aanzet) of via de remote commandline interface die je kunt downloaden een nieuw volume op je local storage aanmaakt.
Via het commando vmkfstools -c 100G -d thin /vmfs/volumes/storagenamehere/vmpath/thin_disk.vmdk
En je hebt een VMDK van 100GB welke thin provised is dus geen 100GB op je storage gebruikt, dan kun je vanuit de VI client een bestaande VMDK toevoegen aan je vm en draaien maar
A wise man's life is based around fuck you
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Hoeft niet persé SAN te zijn, op lokale storage kan je prima RDM's maken mits ze maar via een ondersteunde controller (vrijwel iedere controller die storage als scsi protocol gebruikt) wordt aangeboden.Microkid schreef op woensdag 08 april 2009 @ 22:32:
RDM werkt alleen met SAN LUNs, niet met losse local disks.
Duct tape can't fix stupid, but it can muffle the sound.
De meningen zijn verdeeld.Microkid schreef op woensdag 08 april 2009 @ 22:32:
RDM werkt alleen met SAN LUNs, niet met losse local disks. Heb er zelf toevallig van het weekend ook flink naar lopen zoeken, maar dit schijnt niet mogelijk te zijn binnen ESXi. De vraag is echter enorm vanuit de community, ik hoop dan ook in stilte dat dit in ESX 4 wel mogelijk wordt. Maar ik heb er nog niets over gelezen of gehoord.
Maar met de perc wil ik het eigenlijk niet dus.DukeBox schreef op woensdag 08 april 2009 @ 23:13:
[...]
Hoeft niet persé SAN te zijn, op lokale storage kan je prima RDM's maken mits ze maar via een ondersteunde controller (vrijwel iedere controller die storage als scsi protocol gebruikt) wordt aangeboden.
Bijv. een perc controller kan prima RDM's aanbieden.
Da's niet zo.UltraSub schreef op woensdag 08 april 2009 @ 23:31:
..en die zei dat het moest kunnen, zolang het maar per disk een aparte controller was.
[...]
...zolang het per disk een andere controller is, moet het kunnen.
Duct tape can't fix stupid, but it can muffle the sound.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Duct tape can't fix stupid, but it can muffle the sound.
Duct tape can't fix stupid, but it can muffle the sound.
Ik hoop echt dat je gelijk hebt. Dan ga ik van het weekend m'n 2TB data VMDK even backuppen en uitwissen, en dan eens zien of ik hem direct in een VM kan hangen. Ik heb een Dell Perc 5/i, dus als ik jou geloof moet dat goed gaan.DukeBox schreef op donderdag 09 april 2009 @ 07:47:
Ik heb het ook even op ESX geprobeerd en daar werkt het ook.. dus beiden.
4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.
Ik wil geen usb boot, ik wil een clean out of the box install. Ik heb een supported raid adapter, dus daar wil ik van booten. Anyway, ik heb de boel al draaiend. Install gedaan van een ftp-server. Alles is nu draaiend, VM's zijn geimporteerd, en alles lijkt te werken. Wat een performance verschil met VMware Server 2 zeg!!DukeBox schreef op donderdag 09 april 2009 @ 17:05:
Waarom maak je niet een bootable usb stick ?
'even' ?Microkid schreef op donderdag 09 april 2009 @ 17:20:
..Dan ga ik van het weekend m'n 2TB data VMDK even backuppen...
Vrijwel niets.. zijn wel wat whitepapers en testen over te vinden.Scheelt een RDM veel in performance t.o.v. een VMDK op een VMFS trouwens?
Ehh.. vind het een beetje tegensprekend.UltraSub schreef op donderdag 09 april 2009 @ 18:58:
Ik wil geen usb boot, ik wil een clean out of the box install.
Wat heeft dat er mee te maken ? Die heb je voor lokale storage ook onder ESXi nodig.Ik heb een supported raid adapter, dus daar wil ik van booten.
[ Voor 10% gewijzigd door DukeBox op 09-04-2009 19:37 ]
Duct tape can't fix stupid, but it can muffle the sound.
[ Voor 100% gewijzigd door deadlock2k op 06-08-2021 16:02 ]
Buiten dat storage vmotion ook wel handig is en niet werkt met RDM.UltraSub schreef op vrijdag 10 april 2009 @ 12:23:
Als je park groot is, heeft veelvuldig gebruik van RDM toch wel wat beheersmatige impact.
Duct tape can't fix stupid, but it can muffle the sound.
Maar wat voor storage hangt daarachter? 700 guests is niet niks. Dat zal ook een grote invloed hebben op de performance.UltraSub schreef op vrijdag 10 april 2009 @ 12:23:
Als je park groot is, heeft veelvuldig gebruik van RDM toch wel wat beheersmatige impact. Het is toch wat onoverzichtelijker dan vmfs. Wij gebruiken ook RDM's, maar alleen voor sommige servers. 90% van het gevirtualiseerde park gebruikt vmdks. (700 guests in ESX hier)
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Apple iPhone 16e LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq