[Windows 2008 R 2 core] veranderen parameters netwerkadapter

Pagina: 1
Acties:

  • RazorBlade72nd
  • Registratie: Januari 2006
  • Laatst online: 20-11-2025
Ik heb een test server waar ik Hyper-V op wil draaien. Ik heb dit altijd zo gehad, maar had voorheen als host een volledige installatie (met Windows). Nu wil ik als Hyper-V host een core 2008 R2 installatie doen. Verder zal de host machine gaan dienen als domaincontroller, CA, DHCP en DNS.

Ik heb de server geconfigureerd met sconfig. Verder heb ik met dcpromo van de server een domaincontroller gemaakt, en ik heb de hyper-V rol geïnstalleerd. Het gaat pas fout op het moment dat ik vanaf mijn laptop met de Hyper-V MMC een virtuele switch installeer (external). Wat er dan gebeurt is dat de fysieke netwerkkaart wordt verandert in een virtuele switch en mijn host systeem krijgt een virtuele netwerkadapter. Het probleem is dat tijdens dit proces een aantal eigenschappen van mijn netwerkkaart worden verandert die de netwerkverbinding in ernstige mate instabiel maakt. Het gaat om de eigenschappen die je te zien krijgt als je gaat naar "network and sharing center" -> change adapter settings -> rechtermuisklik op de netwerkadapter -> propperties -> configure knopje bij de naam van de adapter -> advanced. Of in devicemanager naar de eigenschappen van je netwerkadapter en dan naar advanced.

Ik weet dat dit het probleem is omdat ik in het verleden dit probleem ook had met een volledige installatie van Windows 2008 R2. Ik heb toen een aantal parameters disabled die bepaalde taken wilde ofloaden naar de netwerkkaart. Daarna was de netwerkverbinding weer stabiel. Het probleem is alleen dat ik nu geen GUI heb om dat even te doen. Als een MMC met device manager al eventjes stabiel genoeg zou zijn dan is de remote versie alleen "read only". Ook heb ik geprobeerd om met powershell via gwmi win32_networkAdapter,
win32_networkAdapterSetting en win32_networkAdapterConfiguration de waardes te veranderen, maar ik zie hiermee niet de parameters die ik nodig heb. Ik heb ook gezocht in de registry, maar ook daar heb ik de waardes niet gevonden.

Heeft iemand anders nog een truc die ik kan proberen?

| MCTS:Exchange 2007/2010 | MCTS: SQL 2005 | MCSE:2003 | MCITP: EA | VCP 3/4/5 | CCNA |


  • Razwer
  • Registratie: December 2000
  • Laatst online: 30-01 16:58
wow, host en DC en hyper-v host. Best practice is wat anders, maargoed...
hoeveel nic's heb je in die bak zitten uberhaupt? je wilt je virtual adaptor(s) ook niet delen met je host. Ik hou altijd een nic dedicated als "management" adaptor en heb dan nergens last van.

anyways, je kan gewoon remote device manager doen op 2008 (r2) core. ff googlen en je vind het.
http://blogs.technet.com/...er-core-installation.aspx
http://www.petri.co.il/re...dows-server-2008-core.htm

2e is foolproof met screenshots.

geen dank ;)

Newton's 3rd law of motion. Amateur moraalridder.


  • RazorBlade72nd
  • Registratie: Januari 2006
  • Laatst online: 20-11-2025
Ik heb deze methode geprobeert maar helaas zonder succes. Devicemanager bleef read only en ik kon dus geen parameters wijzigen. Ik heb uiteindelijk toch maar besloten om niet voor de Core variant te gaan. Ik heb in de afgelopen week al veel te veel moeite moeten doen om misschien 1 GB RAM uit te sparen.

| MCTS:Exchange 2007/2010 | MCTS: SQL 2005 | MCSE:2003 | MCITP: EA | VCP 3/4/5 | CCNA |


  • Razwer
  • Registratie: December 2000
  • Laatst online: 30-01 16:58
wat is je motivatie om en een DC te draaien en hyper-v host op 1 bak?
1) hyper-v host zou ik met multiple nic's draaien, dit had jouw probleem ook voorkomen.
2) multihomed DC is verre van best practice.

Je kan prima die dc virtueel maken en je host member van dat domein maken. Al is 1 enkele DC ook geen best practice.

verder is geduld een schone zaak en kun je op sp1 wachten van hyper-v. De beta is ook al uit (al is het af te raden dat in productie te draaien). Met sp1 kun je dynamic memory gebruiken en levert dit je veel RAM winst op voor je virtual machines.

[ Voor 27% gewijzigd door Razwer op 19-07-2010 00:13 ]

Newton's 3rd law of motion. Amateur moraalridder.


  • Henkje.doc
  • Registratie: November 2005
  • Laatst online: 29-01 12:14
Als het puur voor test is dan zou ik een Core (bewust een reden voor of juist voor studie?) installatie doen met daarop de Hyper-V role.

Daarbinnen zou ik dan de DC maken met de aanvullende rollen DNS / DHCP. Daar zou dan CA zonder problemen bij moeten kunnen.

Voor testdoeleinden volstaat 1dc, maar in de praktijk kom je dit natuurlijk niet vaak tegen :)

  • RazorBlade72nd
  • Registratie: Januari 2006
  • Laatst online: 20-11-2025
Het gaat om een test server die ik thuis heb draaien. Best practice heb ik dus weinig mee te maken. Het gaat puur om te oefenen voor certificeringen. Ik heb 12 GB in mijn servertje en ik wil in de nabije toekomst gaan kijken naar Exchange 2010 en Sharepoint 2010 (overigens niet tegelijkertijd). Ik wil in beide gevallen dan ook proberen om een “HA” omgeving te bouwen. Als ik dan dus alles netjes ga uitsplitsen in aparte servers voor iedere rol dan gaat het niet lukken. De reden om te kiezen voor een core server was dan ook voornamelijk om op geheugen te besparen. Ik heb vorige week in ieder geval ook weer wat ervaring opgedaan met core server. Dat is op zich dus geen verloren tijd geweest.

Ik begrijp dat dynamic memory in SP1 zoiets is als een balloon driver zoals ESX dat al lange tijd heeft. Of zit ik nu helemaal verkeerd?

| MCTS:Exchange 2007/2010 | MCTS: SQL 2005 | MCSE:2003 | MCITP: EA | VCP 3/4/5 | CCNA |


  • Razwer
  • Registratie: December 2000
  • Laatst online: 30-01 16:58
niet echt maar komt er op neer ja. als het een test bak is, ga wild met sp1 zou ik zeggen.
de reden dat ik stress op best practice is dat als je dingen eenmaal fout aanleert ze lastig af te leren zijn. Zeg maar onder het motto, "als je het doet, moet je het goed doen".

als je meer wilt weten over dynamic memory raad ik je aan om deze seminar van ome Ben Armstrong (VirtualPC Guy) te checken: http://blogs.msdn.com/b/v...mic-memory-the-movie.aspx

Newton's 3rd law of motion. Amateur moraalridder.


  • RazorBlade72nd
  • Registratie: Januari 2006
  • Laatst online: 20-11-2025
Erg goede info. Ik heb eergisteren drie kwartier gekeken en vandaag weer. Ik denk dat ik nu een beetje off topic ga, maar ik ben erg benieuwd hoe dynamic memory omgaat met database achtige applicaties. Als ik SQL of Echange 10 GB geheugen geef dan zullen ze vanzelf alles gaan gebruiken als cache. Een database performed nu eenmaal beter als er meer data in het geheugen zit. Hoe kan dynamic memory nu bepalen wat optimaal is voor mijn omgeving. Misschien gebruik ik mijn SQL server alleen maar voor WSUS data, en boeit het helemaal niet als SQL die data eens per maand van HD moet lezen. Maar het kan ook zijn dat ik mijn SQL server gebruik voor een webapplicatie voor mijn klanten, en wil ik juist heel veel in cache. Natuurlijk kan ik zelf prioriteit gaan geven of de limieten lager of hoger zetten, maar waarom zou ik dan dynamic memory willen voor dat type servers. Dan kan ik beter een vaste hoeveelheid geven want dan is de prioriteit optimaal en ik kan zelf heel precies bepalen hoeveel er gecached wordt.

| MCTS:Exchange 2007/2010 | MCTS: SQL 2005 | MCSE:2003 | MCITP: EA | VCP 3/4/5 | CCNA |


  • Razwer
  • Registratie: December 2000
  • Laatst online: 30-01 16:58
als je de seminar gekeken hebt zie je dat je bepaalde machines ook hogere prioriteit kunt geven met dynamic memory :)
let wel trouwens, de sp1 beta ondersteund alleen enterprise en datacentre editions van windows servers. standard en web zijn volgens ome ben nog niet supported.

Newton's 3rd law of motion. Amateur moraalridder.


  • RazorBlade72nd
  • Registratie: Januari 2006
  • Laatst online: 20-11-2025
Het klopt dat je prioriteit kan geven, maar daar voorkom je het probleem niet mee. Een SQL server ziet hoeveel geheugen er vrij is en zal dat geheugen gaan gebruiken om data te cachen. Vervolgens ziet het dynamic memory dat de SQL server weinig geheugen heeft en kent extra geheugen toe, dat wordt vervolgens weer gebruikt om data te cachen, en dat cirkeltje gaat door tot de complete hoeveel geheugen van de fysieke server wordt gebruikt.

Uiteraard zullen ze daar ook aan gedacht hebben en een mechanisme hebben ingebouwd dat dat niet gebeurt. Maar het systeem kan niet ruiken wat een optimale hoeveel geheugen is dat een SQL server moet krijgen. Dat hangt namelijk van de wensen van de gebruiker af, en niet van parameters die het systeem kan uitlezen. Een “normale” applicatie gebruikt een bepaalde hoeveelheid geheugen, en die applicatie gaat niet meer geheugen gebruiken als je er meer geheugen in zet. Dat kan je dus meten en aan de hand van die waardes kan dynamic memory dus een beslissing nemen hoeveel geheugen hij aan iedere server toekent.
Uiteindelijk zal waarschijnlijk de systeembeheerder moeten aangeven hoeveel geheugen hij wil toekennen aan de SQL server en dus verandert er voor dat type servers niet zo veel. Tenzei ik iets over het hoofd zie en ze via een andere weg toch kunnen bepalen hoeveel geheugen optimaal is voor een database server.

| MCTS:Exchange 2007/2010 | MCTS: SQL 2005 | MCSE:2003 | MCITP: EA | VCP 3/4/5 | CCNA |


  • Razwer
  • Registratie: December 2000
  • Laatst online: 30-01 16:58
ik zou het simpelweg niet weten. Als je het erg graag wilt weten, probeer Ben Armstrong te mailen of te twitteren, wie weet antwoord hij. Die gast is hyper-v guru. Als hij dat doet, hoor ik graag zijn antwoord :)

[ Voor 13% gewijzigd door Razwer op 22-07-2010 13:49 ]

Newton's 3rd law of motion. Amateur moraalridder.

Pagina: 1