Acties:
  • 0 Henk 'm!

  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 12:02
Goedemorgen,
ik heb een NAS die ik vandaag met link aggregation ga aansluiten op mijn nieuwe switch (met link aggregation).
Mijn vraag:
Moeten op mijn VMware-hosts ook link aggregation worden ingeschakeld om de storage op maximale snelheid te kunnen benaderen?

Wie heeft zo`n zelfde opstelling in de praktijk werkend en wat is de snelheid die je haalt?

Alvast Bedankt

Acties:
  • 0 Henk 'm!

  • Turdie
  • Registratie: Maart 2006
  • Laatst online: 20-08-2024
Link Aggeration moet je zoals ik het lees na wat onderzoek op je vSwitch aanzetten. Hier staat het beschreven:
Sample configuration of EtherChannel / Link aggregation with ESX/ESXi and Cisco/HP switches

Trouwens dit had je zelf toch ook kunnen vinden, ik heb gewoon gezocht op vsphere link aggeration binnen Google en dit was mijn tweede hit?

Acties:
  • 0 Henk 'm!

  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 12:02
shadowman12 schreef op woensdag 05 september 2012 @ 08:57:
Link Aggeration moet je zoals ik het lees na wat onderzoek op je vSwitch aanzetten. Hier staat het beschreven:
Sample configuration of EtherChannel / Link aggregation with ESX/ESXi and Cisco/HP switches

Trouwens dit had je zelf toch ook kunnen vinden, ik heb gewoon gezocht op vsphere link aggeration binnen Google en dit was mijn tweede hit?
Ik zag online ook voldoende voorbij komen, maar ben meer benieuwd hoe het technisch werkt.
weet je of de fysieke porten op switch waar de esx-host op aangesloten zit ook in link-aggregation-mode moeten staan?

Heb jij er ook in de praktijk ervaring mee en hoe was het performance verschil?

[ Voor 7% gewijzigd door pitchdown op 05-09-2012 09:58 ]


Acties:
  • 0 Henk 'm!

  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 12:02
Heb vandaag link aggregation aangezet op mijn d-link switch. Echter zie ik in de statistics alle traffic alleen over 1 van de 2 porten gaan. Klopt dat of hoor ik dit op meerdere porten terug te zien?

Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 21:44
pitchdown schreef op woensdag 05 september 2012 @ 18:45:
Heb vandaag link aggregation aangezet op mijn d-link switch. Echter zie ik in de statistics alle traffic alleen over 1 van de 2 porten gaan. Klopt dat of hoor ik dit op meerdere porten terug te zien?
Als het enkel van IP1 naar IP2 is wel. Sommige switches die wat meer highend zijn kunnen ook op IP1:srcport naar IP2:dstport hashen voor de keuze van de poort van de portchannel.

-edit-
(Portchannel/LAGP/Etherchannel, allemaal ongeveer 1 pot nat ;) )

[ Voor 7% gewijzigd door Keiichi op 05-09-2012 18:50 ]

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 12:02
Keiichi schreef op woensdag 05 september 2012 @ 18:47:
[...]


Als het enkel van IP1 naar IP2 is wel. Sommige switches die wat meer highend zijn kunnen ook op IP1:srcport naar IP2:dstport hashen voor de keuze van de poort van de portchannel.

-edit-
(Portchannel/LAGP/Etherchannel, allemaal ongeveer 1 pot nat ;) )
Bij deze de statistics van mijn switch:

Afbeeldingslocatie: http://www.mauricevandelft.nl/statistics.JPG

port 3+4 en port 5+6 zijn aan de vmware-hosts gekoppeld middels link aggregation.

15+16 zit gekoppeld aan de NAS, en dus geen activiteit op port 15 (omega storcenter IX-4200 NAS en D-link DCS 1100-16-switch)

Enig idee?

Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 13-07 22:07
Lees je even in hoe NFS precies werkt en hoeveel nut Link Aggregation daar precies bij heeft (hint: geen).

Lang verhaal kort: 1 ethernet sessie kun je niet splitsen over twee kabels. Je moet de oplossing dan ook zoeken in het opzetten van meerdere ethernet sessies.

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 12:02
hans_lenze schreef op woensdag 05 september 2012 @ 19:46:
Lees je even in hoe NFS precies werkt en hoeveel nut Link Aggregation daar precies bij heeft (hint: geen).

Lang verhaal kort: 1 ethernet sessie kun je niet splitsen over twee kabels. Je moet de oplossing dan ook zoeken in het opzetten van meerdere ethernet sessies.
Geld dit ook bij het gebruik van Iscsi? In theorie zou je hiermee toch echt dubbele bandbreedte moeten krijgen richting je storage!

Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 13-07 22:07
Als je iSCSI zinnig inricht, gebruik je een apart IP adres voor elke NIC (en dus een aparte sessie) een meerdere LUNs. Door een zinnige path selection policy te gebruiken worden de sessies netjes verdeelt tussen de beschikbare paden op basis van de gekozen policy.

Dit kun je ook zo klussen met NFS als je dat graag wilt. NFS4 heeft het standaard, maar daar kan ESXi dan weer niets mee...

while (! ( succeed = try ()));


  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 12:02
Ik zit te twijfelen om te kiezen voor een 1512+ zodat er eventueel voldoende schijfsets beschikbaar zijn. Hierop zal ik dan moeten kiezen voor NFS of iscsi.

Zijn er mensen met ervaringen met de 1512+ en link aggregation?

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 13-07 22:07
Ik loop in mijn thuislab steeds tegen de limiet van de schijven aan. Niet van de netwerk verbinding (1Gb in mijn geval). Weet je zeker dat je geld uit wilt geven aan meer bandbreedte ipv opslag met meer IO/s?

while (! ( succeed = try ()));


  • Paul
  • Registratie: September 2000
  • Laatst online: 21:33
Waarom zou je dat doen (aangenomen dat alle LUNs naar hetzelfde vSphere-cluster gaan)? Je loopt er dan tegenaan dat je op de ene LUN 2 TB vrij kunt hebben terwijl de andere (te) vol zit...

Dat typenummer ziet er uit als een Synology, die ken ik niet zo goed. Bij QNAP geef je beide interfaces een ander subnet, met 2 kabels naar de switch(es, als je het goed wilt doen :P), 2 kabels naar de host, ieder zijn eigen vSwitch, IP-adressen goed zetten, multipathing-policy kiezen en bij de storage controleren of er meerdere paths zijn :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 13-07 22:07
Paul schreef op donderdag 06 september 2012 @ 12:17:
[...]
Waarom zou je dat doen (aangenomen dat alle LUNs naar hetzelfde vSphere-cluster gaan)? Je loopt er dan tegenaan dat je op de ene LUN 2 TB vrij kunt hebben terwijl de andere (te) vol zit...
Mijn LUNs hebben meestal 30% van de ruimte vrij om bewerkingen op te vangen (snapshots, clones, logbestanden enz). VMware raadt LUNs van 500 a 1000GB aan. Met maximaal 16 VM's per LUN. Hierdoor heb je meerdere queue's ipv één grote naar je storage. Als een LUN volloopt omdat een server een exploderend snapshot heeft, blijft de rest draaien. Als je een deel wilt migeren naar een ander storage device, kun je dat zonder problemen doen. Als je bewerkingen uitvoert die SCSI reserveringen nodig hebben heeft dit impact op een kleiner aantal machines. (vSphere 5 kan een paar reserveringen door de opslag laten uitvoeren). (Helaas is de path selection policy van VMware niet zo slim om meerder paden naar hetzelfde LUN tegelijk te gebruiken. De eerste verbinding naar het LUN wordt gebruikt voor al het verkeer. Meer LUNs is dus meer gelijktijdige paden.

Vraag blijft natuurlijk wel: hoeveel is hiervan relevant voor een thuis server.

while (! ( succeed = try ()));


  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 27-07 21:40

TrailBlazer

Karnemelk FTW

wat ik eens bij een klant heb gezien was de constructie om slechts de OS dis aan te bieden vanuit esxi en de data disk(en) via NFS/iSCSI direct aan de client aan te bieden. Je kan dan gebruik maken van de path selection policy van de client OS ipv van die van VMWare. Iedere server kreeg dan twee nics een voor storage verkeer en een voor de rest.

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:33
hans_lenze schreef op donderdag 06 september 2012 @ 12:43:
VMware raadt LUNs van 500 a 1000GB aan.
Whiee, daar past nèt de datadisk van de fileserver op, zonder ruimte voor snapshots :+

Gezien Microsofts 'oplossing' voor de DLL-hell (de exploderende WinSXS-map) ben ik al blij als ik op 8 OS-disks (met nul data) op die 1 TB - 30% snapshot/clone/log-ruimte krijg.

Ik geef direct toe dat we geen hele hoge load hebben, maar hier is alles één LUN en daar staat alles op, gaat tot dusver gewoon goed (tenzij een collega een snapshot een paar maanden laat leven.. Nooit geweten dat die dingen groter konden worden dan de disk waar ze bij horen :o ).

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 27-07 21:40

TrailBlazer

Karnemelk FTW

dat is idd wel vaag. Vorige week bij mijn VCP5 cursus werd gezegd dat enkel de blokken werder geschreven die anders zijn dan de RO orginele. Nu kan natuurlijk elk blok anders zijn geworden maar dan nog verwacht ik niet dat die nog groter wordt. Je hebt wss wel nog een table nodig welk blok in de snapshot correspondeert met een het orginele blok van de RO snapshot.

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 13-07 22:07
Mooi voorbeeld is een Backup Exec backup die zijn snapshots niet netjes opruimt. Dan krijg je elke dag een nieuw snapshot en loopt de boel lekker snel vol.

while (! ( succeed = try ()));


  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 12:02
hans_lenze schreef op donderdag 06 september 2012 @ 12:16:
Ik loop in mijn thuislab steeds tegen de limiet van de schijven aan. Niet van de netwerk verbinding (1Gb in mijn geval). Weet je zeker dat je geld uit wilt geven aan meer bandbreedte ipv opslag met meer IO/s?
Hans,
met de 1512+ kan ik toch uitbreiding naar max 15 disks en heb ik ook 2 Nic`s beschikbaar?

  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 12:02
Paul schreef op donderdag 06 september 2012 @ 12:17:
[...]
Waarom zou je dat doen (aangenomen dat alle LUNs naar hetzelfde vSphere-cluster gaan)? Je loopt er dan tegenaan dat je op de ene LUN 2 TB vrij kunt hebben terwijl de andere (te) vol zit...

Dat typenummer ziet er uit als een Synology, die ken ik niet zo goed. Bij QNAP geef je beide interfaces een ander subnet, met 2 kabels naar de switch(es, als je het goed wilt doen :P), 2 kabels naar de host, ieder zijn eigen vSwitch, IP-adressen goed zetten, multipathing-policy kiezen en bij de storage controleren of er meerdere paths zijn :)
Paul, welke qnap gebruik je zelf hiervoor?

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:33
Hangt vooral af van de hoeveelheid disks die men wil. Sinds kort (eindelijk! Af van het handmatig erbij hacken van een VLAN om een aparte management-interface te hebben!) zetten we er een extra netwerkkaart in (als we ze als datastore inzetten en er ons best voor doen om het een beetje redundant in te richten. Het blijft echter een QNAP natuurlijk, geen MD3200, EqualLogic of nog groter :P ) en dan ben je al 'veroordeeld' tot 8bay of groter.

Meeste klanten (en tot voor kort wij zelf ook) waren te klein om het geld voor een 'echt' SAN / DiskArray over de brug te komen, sowieso gebruiken de meeste klanten de QNAP's alleen als iSCSI-target om Windows Server Backup naartoe te schrijven, hebben er maar een paar waar echt VM's op draaien.

Ik heb van alles langs zien komen, voor één server met WSB is het vaak een TS-119 of zo, als er meerdere servers naar backuppen of er draaien VM's op kom je ook aan meer schijven en dat is incidenteel een x59 maar meestal x69 of x79 :)

Sowieso kan bij QNAP over het algemeen de simpelste NAS exact hetzelfde (maar niet allemaal even snel) als de meest uitgebreide.

[ Voor 8% gewijzigd door Paul op 06-09-2012 14:48 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 12:02
Paul schreef op donderdag 06 september 2012 @ 14:46:
Hangt vooral af van de hoeveelheid disks die men wil. Sinds kort (eindelijk! Af van het handmatig erbij hacken van een VLAN om een aparte management-interface te hebben!) zetten we er een extra netwerkkaart in (als we ze als datastore inzetten en er ons best voor doen om het een beetje redundant in te richten. Het blijft echter een QNAP natuurlijk, geen MD3200, EqualLogic of nog groter :P ) en dan ben je al 'veroordeeld' tot 8bay of groter.

Meeste klanten (en tot voor kort wij zelf ook) waren te klein om het geld voor een 'echt' SAN / DiskArray over de brug te komen, sowieso gebruiken de meeste klanten de QNAP's alleen als iSCSI-target om Windows Server Backup naartoe te schrijven, hebben er maar een paar waar echt VM's op draaien.

Ik heb van alles langs zien komen, voor één server met WSB is het vaak een TS-119 of zo, als er meerdere servers naar backuppen of er draaien VM's op kom je ook aan meer schijven en dat is incidenteel een x59 maar meestal x69 of x79 :)

Sowieso kan bij QNAP over het algemeen de simpelste NAS exact hetzelfde (maar niet allemaal even snel) als de meest uitgebreide.
Welke Qnap zou je adviseren voor homelab? Ik vind zelf tot op heden dat je voor een synology minimaal evenveel krijgt voor minder. de 1512+ met 2 nics, mogelijkheid voor 2 extra bays en uitbreiding geheugen vind ik een hele aardige...

  • Paul
  • Registratie: September 2000
  • Laatst online: 21:33
Bij QNAP is alleen bij de rackmountable units het geheugen uit te breiden, 'slave'-units eraan hangen kunnen ze geen van allen.

Ik denk dat de 569 de meest directe concurrent is van de 1512+ maar die is wel 200 euro duurder. De 559 is er ook, die is net zo duur als de Synology maar heeft een langzamere proc.

Ik zou vooral benchmarks zoeken, ik weet niet meer waarom we ooit voor QNAP zijn gegaan boven Synology, nu we eenmaal op één merk zitten blijven we er tenzij er zwaarwegende redenen zijn over te stappen.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • pitchdown
  • Registratie: Oktober 2002
  • Laatst online: 12:02
Zijn er nog mensen die ervaring hebben met de 1512+ en vmware?
Pagina: 1