Op ons netwerk hebben we laatste tijd lange wachttijden (±1 uur per dag per gebruiker). We zijn een relatief klein bedrijf met ca. 30 werknemers. Volgens de netwerkbeheerder (extern bedrijf) is het probleem niet de snelheid van server of de harde schijven, maar de snelheid waarmee de server de data op het netwerk kan krijgen. Er is namelijk maar een 1Gbit netwerkkaart die alle traffic met de server afhandelt.
Aangezien we gebruik maken van een software dat veel (15 Gb up en 10 Gb down per gebruiker per dag) data naar het netwerk toe genereert zou een 10GbE switch (en een 10G netwerkkaart voor de server) een oplossing voor ons kunnen zijn. Hiermee zou de server met een hogere snelheid de data van het netwerk af en naar het netwerk toe kunnen schijven terwijl de werkstations met een 1Gbit verbinding de data op kan vragen. Op zich een redelijk helder verhaal, echter bij het rondkijken naar 10GbE switches kom ik erachter dat het niet erg gangbaar is voor het gebruik op kantoor maar meer iets is voor datacenters. Daardoor is de investering ook behoorlijk (±8k euro). Hoewel we dit wel kunnen terugverdienen gezien de lange wachttijden, vraag ik me af hoe andere bedrijven dit soort problemen oplossen. Is een 10GbE switch niet een beetje overkill voor ons doeleinde? Is er een efficiëntere manier om de data van de server op het netwerk te krijgen?
Aanvulling:
Bedankt voor alle reacties. Hiermee heb ik een beter beeld gekregen van welke opties ik heb.
De data dat erover heen gaat zijn zowel tekstbestanden van een paar kB (of vergelijkbaar) tot grote modellen (.dat =! videobestanden) van honderden MB's. Deze wordt gegenereerd door een 3D tekenpakket (Cadmatic). De gemiddelde data overdracht heb ik gemeten met NetMeter. Echter kan je hiermee alleen de totaal aan up/download zien en niet hoeveel bestanden er gemiddeld per dag uitgewisseld wordt. Daardoor kan ik dus niet zeggen wat de verhouding ertussen is.
Als de bewering van steven.leenman klopt dan betwijfel ik of de HDD het inderdaad aankan. De schijf waar deze data naartoe geschreven wordt is een 1 TB Barracuda met een rpm van 7200 en cache van 32 MB. Het is wel in RAID opgesteld maar in RAID 1 om als back-up te gebruiken. Alles blijft "gewoon" werken als een van de schijven wegvalt, zo kunnen we de ene harde schijf altijd verwisselen om mee te nemen. Maar er is dus geen snelheidswinst door de krachten te bundelen van de beide schijven.
De OS (CentOS 5.4) draait op twee WD VelociRaptor (10.000 rpm) schijven in RAID 1 opstelling.
Verder gebruiken we voor de mailserver (Kerio) twee ook de bovenstaande VelociRaptor schijven maar dan in RAID 0 opstelling. Totaal zitten er dus 6 schijven in de server.
De server dient tevens als host voor een virtuele Windows server welke gemiddeld per dag 0,6 GiB (download) en 1,5 GiB (upload) van en naar de server.
De MoBo van de server is een Asus Z8NA-D6 met 2 x Gbit LAN van Intel(waarvan er dus maar 1 wordt gebruikt). Hierop zit verder een Xeon E5520 processor.
De gebruikte Switch is een Cisco SLM 2048 met 48 x 1Gbit poorten en 2 SFP uplink interfaces. Het is geen Managed Switch, maar je kan wel via de webinterface zien hoeveel data er over een bepaald poort overgedragen wordt. Omdat de Intel nics op de Mobo niet zo goed schijnen te werken met deze switch gebruiken we ook een ASUS GigaX 1124 switch waarop de server is aangesloten en die weer door gepached naar de Cisco switch.
Om te kunnen beoordelen of de nic inderdaad de bottleneck is heb ik de netwerkbeheerder gevraagd om te monitoren of deze echt aan zijn piekbelasting komt. En om de snelheid van de schijf te achterhalen heb ik hem gevraagd om de schrijf- en leessnelheid alsmede de latency van de schijf te meten buiten kantooruren. Zodra ik de resultaten heb publiceer ik dat hier.
Aanvulling 24-09
Ik merk dat er flinke zorgen voor het back-up is, maar dat zit wel redelijk goed inelkaar. Daarvoor wordt een back-up systeem van Deonet gebruikt. We hebben vier van de bovenstaande Barracuda schijven waarvan er een altijd in blijft zitten en de andere drie dagelijks, wekelijks en maandelijks verwisseld worden. Wat ik bij de vorige aanvulling nog achterwege had gelaten is dat er nog een 2TB schijf in de server zit waarop met behulp van "versiebeheer software" de laatste 3 versies van een bestand op de prudiectieschijf bijgehouden wordt. De schijven worden altijd aan het eind van de werkdag vervangen waardoor het rebuilden buiten kantooruren gebeurd (en met laagste prioriteit). De schijven worden vervolgens meegenomen naar huis waardoor je ook bij brand e.d. je data offsite hebt. Wel is het zo dat deze manier van back-up voor ons onmogelijk maakt om een RAID opstelling te gebruiken waarmee je echt prestatie winst hebt. En is het serieus overwegen waard om hiervan af te stappen.
Met de netwerkbeheerder hebben we een support contract lopen waarin o.a. is opgenomen dat bij een crash ze binnen 4 uur me een replica van onze server hier voor de deur staan. Ze hebben dus alle onderdelen op voorraad (aanname), omdat ze ook andere bedrijven voorzien van dergelijke servers.
Aangezien we gebruik maken van een software dat veel (15 Gb up en 10 Gb down per gebruiker per dag) data naar het netwerk toe genereert zou een 10GbE switch (en een 10G netwerkkaart voor de server) een oplossing voor ons kunnen zijn. Hiermee zou de server met een hogere snelheid de data van het netwerk af en naar het netwerk toe kunnen schijven terwijl de werkstations met een 1Gbit verbinding de data op kan vragen. Op zich een redelijk helder verhaal, echter bij het rondkijken naar 10GbE switches kom ik erachter dat het niet erg gangbaar is voor het gebruik op kantoor maar meer iets is voor datacenters. Daardoor is de investering ook behoorlijk (±8k euro). Hoewel we dit wel kunnen terugverdienen gezien de lange wachttijden, vraag ik me af hoe andere bedrijven dit soort problemen oplossen. Is een 10GbE switch niet een beetje overkill voor ons doeleinde? Is er een efficiëntere manier om de data van de server op het netwerk te krijgen?
Aanvulling:
Bedankt voor alle reacties. Hiermee heb ik een beter beeld gekregen van welke opties ik heb.
De data dat erover heen gaat zijn zowel tekstbestanden van een paar kB (of vergelijkbaar) tot grote modellen (.dat =! videobestanden) van honderden MB's. Deze wordt gegenereerd door een 3D tekenpakket (Cadmatic). De gemiddelde data overdracht heb ik gemeten met NetMeter. Echter kan je hiermee alleen de totaal aan up/download zien en niet hoeveel bestanden er gemiddeld per dag uitgewisseld wordt. Daardoor kan ik dus niet zeggen wat de verhouding ertussen is.
Als de bewering van steven.leenman klopt dan betwijfel ik of de HDD het inderdaad aankan. De schijf waar deze data naartoe geschreven wordt is een 1 TB Barracuda met een rpm van 7200 en cache van 32 MB. Het is wel in RAID opgesteld maar in RAID 1 om als back-up te gebruiken. Alles blijft "gewoon" werken als een van de schijven wegvalt, zo kunnen we de ene harde schijf altijd verwisselen om mee te nemen. Maar er is dus geen snelheidswinst door de krachten te bundelen van de beide schijven.
De OS (CentOS 5.4) draait op twee WD VelociRaptor (10.000 rpm) schijven in RAID 1 opstelling.
Verder gebruiken we voor de mailserver (Kerio) twee ook de bovenstaande VelociRaptor schijven maar dan in RAID 0 opstelling. Totaal zitten er dus 6 schijven in de server.
De server dient tevens als host voor een virtuele Windows server welke gemiddeld per dag 0,6 GiB (download) en 1,5 GiB (upload) van en naar de server.
De MoBo van de server is een Asus Z8NA-D6 met 2 x Gbit LAN van Intel(waarvan er dus maar 1 wordt gebruikt). Hierop zit verder een Xeon E5520 processor.
De gebruikte Switch is een Cisco SLM 2048 met 48 x 1Gbit poorten en 2 SFP uplink interfaces. Het is geen Managed Switch, maar je kan wel via de webinterface zien hoeveel data er over een bepaald poort overgedragen wordt. Omdat de Intel nics op de Mobo niet zo goed schijnen te werken met deze switch gebruiken we ook een ASUS GigaX 1124 switch waarop de server is aangesloten en die weer door gepached naar de Cisco switch.
Om te kunnen beoordelen of de nic inderdaad de bottleneck is heb ik de netwerkbeheerder gevraagd om te monitoren of deze echt aan zijn piekbelasting komt. En om de snelheid van de schijf te achterhalen heb ik hem gevraagd om de schrijf- en leessnelheid alsmede de latency van de schijf te meten buiten kantooruren. Zodra ik de resultaten heb publiceer ik dat hier.
Aanvulling 24-09
Ik merk dat er flinke zorgen voor het back-up is, maar dat zit wel redelijk goed inelkaar. Daarvoor wordt een back-up systeem van Deonet gebruikt. We hebben vier van de bovenstaande Barracuda schijven waarvan er een altijd in blijft zitten en de andere drie dagelijks, wekelijks en maandelijks verwisseld worden. Wat ik bij de vorige aanvulling nog achterwege had gelaten is dat er nog een 2TB schijf in de server zit waarop met behulp van "versiebeheer software" de laatste 3 versies van een bestand op de prudiectieschijf bijgehouden wordt. De schijven worden altijd aan het eind van de werkdag vervangen waardoor het rebuilden buiten kantooruren gebeurd (en met laagste prioriteit). De schijven worden vervolgens meegenomen naar huis waardoor je ook bij brand e.d. je data offsite hebt. Wel is het zo dat deze manier van back-up voor ons onmogelijk maakt om een RAID opstelling te gebruiken waarmee je echt prestatie winst hebt. En is het serieus overwegen waard om hiervan af te stappen.
Met de netwerkbeheerder hebben we een support contract lopen waarin o.a. is opgenomen dat bij een crash ze binnen 4 uur me een replica van onze server hier voor de deur staan. Ze hebben dus alle onderdelen op voorraad (aanname), omdat ze ook andere bedrijven voorzien van dergelijke servers.
[ Voor 66% gewijzigd door Amito op 24-09-2010 09:37 . Reden: Aanvulling 2 ]
