Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

Enkele vragen over nieuwe server en netwerkomgeving

Pagina: 1
Acties:

  • dreku88000
  • Registratie: Februari 2002
  • Laatst online: 28-11 12:54
Hoi, ik ben met een collega bezig met inventarisatie van onze nieuwe netwerkomgeving op het werk. Wij hebben hierover nog enkele vragen en hopen dat jullie ons verder kunnen helpen.

Huidige situatie:

MKB met 35 werknemers, werkend in 3 gebouwen op 1 locatie. 2 – 3 users werken regelmatig vanuit huis.
Onderlinge afstand gebouwen 100m, opgesteld in een vierkant, zie hier:

Gebouw 4

^
|
|
100m
|
|
v

Gebouw 1 <--------- 100m ---------> Gebouw 2
  • Gebouw 1 is het kantoorgebouw waar de meeste telefoons (25) en clients (25) staan en waar ook de server staat opgesteld.
  • Gebouw 2 wordt voor productie gebruikt en heeft ongeveer 10 telefoons en 10 clients.
  • Gebouw 4 heeft 2 telefoons en 2 clients.
Huidige server (HP ML350) voorzien van:
  • 2x 3x146GB 10k rpm SCSI schijven in RAID5
  • 1 Xeon 3 Ghz processor
  • 4GB RAM, waarvan er dus slechts 3 nuttig gebruikt kunnen worden i.v.m. 32bits server OS.
  • Ultrium LTO2 interne tape drive
  • SBS2003 en ingezet als
    • Exchange server;
    • SQL server (tijdsregistratie en exact)
    • Back-up server (interne LTO2 tape drive)
Wat is het probleem?

De huidige server kan al een tijdje niet meer aan wat hij zou moeten kunnen:
  • Printen gaat tegenwoordig direct vanaf pc i.p.v. via de server, waardoor op alle clients alle benodigde printers geïnstalleerd moeten worden. Dit is vooral vervelend als en een pc opnieuw geïnstalleerd moet worden.
  • Verder past een volledige back-up niet meer op 1 LTO2 tape (met compressie) en moeten er dingen weggelaten worden. Als een back-up mislukt om wat voor reden dan ook, dan moet die 's avonds opnieuw gedaan worden, omdat anders het netwerk platligt (server te druk). Ook wordt de volledige back-up enkel op vrijdag gemaakt, omdat die anders 's ochtends nog bezig is terwijl er dan weer mensen willen gaan werken. De rest v/d week (ma - do) wordt er een incrementele back-up gemaakt. Dit is geen goede situatie.
Omdat we van het MT groen licht hebben gekregen om Q4 2011 een nieuwe server te implementeren zijn mijn collega en ik al een tijdje druk bezig om een "boodschappenlijstje" samen te stellen voor onze nieuwe omgeving.

Wat willen we? (wensen)

Een nieuwe server

(liefst HP, huidige beviel in principe goed, hebben ook meerdere HP clients, bevallen ook goed)
Huidige keuze is gevallen op een DL380 G7 met:
  • 2x E5645 Xeon processor
  • 48 GB RAM DDRIII (2x 3x 8GB)
  • RPS 430W
  • 1GB FBWC uitbreiding voor de p410i controller
  • 2x 72GB 15k rpm SAS HDD (RAID 1) voor OS fysieke server
  • 6x 450GB 10k rpm SAS HDD (RAID 0+1) voor 4x virtuele server
  • MS Windows Server 2008 R2 Enterprise
  • Bij deze nieuwe server wordt ook een nieuwe UPS besteld, want de accu’s van de huidige UPS zijn versleten. APC 1500VA smart UPS.
Vragen over de nieuwe server (/ hardware):
  • Vraag 1: Is een RAID 0+1 set van 6x 450GB 10k rpm SAS beter qua performance dan een RAID 5 set van 6x 300GB 10k rpm SAS schijven? Dat we dan ongeveer 1300 GB ruimte beschikbaar hebben i.p.v. ongeveer 1450 GB, is niet erg.
  • Vraag 2: Als we kiezen voor een RAID 0+1 oplossing i.p.v. RAID 5, is het dan nog steeds aan te raden om de 1GB FBWC optie te nemen op de p410i controller? Of is dit overkill?
Vragen over de nieuwe server (/ software):
  • Vraag 3: Wat zou voor ons het beste zijn gezien de mogelijkheden met virtuele servers en software licenties (, - en bijbehorende licentiekosten). Uitgangspunt hierbij is dat de komende 5 jaar het personeelsbestand kan groeien tot 50 gebruikers en dat er meer vanuit huis gewerkt gaat worden. Ik heb een topic gelezen over een soortgelijke situatie (ook MKB met 30 personeelsleden) waarbij 1x SBS2011 wordt aangeraden met de premium upgrade licentie, waardoor Server 2008 R2 op de fysieke server wordt gezet en 1x virtueel SBS2011 en 1x virtueel Server 2008 kan worden ingezet.
    Onze huidige offerte (van de IT pro die het komt implementeren) gaat uit van Server 2008 R2 Enterprise. Hierdoor hebben we meteen licenties voor 4 virtuele servers, waardoor we beter de boel (SQL, Exchange, printen, back-up, etc.) kunnen verdelen over de servers en ook betere fail-safe opties hebben?
    Wat ik wel zie is dat we dan wel een losse SQL server 2008 en losse Exchange Server 2010 moeten aanschaffen met bijbehorende user CALs. Dit wordt volgens mij een duur plaatje. Zo het er nu naar uitziet o.b.v. 50 users kom ik richting de 10k € uit alleen al voor MS software. Ik heb me proberen te verdiepen in de licenties die hierbij worden genoemd, maar zie door de MS bomen het licentie-bos echt niet meer… Is hier misschien iemand die ons hierbij een zetje in de juiste richting kan geven om een goed onderbouwd besluit hierover te nemen?
Nieuwe back-up oplossing

I.p.v. een tape oplossing willen we gaan backuppen op een NAS. Ons idee is als volgt:
  • 2x 1 NAS in een ander gebouw (gebouwen 2 en 4), welke d.m.v. replication software elkaars mirror zijn;
  • NAS: Netgear 6-Bay ReadyNAS Pro (RNDP6000) elk voorzien van:
    • 6 stuks WD RE4 GP 2TB 5400 rpm SATA HDD in RAID 0 (replication software zou moeten zorgen voor mirror op andere NAS, zodat in mijn ogen RAID 0+1 ontstaat)
    • Elke NAS aangesloten op eigen APC Back-UPS RS 550VA BR550GI
Daarnaast komt er een externe USB HDD van 1TB om wekelijks (o.i.d.) backup data van de NAS offsite te halen.

Vanwege onze internetverbinding (XS4ALL ADSL) en gebrek aan coax in de straat (industrieterrein) en de slechte mogelijkheden van KPN op DSL gebied, laten we de mogelijkheid van online backuppen liever achterwege.

Vragen m.b.t. backup oplossing:
  • Vraag 4: Hebben we met 2 NASsen met een RAID 0 set, replication software, UPS per NAS en een externe HDD een deugdelijke back-up oplossing? Of vinden jullie dat het anders moet, bijvoorbeeld door een andere RAID setup in de NAS te draaien.
  • Vraag 5: We willen de ruimte op de NASsen ook gedeeltelijk gebruiken om archiefbestanden op te plaatsen (foto’s en PDF-jes). Voorzien jullie hier problemen mee? Zouden we ze misschien toch met 2Gbit (dubbele glasvezelloop) aan de server moeten hangen? Of is 1Gbit hiervoor voldoende? De verbinding van 1 naar 2Gbit upgraden kost ook weer € 2.000,00 extra, dus als het nodig is, kunnen we het voorstellen richting MT, maar als hier geen noodzaak toe is, krijgen wij het ook niet verkocht.
Netwerk-upgrade

Huidige situatie:
De gebouwen zijn onderling d.m.v. glasvezel verbonden. Deze vezels (6 stuks per gebouw) zijn weer door een 10/100mbit converter aangesloten op 10/100mbit switches. De huidige 48p 10/100 switch bij de server, waar alle clients en MFPs in het kantoorgebouw (gebouw 1) aan hangen, begint ook langzaam de geest te geven (poorten die uitvallen). Deze dient dus vervangen te worden.

Plannen:
Om gelijk het hele netwerk naar Gbit-LAN te upgraden, willen we ook de switches in gebouwen 2 en 4 vervangen. Daarnaast willen we rekening houden met mogelijkheid tot implementatie van VoIP in gebouwen 1, 2 en 4. De 10/100 converters willen we ook omzeilen door de switches direct aan de glasvezel te hangen.

Omdat gebouw 4 slechts 2 telefoons heeft, willen we hier een ‘gewone’ 16p Gbit switch (HP JE005A) hangen en de VoIP telefoons daar voorzien van een 230V netadapter, i.p.v. een PoE switch daar neer te zetten. Deze keuze is puur uit kosten oogpunt gemaakt.
Gebouw 2 zal een 24p PoE Gbit switch krijgen. (HP JE007A)
Gebouw 1 zal 2 stuks 24p PoE Gbit switchen (HP JE007A) krijgen voor VoIP telefonie en 1x een 48p Gbit switch voor data (HP JE009A). Zo hebben we overal Gbit LAN en ruimte voor uitbreiding. Voor de switchen hebben we de V1910 serie van HP in gedachten, zie de fabrikant type# achter de switches.

Enkele vragen over de switches en het aansluiten ervan:
  • Vraag 6: Zijn dit goede switches voor het bedoelde gebruik? Of is het beter om een ‘klasse’ hogere switch (2800 of 2900 serie?) te nemen of nog een andere? En zo ja, waarom?
  • Vraag 7: De genoemde switches beschikken allen over 4 SFP poorten. Wat ik nog niet heb kunnen vinden is:
    • 7a: Kunnen hier direct UTP Cat5e patchkabels ingestoken worden met RJ45 stekker om de switches onderling te verbinden? Of moet er dan ook een adapter in net zoals bij een glasvezel aanlsuiting?
    • 7b: Kan hier een JD493A (HP NETWORKING X124 1G SFP LC SX TRANSCEIVER) in gestoken worden? Ik kom op internet tegenstrijdige berichten tegen. Als dit namelijk kan, komt hier dan per adapter 1 of 2 glasvezel(s) in te zitten? M.a.w. hebben we voor een up en download link met een ander gebouw 1 of 2 adapters nodig per switch? Als ik nu in de patchkast kijk, lijkt me de stekker van de glasvezel aansluiting bijna net zo groot als een RJ45 stekker. Mijn idee is dat we 2 adapters per switch per gebouw nodig hebben, 1 up en 1 down. Beetje moeilijk verhaal zo, maar hoop dat jullie het begrijpen.
    • 7c: Kunnen daarnaast ook de gewone aansluitingen (een van de 16, 24 of 48 poorten) gebruikt worden om de switches onderling te verbinden? Ik denk het wel, maar zou het graag bevestigd zien.
    • 7d: Wat zou de beste keuze zijn om de server aan de switches te hangen? Zoals ik het begrepen heb, heeft de server 4 Gbit LAN aansluitingen. Ik zou denken, 1 aan elke 24p switch en 2 aan de 48p switch. Als dan alle switches ook onderling verbonden zijn, zou dit een kapotte switch moeten kunnen opvangen, toch? Misschien kan dit allemaal beter verdeeld of aangesloten worden, maar ik zou niet weten hoe, advies is hierbij welkom.
Tenslotte wil ik nog even vermelden dat we van VoIP-telefonie nog op een offerte wachten. Zodra ik deze gehad heb, zou ik dit ook nog graag willen checken met jullie kundigheid. Wat ik hierover alvast wel kan vragen (Vraag 8 ) is de algemene indruk die jullie hebben over kosten en gebruiksvriendelijkheid van VoIP telefonie t.o.v. ‘standaard’ telefonie i.c.m. een ‘gewone’ telefooncentrale. Wij hebben nu ook een dedicated telefooncentrale die door een externe firma “onderhouden” wordt. Elk jaar mogen wij onderhoudskosten betalen (volgens een onderhoudscontract) en als er storing is, dan is het meteen uurtje-factuurtje. We willen dus kijken of het loont om dit met VoIP telefonie in eigen beheer te kunnen doen.

Al met al een lang verhaal, maar ik hoop dat jullie ons nog wat advies kunnen geven, zodat wij een goed onderbouwde keuze kunnen maken voor onze nieuwe netwerk infrastructuur. Alvast hartelijk dank voor het lezen van en reageren op dit verhaal! Alle hulp is welkom.

Lenovo Thinkpad Yoga X380


  • Saab
  • Registratie: Augustus 2003
  • Laatst online: 06-10 16:59
Over je laatste vraag met betrekking tot VOIP. Je besparing hangt af van wat je nu zoal kwijt bent en hoe die kosten zijn opgebouwd. Hoe loopt je interne verkeer nu?

Qua beheer vond ik bij mijn vorige werkgever, waar ik het beheer deed van de centrale( Nortel Meridian) het niet direct een enorm verschil. Ik werkte het liefst via de prompt ipv een webinterface, want heel direct en meteen resultaat, maar als je een dagje met de installateur meekijkt, of als je een training volgt kun je het denk ik prima zelf. Zodra de infrastructuur er ligt is het een kwestie van toestellen programmeren en misschien ooit iets doen met wachtrijen en/of hunt groepen.

De rest van je vragen, ik weet niet of je dat moet willen, een backup op een NAS(je) en dan naar USB harde schijf. Weet jij zeker dat die ook echt mee wordt genomen naar een andere locatie? Bij die NAS systemen die je noemt heb ik mijn vraagtekens of die in je omgeving zullen voldoen.

Kan je leverancier je niet met dit soort vragen helpen? Die kent je situatie beter en jullie behoeften en kan daar zijn offerte op aanpassen. Verder, wat is nu dan de bottleneck met je huidige server?

Begrijp ik goed dat je een glasverbinding tussen de gebouwen hebt? Beter lezen...

Klopt het dat je op die nieuwe server ook virtuele servers wilt installeren? Als je maar 1 server hebt dan schiet je qua fail-over niet echt iets op. Je kunt prima virtualiseren maar zodra je RAID kaart ermee ophoudt is het toch echt voor alle servers einde oefening.

https://www.discogs.com/user/jurgen1973/collection


  • dreku88000
  • Registratie: Februari 2002
  • Laatst online: 28-11 12:54
Ober telefonie kan ik nu weinig zeggen, maar backuppen op een nas en dan naar externe hdd was iets waar onze huis ict-er mee kwam en waar wij zelf ook wel aan zaten te denken. Nu moeten we iedere dag een tape wisselen. Dit wordt netjes afgetekend als het gebeurd is en door 2e persoon in de gaten gehouden of het niet vergeten wordt. Wat dat betreft ben ik niet bang dat wij de discipline missen om de externe hdd mee van het terrein te nemen.

De bottleneck zit hem nu volgens mij in de dubbele raid 5 set op één niet optimale controller en gebrek aan voldoende geheugen om alle processen makkelijk te draaien.

Lijkt het jou miss beter om 2 fysieke servers te nemen die dan wat minder uitgerust zijn en elk 1 virtuele server draaien? Dan heb je wel betere fail-safe opties toch? Ik zal eens naar deze optie kijken wat hardware betreft, thanx voor de tip!

[ Voor 7% gewijzigd door dreku88000 op 22-09-2011 22:48 . Reden: Verkeerde knop gedrukt.... ]

Lenovo Thinkpad Yoga X380


  • wagenveld
  • Registratie: Februari 2002
  • Niet online
Ik denk dat je beter een echte backup server kunt draaien in een andere gebouw als disaster recovery. Ga voor een goedkoop doosje, RAID1 voor OS, losse SATA schijven als backup volumes. Als je System Essentials Plus aanschaft krijg je daar gebruiksrecht voor DPM bij. In combinatie met Hyper V als virtualizatie de mooiste oplossing.
Om het plaatje compleet te maken zou je op termijn een lichtere host erbij kunnen zetten waar je in een handomdraai al je machines naar kunt recoveren mocht je hoofd host ermee ophouden.

http://www.microsoft.com/...ud/system-center/buy.aspx

  • DJSmiley
  • Registratie: Mei 2000
  • Laatst online: 13-11 18:21
dreku88000 schreef op donderdag 22 september 2011 @ 09:07:
....
• Vraag 5: We willen de ruimte op de NASsen ook gedeeltelijk gebruiken om archiefbestanden op te plaatsen (foto’s en PDF-jes). Voorzien jullie hier problemen mee? Zouden we ze misschien toch met 2Gbit (dubbele glasvezelloop) aan de server moeten hangen? Of is 1Gbit hiervoor voldoende? De verbinding van 1 naar 2Gbit upgraden kost ook weer € 2.000,00 extra, dus als het nodig is, kunnen we het voorstellen richting MT, maar als hier geen noodzaak toe is, krijgen wij het ook niet verkocht.
Van wie is die glasvezel en waarom zou dat 2k kosten? Als er nu 2 vezels liggen kun je al 2x1Gbit eroverheen jagen, gewoon 1000Base-BX modules pakken. Desnoods pak je 10G.
Maar goed, als ik het zo hoor is 1Gbit al meer dan voldoende. Backup zal toch 's nachts lopen, en je moet een redelijke nas hebben wil je 1Gbit dichttrekken.
• 7a: Kunnen hier direct UTP Cat5e patchkabels ingestoken worden met RJ45 stekker om de switches onderling te verbinden? Of moet er dan ook een adapter in net zoals bij een glasvezel aanlsuiting?
Een SFP slot kan geen patchkabeltje bevatten. Je zal hier een SFP in moeten stoppen. Die zijn er ook in 1000Base-T (Koper) aansluiting. Wel zijn SFP soms gecombineerd met koperpoorten, dus even goed opletten en deze afdoppen zodat ze niet perongeluk gebruikt worden (en in de config dichtspijkeren)
• 7b: Kan hier een JD493A (HP NETWORKING X124 1G SFP LC SX TRANSCEIVER) in gestoken worden? Ik kom op internet tegenstrijdige berichten tegen. Als dit namelijk kan, komt hier dan per adapter 1 of 2 glasvezel(s) in te zitten? M.a.w. hebben we voor een up en download link met een ander gebouw 1 of 2 adapters nodig per switch? Als ik nu in de patchkast kijk, lijkt me de stekker van de glasvezel aansluiting bijna net zo groot als een RJ45 stekker. Mijn idee is dat we 2 adapters per switch per gebouw nodig hebben, 1 up en 1 down. Beetje moeilijk verhaal zo, maar hoop dat jullie het begrijpen.
Die SFP zal er vast inkunnen. Alleen is 1000Base-SX een multimode module. Wat voor vezels liggen er? Single mode zou het mooist zijn, bij mm moet je ook opletten op de vezelspecs (OM1/2/3/4) en de juiste patchkabels hebben uiteraard
• 7c: Kunnen daarnaast ook de gewone aansluitingen (een van de 16, 24 of 48 poorten) gebruikt worden om de switches onderling te verbinden? Ik denk het wel, maar zou het graag bevestigd zien.
• 7d: Wat zou de beste keuze zijn om de server aan de switches te hangen? Zoals ik het begrepen heb, heeft de server 4 Gbit LAN aansluitingen. Ik zou denken, 1 aan elke 24p switch en 2 aan de 48p switch. Als dan alle switches ook onderling verbonden zijn, zou dit een kapotte switch moeten kunnen opvangen, toch? Misschien kan dit allemaal beter verdeeld of aangesloten worden, maar ik zou niet weten hoe, advies is hierbij welkom.
[/list][/list]
Ja, je kan alles aan elkaar knuppen zoals je maar zou willen, maar het moet wel goed geconfigged worden zodat er geen loops optreden.
Tenslotte wil ik nog even vermelden dat we van VoIP-telefonie nog op een offerte wachten. Zodra ik deze gehad heb, zou ik dit ook nog graag willen checken met jullie kundigheid. Wat ik hierover alvast wel kan vragen (Vraag 8 ) is de algemene indruk die jullie hebben over kosten en gebruiksvriendelijkheid van VoIP telefonie t.o.v. ‘standaard’ telefonie i.c.m. een ‘gewone’ telefooncentrale. Wij hebben nu ook een dedicated telefooncentrale die door een externe firma “onderhouden” wordt. Elk jaar mogen wij onderhoudskosten betalen (volgens een onderhoudscontract) en als er storing is, dan is het meteen uurtje-factuurtje. We willen dus kijken of het loont om dit met VoIP telefonie in eigen beheer te kunnen doen.
Voip is leuk... maar voor jouw durf ik het niet te zeggen. Met een simpel dsl lijntje als uplink zou ik het hoogstens voor intern gebruik overwegen. De buitenwereld op ISDN2/MV ISDN/ISDN30 houden.
Uiteraard is dit wel afhankelijk van het aantal gelijktijdige gesprekken, maar een DSL lijntje is niet echt super voor veel gesprekken en nog eens internet erbij en remote werkplekken.. En meerdere DSL lijnen naast elkaar kan, maar dan worden je maandelijkse kosten ook een stuk hoger. Dat, icm de kosten van een fatsoenlijke (multi-wan) router zal aardige maandlasten opleveren.

Kun je geen glasvezel krijgen? Op de meeste bedrijventerreinen ligt glas. Als je dan voip gaat doen is dat prima mogelijk kwa bandbreedte, en kwa kosten maakt t glas dan ook interessanter.
Imho is voip geen optie zonder glasvezel (of kabel met hogere bandbreedte)
Al met al een lang verhaal, maar ik hoop dat jullie ons nog wat advies kunnen geven, zodat wij een goed onderbouwde keuze kunnen maken voor onze nieuwe netwerk infrastructuur. Alvast hartelijk dank voor het lezen van en reageren op dit verhaal! Alle hulp is welkom.
Huur een netwerktent in die eens de set komt bekijken en de wensen komt doornemen. Kun je alles zelf onderhouden en in eigen beheer nemen? Dat kan wel eens duurder uitvallen dan het laten doen/uitbesteden en een partij met kennis achter de hand te hebben.
Reken ook eens na wat het kost als het stopt met werken.. kun je zelf debuggen en/of heb je spareparts? Je bepaart aardig geld, maar 't kan nog veel meer kosten als t mis gaat of je zonder hardware zit of whatever.

Mogelijk kan het ook interessant zijn om eea te gaan subnetten en wat beter te splitsen.

  • Saab
  • Registratie: Augustus 2003
  • Laatst online: 06-10 16:59
Oplossing van Wapenveld klinkt ook mooi idd.

De oplossing die ik zou aandragen gaat in de papieren lopen, denk niet dat je dat spits krijgt bij je MT. Maar ik zou opteren voor twee servers met een simpele raid1 set voor vSphere en een shared storage ertussen.

https://www.discogs.com/user/jurgen1973/collection


  • kokkel
  • Registratie: September 2000
  • Laatst online: 27-11 13:11
Goed antwoord DJSmiley sluit me er bij aan vooral het inhuren van een 3e partij met de betreffende kennis. Ik zou persoonlijk wel wisselen van HP switches naar Cisco switches, vind persoonlijk hp een vervelende command structuur hebben.

  • dreku88000
  • Registratie: Februari 2002
  • Laatst online: 28-11 12:54
Ten eerste hartelijk dank voor het lezen van de TS en het replyen met deze goede input. Hier kan ik wat mee!
wagenveld schreef op donderdag 22 september 2011 @ 22:53:
Ik denk dat je beter een echte backup server kunt draaien in een andere gebouw als disaster recovery. Ga voor een goedkoop doosje, RAID1 voor OS, losse SATA schijven als backup volumes. Als je System Essentials Plus aanschaft krijg je daar gebruiksrecht voor DPM bij. In combinatie met Hyper V als virtualizatie de mooiste oplossing.
Om het plaatje compleet te maken zou je op termijn een lichtere host erbij kunnen zetten waar je in een handomdraai al je machines naar kunt recoveren mocht je hoofd host ermee ophouden.

http://www.microsoft.com/...ud/system-center/buy.aspx
Onze huis-ICTer (dus de pro die we inhuren voor ondersteuning en implementatie van het nieuwe spul) had idd ook het voorstel om een backup server te draaien met DPM, maar dan op 1 v/d virtuele servers op de server in gebouw 1. De NASsen zijn dan bedoeld als storage voor die backup server en om wat meer zekerheid in te bouwen mocht 1 v/d gebouwen afbranden, of mocht er ergens ingebroken worden. Als brand het geval is, is het maar de vraag of niet het hele terrein weg is en zullen we waarschijnlijk meer hebben aan de offsite backup, maar goed.
DJSmiley schreef op donderdag 22 september 2011 @ 23:05:
[...]


Van wie is die glasvezel en waarom zou dat 2k kosten? Als er nu 2 vezels liggen kun je al 2x1Gbit eroverheen jagen, gewoon 1000Base-BX modules pakken. Desnoods pak je 10G.
Maar goed, als ik het zo hoor is 1Gbit al meer dan voldoende. Backup zal toch 's nachts lopen, en je moet een redelijke nas hebben wil je 1Gbit dichttrekken.
Die glasvezel is van ons. Ik zal dit even verder toelichten. Onze gebouwen staan ongeveer 100 m uit elkaar. Met een paar meter extra om van en naar een switch te komen, zaten we op de grens van wat UTP aankon. Dit leidde tot zeer veel problemen met data verbindingen in gebouwen 2 en 4. Daarom hebben we enkele jaren geleden geinvesteerd in glasvezelkabels tussen gebouwen 1, 2 en 4. Er liggen 6 kabels tussen gebouw 1 en 2 en ook 6 tussen gebouw 1 en 4. Voor zover ik tot nu toe heb kunnen vinden zijn er 2 kabels nodig om een up en down verbinding te krijgen (1 richting per kabel). Ik heb er even wat foto's van gemaakt voor de duidelijkheid, die kun je hier vinden.

Als ik kijk naar de prijs van een SFP adapter (ongeveer € 200,-) en het aantal dat ik er nodig heb om beide lussen nog een keer extra uit te voeren, dan kom ik al op ongeveer € 1600,- of niet? Met wat patchkabels en instelwerk ga je dan toch richting de € 2.000,-?
[...]

Een SFP slot kan geen patchkabeltje bevatten. Je zal hier een SFP in moeten stoppen. Die zijn er ook in 1000Base-T (Koper) aansluiting. Wel zijn SFP soms gecombineerd met koperpoorten, dus even goed opletten en deze afdoppen zodat ze niet perongeluk gebruikt worden (en in de config dichtspijkeren)
Maar ik kan dus andere 'gewone' poorten gebruiken om de switches onderling te verbinden, dus dan is dit geen probleem. Dank voor de info.
[...]


Die SFP zal er vast inkunnen. Alleen is 1000Base-SX een multimode module. Wat voor vezels liggen er? Single mode zou het mooist zijn, bij mm moet je ook opletten op de vezelspecs (OM1/2/3/4) en de juiste patchkabels hebben uiteraard
Zie ook de link hierboven voor de foto's van de kabels en stekkers.
[...]


Ja, je kan alles aan elkaar knuppen zoals je maar zou willen, maar het moet wel goed geconfigged worden zodat er geen loops optreden.


[...]


Voip is leuk... maar voor jouw durf ik het niet te zeggen. Met een simpel dsl lijntje als uplink zou ik het hoogstens voor intern gebruik overwegen. De buitenwereld op ISDN2/MV ISDN/ISDN30 houden.
Uiteraard is dit wel afhankelijk van het aantal gelijktijdige gesprekken, maar een DSL lijntje is niet echt super voor veel gesprekken en nog eens internet erbij en remote werkplekken.. En meerdere DSL lijnen naast elkaar kan, maar dan worden je maandelijkse kosten ook een stuk hoger. Dat, icm de kosten van een fatsoenlijke (multi-wan) router zal aardige maandlasten opleveren.

Kun je geen glasvezel krijgen? Op de meeste bedrijventerreinen ligt glas. Als je dan voip gaat doen is dat prima mogelijk kwa bandbreedte, en kwa kosten maakt t glas dan ook interessanter.
Imho is voip geen optie zonder glasvezel (of kabel met hogere bandbreedte)
We hebben een ADSL verbinding voor internet en ISDN lijnen voor telefonie. Dat willen we in principe niet wijzigen. Zoals ik het tot nu toe begrepen heb, hebben we 8 lijnen naar buiten voor telefonie. Dit willen we met een VoIP gateway verbinden met het interne VoIP netwerk (dit idee komt van onze pro btw). Als ik het goed begrepen heb, hebben we dan intern VoIP telefonie en kunnen telefoontjes naar buiten via de gateway over de bestaande ISDN verbinding plaatsvinden (correct me if I'm wrong).

Glasvezel is voor zover we hebben kunnen achterhalen geen optie hier. Wel kunnen we DSL van KPN afnemen, maar als ik die kosten afzet tegen de snelheid, dan is dat ook compleet uit verband en niet sneller dan ons huidige ADSL lijntje van een paar tientjes per maand. De buren schijnen btw wel glas (of iets anders snels) te hebben liggen, dus ik ga hier nog eens achteraan!
[...]

Huur een netwerktent in die eens de set komt bekijken en de wensen komt doornemen. Kun je alles zelf onderhouden en in eigen beheer nemen? Dat kan wel eens duurder uitvallen dan het laten doen/uitbesteden en een partij met kennis achter de hand te hebben.
Reken ook eens na wat het kost als het stopt met werken.. kun je zelf debuggen en/of heb je spareparts? Je bepaart aardig geld, maar 't kan nog veel meer kosten als t mis gaat of je zonder hardware zit of whatever.

Mogelijk kan het ook interessant zijn om eea te gaan subnetten en wat beter te splitsen.
We hebben idd ook een pro ingehuurd die ons komt helpen (en dat al eerder heeft gedaan). Hij is bekend met onze omgeving en heeft het ook min of meer voorgesteld zoals ik het in mijn TS gepost heb. De bedoeling is dat wij tijdens implementatie van het nieuwe spul min of meer hands-on instructie van hem krijgen en later (of gelijktijdig) nog een cursus volgen. Ik heb daar al wat in rond zitten kijken en denk dat MCITP SA of EA interessant kan zijn voor ons (voor server en netwerkbeheer).

Mochten we idd ook VoIP gaan implementeren, dan zal dat waarschijnlijk gebaseerd zijn op Cisco spullen. Mij lijkt het dan voor ons ook handig als we daarin ook een cursus volgen. CCNP Voice een goede keuze dan? Of is er een andere cursus die beter bij ons niveau en gebruik past? Volgens mij gaan wij dan enkel met Cisco communications manager werken en als er echt iets mis is, laten we toch de pro langskomen.

Nogmaals hartelijk dank aan jullie voor de info en input tot nu toe!

Lenovo Thinkpad Yoga X380


  • DJSmiley
  • Registratie: Mei 2000
  • Laatst online: 13-11 18:21
dreku88000 schreef op vrijdag 23 september 2011 @ 09:05:


Die glasvezel is van ons. Ik zal dit even verder toelichten. Onze gebouwen staan ongeveer 100 m uit elkaar. Met een paar meter extra om van en naar een switch te komen, zaten we op de grens van wat UTP aankon. Dit leidde tot zeer veel problemen met data verbindingen in gebouwen 2 en 4. Daarom hebben we enkele jaren geleden geinvesteerd in glasvezelkabels tussen gebouwen 1, 2 en 4. Er liggen 6 kabels tussen gebouw 1 en 2 en ook 6 tussen gebouw 1 en 4. Voor zover ik tot nu toe heb kunnen vinden zijn er 2 kabels nodig om een up en down verbinding te krijgen (1 richting per kabel). Ik heb er even wat foto's van gemaakt voor de duidelijkheid, die kun je hier vinden.
Aan de foto's te zien ligt er dus multimode OM2 tussen de lokaties. Prima dus (Al is mijn persoonlijke voorkeur voor SM maar goed, met jouw afstanden voldoet MM, en heb je met OM2 ook nog wel wat toekomstperspectief).
Als ik kijk naar de prijs van een SFP adapter (ongeveer € 200,-) en het aantal dat ik er nodig heb om beide lussen nog een keer extra uit te voeren, dan kom ik al op ongeveer € 1600,- of niet? Met wat patchkabels en instelwerk ga je dan toch richting de € 2.000,-?
Volgens mij heb je 4 SFP's nodig voor 2 gebouwen (beide kanten een SFP), ervanuitgaand dat je 1Gbit legt (wat naar mijn gevoel voldoende is).
SFP prijzen... tja.. ligt ook aan het merk. Een cisco-certified ding is een stuk duurder dan een simpele module. (voor 80 eur kun je ook prima modules scoren). Patchkabeltjes zijn de kosten niet, ik gok dat je met 100 eur klaar bent. Instellen is peanuts en kan toch worden meegenomen in de upgrade.
Glasvezel is voor zover we hebben kunnen achterhalen geen optie hier. Wel kunnen we DSL van KPN afnemen, maar als ik die kosten afzet tegen de snelheid, dan is dat ook compleet uit verband en niet sneller dan ons huidige ADSL lijntje van een paar tientjes per maand. De buren schijnen btw wel glas (of iets anders snels) te hebben liggen, dus ik ga hier nog eens achteraan!
8 lijnen betekend nu dus vermoedelijk 4x Meervoudig ISDN. Vermoedelijk ligt er ook een lijntje tbv alarm of whatever, en je hebt een dsl lijn.

MV ISDN: 25 eur (ofzo) x 4
los lijntje: zeg 20 eur
DSL lijntje: zeg 35 eur
totaal zit je dan op 155 eur/mnd even snel geschat. Bij duurdere lijnen/sla's enz zit je nog hoger. Daarmee kom je al aardig in de buurt van de maandelijkse tarieven van een glaslijntje, waar je dan ook nog eens fatsoenlijk over kunt voipen en remote werken.

  • dreku88000
  • Registratie: Februari 2002
  • Laatst online: 28-11 12:54
Wederom dank voor het delen van je kennis. Ik ben nog een leek wat betreft glasvezel, maar denk dat het begint te dagen. Als ik het goed begrijp is het dus als volgt:

In de nieuwe switch in gebouw 1 komt een SFP adapter. In deze ene adapter steek ik dan bijvoorbeeld zo'n patchkabeltje. Dit kabeltje steek ik in de zwarte (hoe heet zo'n ding) glasvezel-patch-apparaat, die ook op de bovengenoemde foto's staat, waar nu de oranje glasvezelpatchkabels ook inzitten die nu richting de 10/100 converters gaan. Van hieruit gaan dus fysiek 2 vezels ri gebouw 2, waar ik hetzelfde verhaal andersom heb richting de switch aldaar.

Ik ben ook even het verhaal van 2 fysieke servers aan het bekijken (thanx voor de tip Saab). Wat ik vooral moeilijk vind is een goede keuze te maken van MS server software. Ik heb de Microsoft license advisor wizard erbij gepakt en kom tot de volgende inzichten:

Zoals onze ict-pro het voorstelde gaan we met Server 2008 R2 Enterprise aan de gang. Zo kunnen we 4x een server virtualiseren op 1 fysieke server. Wel hebben we dan SQL en Exchange los nodig. Wat fail-safe betreft is dit niet echt een redundant oplossing natuurlijk, zoals Saab ook al zegt. Kosten zoals ik het inschat voor 40 users ongeveer € 9.700,00.

Volgende idee wordt dan om 2 servers te nemen, single proc en minder geheugen en HDD ruimte, zodat er ook fysiek beter gescheiden kan worden en er wel dingen van server 1 door server 2 overgenomen kunnen worden als dit nodig vanwege H/W failure.

Qua software kom ik dan op 2 keuze's:
1. 2x Server 2008 R2 Standaard en los SQL en Exchange. Voor 40 users kom ik dan op ongeveer € 8850,00.
2. 1 SBS 2011 met 1x premium add-on. Dan heb ik als het goed is SBS2011, 2008 R2, SQL 2008 en Exchange 2010 en kom ik met de wizard op ongeveer € 7850,00.

Tussen 1 server met 2008 R2 Enterprise OS en 2 servers met SBS2011 OS met premium add-on zit bijna € 2000,00 verschil. Dit vind ik wel de moeite om even goed na te kijken voordat we hierin een keuze maken.

Wel is de vraag of ik dan SBS2011 met Exchange op de ene server kan draaien en 2008 R2 met SQL op de andere. Dat kan volgens mij. Op die 2008 R2 licentie mag ik ook nog 1x virtueel een server draaien toch? Dat is dus alleen om virtualisatie software te draaien voor de virtuele server. Exchange en SQL trekken er nu qua resources het hardst aan, dus als ik die al kan verdelen op 2 servers, gaat het volgens mij al een stuk soepeler lopen. Als ik dus eigenlijk server 1 wil virtualiseren op server 2 in geval van een H/W fail of andersom, dan heb ik eigenlijk 2x 2008 R2 Enterprise nodig? Of toch niet? Of als ik bijvoorbeeld 2x 2008 R2 std heb, en de ene server valt om, mag ik dan met die open licentie (van server 1) die server virtualiseren op server 2? Bottom line is dat we minimaal SQL en Exchange apart willen draaien en wenselijk is om ook AD en backup server apart te hebben als dat kan.

Lenovo Thinkpad Yoga X380


Verwijderd

Ik heb even je post in stukjes gekapt en mn mening neergeschreven op een aantal van je punten.
dreku88000 schreef op donderdag 22 september 2011 @ 09:07:
Printen gaat tegenwoordig direct vanaf pc i.p.v. via de server, waardoor op alle clients alle benodigde printers geïnstalleerd moeten worden. Dit is vooral vervelend als en een pc opnieuw geïnstalleerd moet worden.
Dit is iets wat perfect zou kunnen opgelost worden door een print server samen met group policies - of via image beheer voor de desktops.
dreku88000 schreef op donderdag 22 september 2011 @ 09:07:
Een nieuwe server

(liefst HP, huidige beviel in principe goed, hebben ook meerdere HP clients, bevallen ook goed)
Huidige keuze is gevallen op een DL380 G7 met:
  • 2x E5645 Xeon processor
  • 48 GB RAM DDRIII (2x 3x 8GB)
  • RPS 430W
  • 1GB FBWC uitbreiding voor de p410i controller
  • 2x 72GB 15k rpm SAS HDD (RAID 1) voor OS fysieke server
  • 6x 450GB 10k rpm SAS HDD (RAID 0+1) voor 4x virtuele server
  • MS Windows Server 2008 R2 Enterprise
  • Bij deze nieuwe server wordt ook een nieuwe UPS besteld, want de accu’s van de huidige UPS zijn versleten. APC 1500VA smart UPS.
Let op voor de HP 450GB schijven, dit zijn volgens mij LFF schijven, in een 380 G7 kunnen ofwel 8 (of 16 met extra drive cage) SFF schijven of 6 LFF schijven.
dreku88000 schreef op donderdag 22 september 2011 @ 09:07:
Vraag 1: Is een RAID 0+1 set van 6x 450GB 10k rpm SAS beter qua performance dan een RAID 5 set van 6x 300GB 10k rpm SAS schijven? Dat we dan ongeveer 1300 GB ruimte beschikbaar hebben i.p.v. ongeveer 1450 GB, is niet erg.
Ja Raid 0+1 is performanter dan 5, maar of je het nodig hebt hangt af van hoe je applicaties opgaan met Disk IO, doorgaans is raid 5 voldoende.
dreku88000 schreef op donderdag 22 september 2011 @ 09:07:
Vraag 2: Als we kiezen voor een RAID 0+1 oplossing i.p.v. RAID 5, is het dan nog steeds aan te raden om de 1GB FBWC optie te nemen op de p410i controller? Of is dit overkill?
Zoals de situatie er nu uitziet zou ik voor de 1GB FBWC optie kiezen, aangezien je van plan bent om meerdere servers te gaan virtualiseren.
Voor jullie omgeving is een backup oplossing op disk (via NAS of Backup server in ander gebouw) geen slecht idee.
En dan uiteraard van Disk op tape of (meerdere) externe disken om offsite te bewaren.
Voor je netwerk zou ik een andere aanpak overwegen dan die je nu maakt.
De grotere netwerken bestaan meestal uit acces, distributie, core uitgebreid met management, internet acces, dmz, server enz.

Echter volstaat het voor jullie om de distributielaag achterwegen te laten.

Je koopt een aantal gigabit switches met POE van een degelijk merk met een poort voor elke werkplek, voor gebouw 4 en 2 zorg je ook dat die switch mistens 1 fiber of SFP poort heeft. Dit zijn je acces swicthen.

De meeste VoIP telefoons hebben een ingebouwde switch (zeker bij Cisco), dan kan je volgende configuratie maken: Switch(PoE) -> telefoon -> desktop. Hierdoor zorg je ervoor dat je minder bekabeling en switch poorten nodig hebt.

Daarnaast zorg je voor een core switch, op deze switch kan je dan al je andere switchen aansluiten, zorg er dus zeker voor dat er voldoende poorten zijn die fiber of SFPs ondersteunen. Ook de verbinding naar de internet router/firewall hang je hier aan, evenals je server(s). Aangezien dit de belangrijkste switch in je netwerk is kan je hem ook ontdubbelen.
Het kan een voordeel zijn om hier een layer 3 switch voor te nemen als je met meerdere VLANs zit.

HP heeft voor Windows teaming software die het mogelijk maakt om je server NICs in een team te zetten voor load-balancing en fail over doeleinden, zo kan je toch je 4 NICs aansluiten en slechts 1 IP adres gebruiken.

Mocht je gaan virtualiseren met VMware zit dit er ook in, en bij de meeste Linux versies kan het ook standaard.

En dan nog kort iets over VoIP, misschien kan een SIP trunk naar een SIP provider wel goedkoper uitkomen dan zelf je ISDN te behouden en met een gateway te werken.

Wat opleiding betreft is CCNP Voice nu niet het eerste wat ik zou gaan volgen, CCNP is absuluut geen instaplevel. Een goede training op jullie speciefieke omgeving door je IT implementator kan ook al wonderen doen.

  • Remco
  • Registratie: Januari 2001
  • Laatst online: 08:46
Verwijderd schreef op zaterdag 24 september 2011 @ 13:26:
Je koopt een aantal gigabit switches met POE van een degelijk merk met een poort voor elke werkplek, voor gebouw 4 en 2 zorg je ook dat die switch mistens 1 fiber of SFP poort heeft. Dit zijn je acces swicthen.

De meeste VoIP telefoons hebben een ingebouwde switch (zeker bij Cisco), dan kan je volgende configuratie maken: Switch(PoE) -> telefoon -> desktop. Hierdoor zorg je ervoor dat je minder bekabeling en switch poorten nodig hebt.
Je zou je af kunnen vragen of je wel Gbit POE switches wil aanschaffen als je telefoons koopt met een internal switch van 100 Mbit.
Het prijsverschil is behoorlijk tussen een 100 en een 1 Gbit telefoons.
En het klinkt heel mooi Gbit, maar heb je het op alle werkplekken ook daadwerkelijk nodig ?

The best thing about UDP jokes is that I don't care if you get them or not.


  • DJSmiley
  • Registratie: Mei 2000
  • Laatst online: 13-11 18:21
Remco schreef op zaterdag 24 september 2011 @ 19:29:
[...]

Je zou je af kunnen vragen of je wel Gbit POE switches wil aanschaffen als je telefoons koopt met een internal switch van 100 Mbit.
Het prijsverschil is behoorlijk tussen een 100 en een 1 Gbit telefoons.
En het klinkt heel mooi Gbit, maar heb je het op alle werkplekken ook daadwerkelijk nodig ?
Gbit is natuurlijk wel lekker richting de toekomst. Maar op dit moment betwijfel ik idd in hoeverre dat nodig is. Tenzij er veel grote files overgepompt worden is 100Mbit nog prima voldoende.

En als je gaat doorlussen via een toestel met een 100mbit poort is gigabit helemaal zinloos. Als je aan de POE wilt gaan, let dan wel even op dingen zoals POE standaard en stroomverbruik (lang niet elke switch kan poe op alle poorten aan als je fancy toestellen hebt)

Maar goed, wat is het budget van TS? Een dikke Cisco met smartnet, Cisco SFP modules, fully gigabit, dikke servers enz... als TS een totaalbudget van (bv) 10k heeft... dan blijft dat leuk om te noemen maar totaal niet meer relevant.

Overigens kun je ook nog kijken naar wat goedkopere merken. Ik heb zelf goede ervaringen met DCN. Is een (vrij onbekend) chiness merk, maar wel met een goede NL importeur. Voordeel is dat t 98% cisco-commandline compatible is, maar wel een stuk goedkoper. Voor het prijsverschil kun je zelf een complete set extra nemen en nog goedkoper uitzijn. Je hebt dan ook meteen speelgoed om mee te testen en spareparts in eigen voorraad. Een smartnet gaat wel verder (denk ook aan software support) maar bij dom switching vind ik dat eigenlijk niet echt nuttig.
Een DCN 48-poorts gigabit L2 switch met 4 SFP poorten kost je 1200 excl... Een Cisco (2960-S) 1750 excl.

Maar wat is verder de structuur van je netwerk? Een gigabit hoofdswitch met de servers en de uplinks naar de gebouwen in combinatie met een paar 24prt 10/100 switches voor de werkplekken die met 1gbit weer aan de hoofdswitch hangen, en een simpele 24prt 10/100 swich in de gebouwen (met 1 sfp voor de uplink en 1 gbit poort voor de nas) is een heel mooi betaalbare oplossing.

Als TS fully gigabit wil met L3 switching enz wordt het een heel andere prijsrange.
dreku88000 schreef op vrijdag 23 september 2011 @ 10:49:
Wederom dank voor het delen van je kennis. Ik ben nog een leek wat betreft glasvezel, maar denk dat het begint te dagen. Als ik het goed begrijp is het dus als volgt:

In de nieuwe switch in gebouw 1 komt een SFP adapter. In deze ene adapter steek ik dan bijvoorbeeld zo'n patchkabeltje. Dit kabeltje steek ik in de zwarte (hoe heet zo'n ding) glasvezel-patch-apparaat, die ook op de bovengenoemde foto's staat, waar nu de oranje glasvezelpatchkabels ook inzitten die nu richting de 10/100 converters gaan. Van hieruit gaan dus fysiek 2 vezels ri gebouw 2, waar ik hetzelfde verhaal andersom heb richting de switch aldaar.
Nee, dat kabeltje kan dus niet, degene die jij post is een OM1 MM snoertje (62.5/125um) terwijl je eerder geposte vezel een OM2 snoertje is (50/125um)
Maar los daarvan klopt je idee wel: Patchkabeltje van je SFP naar je glaslade en andersom.

Als jij aan de tent die je een offerte laat maken aangeeft dat je Multimode OM2 tussen de vestigingen hebt liggen, met aan alle kanten afgemonteerd op een glaslade met SC connectoren kunnen hun de rest lekker uitzoeken (ik ga er even vanuit dat je grondkabels ook OM2 zijn gezien de gebruikte patchsnoertjes)
Ik ben ook even het verhaal van 2 fysieke servers aan het bekijken (thanx voor de tip Saab). Wat ik vooral moeilijk vind is een goede keuze te maken van MS server software. Ik heb de Microsoft license advisor wizard erbij gepakt en kom tot de volgende inzichten:

Zoals onze ict-pro het voorstelde gaan we met Server 2008 R2 Enterprise aan de gang. Zo kunnen we 4x een server virtualiseren op 1 fysieke server. Wel hebben we dan SQL en Exchange los nodig. Wat fail-safe betreft is dit niet echt een redundant oplossing natuurlijk, zoals Saab ook al zegt. Kosten zoals ik het inschat voor 40 users ongeveer € 9.700,00.

Volgende idee wordt dan om 2 servers te nemen, single proc en minder geheugen en HDD ruimte, zodat er ook fysiek beter gescheiden kan worden en er wel dingen van server 1 door server 2 overgenomen kunnen worden als dit nodig vanwege H/W failure.

Qua software kom ik dan op 2 keuze's:
1. 2x Server 2008 R2 Standaard en los SQL en Exchange. Voor 40 users kom ik dan op ongeveer € 8850,00.
2. 1 SBS 2011 met 1x premium add-on. Dan heb ik als het goed is SBS2011, 2008 R2, SQL 2008 en Exchange 2010 en kom ik met de wizard op ongeveer € 7850,00.

Tussen 1 server met 2008 R2 Enterprise OS en 2 servers met SBS2011 OS met premium add-on zit bijna € 2000,00 verschil. Dit vind ik wel de moeite om even goed na te kijken voordat we hierin een keuze maken.

Wel is de vraag of ik dan SBS2011 met Exchange op de ene server kan draaien en 2008 R2 met SQL op de andere. Dat kan volgens mij. Op die 2008 R2 licentie mag ik ook nog 1x virtueel een server draaien toch? Dat is dus alleen om virtualisatie software te draaien voor de virtuele server. Exchange en SQL trekken er nu qua resources het hardst aan, dus als ik die al kan verdelen op 2 servers, gaat het volgens mij al een stuk soepeler lopen. Als ik dus eigenlijk server 1 wil virtualiseren op server 2 in geval van een H/W fail of andersom, dan heb ik eigenlijk 2x 2008 R2 Enterprise nodig? Of toch niet? Of als ik bijvoorbeeld 2x 2008 R2 std heb, en de ene server valt om, mag ik dan met die open licentie (van server 1) die server virtualiseren op server 2? Bottom line is dat we minimaal SQL en Exchange apart willen draaien en wenselijk is om ook AD en backup server apart te hebben als dat kan.
Licenties enz is niet mijn ding... dus geen idee. Houd er wel rekening mee dat uit mn hoofd je met SBS geen backup DC kunt draaien

[ Voor 9% gewijzigd door DJSmiley op 24-09-2011 19:51 ]


  • dreku88000
  • Registratie: Februari 2002
  • Laatst online: 28-11 12:54
Verwijderd schreef op zaterdag 24 september 2011 @ 13:26:
Ik heb even je post in stukjes gekapt en mn mening neergeschreven op een aantal van je punten.
[...]
Dit is iets wat perfect zou kunnen opgelost worden door een print server samen met group policies - of via image beheer voor de desktops.
Ja, dit zal wel lukken, hadden we in het verleden ook al via de server lopen, maar vanwege performance (of beter: gebrek daaraan) wordt dit nu houtje-touwtje anders gedaan.
[...]
Let op voor de HP 450GB schijven, dit zijn volgens mij LFF schijven, in een 380 G7 kunnen ofwel 8 (of 16 met extra drive cage) SFF schijven of 6 LFF schijven.
Volgens de PW en ook de site van HP is dit wel een 2,5" schijf.
[...]
Ja Raid 0+1 is performanter dan 5, maar of je het nodig hebt hangt af van hoe je applicaties opgaan met Disk IO, doorgaans is raid 5 voldoende.
Misschien enig idee waar ik soort van performance data van een dergelijk array kan vinden?
[...]
Zoals de situatie er nu uitziet zou ik voor de 1GB FBWC optie kiezen, aangezien je van plan bent om meerdere servers te gaan virtualiseren.
[...]
Voor jullie omgeving is een backup oplossing op disk (via NAS of Backup server in ander gebouw) geen slecht idee.
En dan uiteraard van Disk op tape of (meerdere) externe disken om offsite te bewaren.
Ok, thanx. Het wordt dus een virtuele backup server die op 2 gemirrorde NASsen zijn data wegschrijft wat ook weer op meerdere externe HDDs offsite gehaald wordt.
[...]
Voor je netwerk zou ik een andere aanpak overwegen dan die je nu maakt.
De grotere netwerken bestaan meestal uit acces, distributie, core uitgebreid met management, internet acces, dmz, server enz.

Echter volstaat het voor jullie om de distributielaag achterwegen te laten.

Je koopt een aantal gigabit switches met POE van een degelijk merk met een poort voor elke werkplek, voor gebouw 4 en 2 zorg je ook dat die switch mistens 1 fiber of SFP poort heeft. Dit zijn je acces swicthen.

De meeste VoIP telefoons hebben een ingebouwde switch (zeker bij Cisco), dan kan je volgende configuratie maken: Switch(PoE) -> telefoon -> desktop. Hierdoor zorg je ervoor dat je minder bekabeling en switch poorten nodig hebt.
Bekabeling is in principe niet aan de orde, elke werkplek heeft al minimaal 2 netwerkaansluitingen aanwezig voor telefoon en pc nu. Overal ligt cat5e UTP kabel.
Daarnaast zorg je voor een core switch, op deze switch kan je dan al je andere switchen aansluiten, zorg er dus zeker voor dat er voldoende poorten zijn die fiber of SFPs ondersteunen. Ook de verbinding naar de internet router/firewall hang je hier aan, evenals je server(s). Aangezien dit de belangrijkste switch in je netwerk is kan je hem ook ontdubbelen.
Het kan een voordeel zijn om hier een layer 3 switch voor te nemen als je met meerdere VLANs zit.

HP heeft voor Windows teaming software die het mogelijk maakt om je server NICs in een team te zetten voor load-balancing en fail over doeleinden, zo kan je toch je 4 NICs aansluiten en slechts 1 IP adres gebruiken.

Mocht je gaan virtualiseren met VMware zit dit er ook in, en bij de meeste Linux versies kan het ook standaard.

En dan nog kort iets over VoIP, misschien kan een SIP trunk naar een SIP provider wel goedkoper uitkomen dan zelf je ISDN te behouden en met een gateway te werken.

Wat opleiding betreft is CCNP Voice nu niet het eerste wat ik zou gaan volgen, CCNP is absuluut geen instaplevel. Een goede training op jullie speciefieke omgeving door je IT implementator kan ook al wonderen doen.
Thanx voor de input!
Remco schreef op zaterdag 24 september 2011 @ 19:29:
[...]
Je zou je af kunnen vragen of je wel Gbit POE switches wil aanschaffen als je telefoons koopt met een internal switch van 100 Mbit.
Het prijsverschil is behoorlijk tussen een 100 en een 1 Gbit telefoons.
En het klinkt heel mooi Gbit, maar heb je het op alle werkplekken ook daadwerkelijk nodig ?
We willen in principe de aansluitingen voor pc en telefoon apart houden. De ingebouwde 10/100 switches laten we dan ongemoeid. Gigabit switches willen we voornamelijk nemen voor de data aansluitingen richting de pc's en ruimte voor toekomstige netwerk-snelheidsverhoging. We hebben ook meerdere werkplekken die gebruik maken van redelijk intensieve access en excel programma's. Vooral i.c.m. data-acquisitie gegevens is dit best netwerkintensief. Dit is dus een van de redenen waarom we gigabit netwerk voor data willen.
DJSmiley schreef op zaterdag 24 september 2011 @ 19:40:
[...]
Gbit is natuurlijk wel lekker richting de toekomst. Maar op dit moment betwijfel ik idd in hoeverre dat nodig is. Tenzij er veel grote files overgepompt worden is 100Mbit nog prima voldoende.

En als je gaat doorlussen via een toestel met een 100mbit poort is gigabit helemaal zinloos. Als je aan de POE wilt gaan, let dan wel even op dingen zoals POE standaard en stroomverbruik (lang niet elke switch kan poe op alle poorten aan als je fancy toestellen hebt)
Zie mijn reactie hierop hierboven.
Maar goed, wat is het budget van TS? Een dikke Cisco met smartnet, Cisco SFP modules, fully gigabit, dikke servers enz... als TS een totaalbudget van (bv) 10k heeft... dan blijft dat leuk om te noemen maar totaal niet meer relevant.
Voor de complete oplossing (exclusief implementatie uren) zitten we (collega en ik, weten niet wat MT in gedachten heeft) richting de 30k € te denken. Tenminste, als ik alle hardware en softwarelicenties optel, kom ik steeds rond dit bedrag uit.
Overigens kun je ook nog kijken naar wat goedkopere merken. Ik heb zelf goede ervaringen met DCN. Is een (vrij onbekend) chiness merk, maar wel met een goede NL importeur. Voordeel is dat t 98% cisco-commandline compatible is, maar wel een stuk goedkoper. Voor het prijsverschil kun je zelf een complete set extra nemen en nog goedkoper uitzijn. Je hebt dan ook meteen speelgoed om mee te testen en spareparts in eigen voorraad. Een smartnet gaat wel verder (denk ook aan software support) maar bij dom switching vind ik dat eigenlijk niet echt nuttig.
Een DCN 48-poorts gigabit L2 switch met 4 SFP poorten kost je 1200 excl... Een Cisco (2960-S) 1750 excl.
Correct me if I'm wrong, maar is dit ook niet een 48p Gbit L2 switch met 4 SFP poorten? Zou deze niet voldoende kunnen voor onze toepassing? Of moet ik toch richting die Cisco 2960s gaan denken en zo ja, waarom is die dan zoveel beter?
Maar wat is verder de structuur van je netwerk? Een gigabit hoofdswitch met de servers en de uplinks naar de gebouwen in combinatie met een paar 24prt 10/100 switches voor de werkplekken die met 1gbit weer aan de hoofdswitch hangen, en een simpele 24prt 10/100 swich in de gebouwen (met 1 sfp voor de uplink en 1 gbit poort voor de nas) is een heel mooi betaalbare oplossing.
Dit is ongeveer wel de bedoeling ja
Als TS fully gigabit wil met L3 switching enz wordt het een heel andere prijsrange.
[...]
Dat is volgens mij ook niet de bedoeling.
Nee, dat kabeltje kan dus niet, degene die jij post is een OM1 MM snoertje (62.5/125um) terwijl je eerder geposte vezel een OM2 snoertje is (50/125um)
Maar los daarvan klopt je idee wel: Patchkabeltje van je SFP naar je glaslade en andersom.
Deze dan?
Als jij aan de tent die je een offerte laat maken aangeeft dat je Multimode OM2 tussen de vestigingen hebt liggen, met aan alle kanten afgemonteerd op een glaslade met SC connectoren kunnen hun de rest lekker uitzoeken (ik ga er even vanuit dat je grondkabels ook OM2 zijn gezien de gebruikte patchsnoertjes)
[...]


Licenties enz is niet mijn ding... dus geen idee. Houd er wel rekening mee dat uit mn hoofd je met SBS geen backup DC kunt draaien
Ok, thanx allemaal voor jullie input!!

Lenovo Thinkpad Yoga X380


  • dreku88000
  • Registratie: Februari 2002
  • Laatst online: 28-11 12:54
Even een update met de huidige status:

Server wordt een HP DL380 G7 met 2x Xeon E5645, 48GB RAM, 2x 72 GB 15k rpm SAS voor fysiek OS, 6x 450 GB 10k rpm SAS voor virtuele OSsen (RAID 5 met hot spare), 1GB FBWC op de 410i controller en redundant power supply.

Qua software neigen we richting SBS2011 met premium add-on. De 2008 R2 licentie van de prem addon installeren we op de fysieke server als host. Daarnaast willen we 1x 2008 R2 en 1x SBS 2011 virtueel hosten. Voor VoIP software willen we hiernaast mogelijk nog een keer 2008 R2 extra virtualiseren. Door het op deze manier in te richten, komen wij rond de 10k € uit voor software. Als we 2008 R2 Enterprise nemen en Exchange en SQL apart moeten aanschaffen, komen we op 15k € uit... De beperking dat we slechts 1 DC hebben vanwege SBS2011, zien we niet echt als probleem.

Verder zullen we DPM van MS gaan gebruiken voor de backup en zullen we van Norman overgaan naar Sophos voor beveiligingssoftware.

Ons netwerk gaan we upgraden met v1910 series switches van HP. Voor data komt er een 16 poorts gbit switch in gebouw 4 en een 24 poorts gbit switch in gebouw 2. Deze worden door een dubbele glasvezelloop verbonden met een 48 poorts gbit switch in gebouw 1. Naast deze switches, komen er in gebouw 2 1x 24 poorts gbit PoE switch en in gebouw 1 2x 24 poorts gbit PoE switches voor VoIP telefonie. Deze worden met UTP aan de andere switches gehangen. Telefoons en pc's worden apart (met eigen aansluiting en fysieke UTP kabel) aan het LAN gehangen.

VoIP telefonie zal gebaseerd worden op een Beronet VoIP gateway icm Cisco software die op de (aparte virtuele) server zal draaien. Toestellen zullen ook van Cisco zijn (504G en enkele 7937G conference toestellen)

Backup zullen we op NAS gaan doen. We gaan in 2 NASsen plaatsen, in gebouw 2 en 4. Dit zullen RNDP6000 NASsen zijn met elk 6 stuks 2 TB WD schijven in RAID 5 en elk op hun eigen UPS (APC BR550I). D.m.v. replicatiesoftware zullen deze NASsen gemirrored worden. Ook zullen we wekelijks een backup kopieren op een externe USB schijf en deze offsite bewaren.

Openstaande vragen:

Is de V1910 serie switchen van HP geschikt voor onze toepassing? Het prijsverschil met 26xx of 29xx serie van HP/ Cisco lijkt me zo groot voor een switch met (ogenschijnlijk) vergelijkbare eigenschappen.

Lijkt jullie de (creatieve) oplossing met SBS2011 met premium addon en extra 2008 licentie een juiste oplossing of moeten we toch naar Enterprise kijken met Exchange en SQL apart, zodat we 4x kunnen virtualiseren en meerdere DC's kunnen hebben? We hebben 1 fysieke server.

Zijn er mensen hier die ervaring hebben met Sophos software op bedrijfsniveau?

Hebben jullie nog op of aanmerkingen? Dan horen we het graag! Thanx alvast weer voor ieders input! _/-\o_

Lenovo Thinkpad Yoga X380

Pagina: 1