Ik ben een eindgebruiker van BPOS en heb verder totaal geen inzicht in de management tools waar je BPOS mee kan beheren. Even een overzicht van de downtime van BPOS.
En dat was op: 23-3, 31-3, 8-4, 7-5 en 13-7 Totaal iets van 1500 users.
Allemaal gerelateerd aan "BPOS Connectivity Issues."
Behalve op 7-5, dat was gerelateerd aan "hardware maintenance."
Wat ik overigens wel vreemd vind, want een cloud service zou altijd "on" moeten zijn.
Outages hadden niet zo'n impact. (Mail kwam vertraagt aan.)
Maar van een cloud service verwacht ik een hogere beschikbaarheid.
LauPro schreef op donderdag 08 juli 2010 @ 22:42:
Het punt blijft dat dataverkeer op locatie vooralsnog vrij duur is en het dus nog niet heel rendabel is om echt alles in datacenters te hangen. Het ligt een beetje aan wat je focus is, als je kijkt naar onderhoud, veiligheid en schaalbaarheid dan is een DC superieur. Maar veel bedrijven hebben zat aan een lokale server en hoeven misschien alleen de mailserver/website extern.
Tevens nog een punt is de betrouwbaarheid. Bedrijfsvoering is belangrijk, IT is inmiddels cruciaal geworden. Een bedrijf zal dan ook nooit cruciale services in een 'cloud' gaan hangen waar ze zelf geen controle over hebben. Zolang internetverbindingen en datacenters geen onderdeel van het publieke domein zijn (zoals het wegennet bijv.) is er dus helemaal kwaliteitscontrole mogelijk. Tevens maakt het een bedrijf erg afhankelijk van de toeleveranciers. Veel bedrijven hebben er al moeite mee om een deel van hun IT-services extern te plaatsen, laat staan alles. Daar moet echt goed vertrouwen en goede redenen voor zijn. Weer die 1:1 contacten.
Stel je hebt een applicatie in cloud A staan met een SLA. Vervolgens is er een storing bij de lokale internetverbinding. Klant belt: 'Applicatie werkt niet, we kunnen niet werken!'. De leverancier zegt vervolgens: 'Niet ons probleem, jullie verbinding is down'. Dit werkt dus niet. Een klant zal altijd een SLA over de gehele lijn willen hebben. En als je 4-5 SLA's moet gaan afsluiten wordt het er niet overzichtelijker op. (Computers lokaal, connectiviteit, datacenter, software, support etc.)
Tja dus ik zou graag een visie willen zien waar Microsoft denkt te willen gaan eindigen. Mijn ervaring is namelijk dat Microsoftproducten altijd overeind worden gehouden door 3rd party spul en work-a-rounds. Denk aan virusscanners, spamfilters en bij meer enterprise-omgevingen Citrix, VMWare etc. Ik zou dus nooit vertrouwen hebben in een 'cloud' bij Microsoft. En ja, alle MCSA, MCSE etc hippies mogen zich aangesproken voelen.
edit: Dit overigens een technisch gebruikersforum en ik ga er derhalve vanuit dat we dus kijken naar de oplossingen die de minste problemen geven en niet per definitie de massa achterna lopen.
En:
Jesse schreef op donderdag 08 juli 2010 @ 22:40:
[...]
Ik ben wel bang dat voor veel toepassingen SaaS voorlopig nog de latency van het internet tegen zich heeft. Als ik nu al zie hoeveel moeite het maken van een moderatie op t.net bv soms kost. Je zit zo een paar seconden op je browser (of iets daarachter) te wachten. Op zo'n manier wil natuurlijk niemand een serieus productieviteitsprogramma (CAD bv.) gaan gebruiken.
Wat het nadeel van de bandbreedte betreft denk ik dat het vooralsnog redelijk peanuts is vergeleken met file-sharing en streaming-video, en dat het technisch redelijk goed op te lossen is.
Daarnaast denk ik dat je (zolang je met beperkte bandbreedte zit) Cloud diensten ook betrekkelijk gericht/lokaal kan gaan aanbieden. Stel dat jij een groot kantoor hebt en je wilt over op een SaaS Office oplossing, dan kan je een deel van je cluster toch on-site zetten? En in die richting kan je ook oplossingen voor het veilig houden van je data zoeken lijkt me.
De effecten van latency kan je oplossen door WAN optimalisatie.
Bekende oplossingen zijn bijvoorbeeld
Riverbed en
Cisco WAAS. Momenteel wordt WAN optimalisatie gebruikt om het netwerkverkeer tussen data center / hooftlocatie en bijlocaties te optimaliseren. Maar Cisco en Riverbed richten zich ook op de cloud. WAN optimalisatie appliances kan je binnenkort als VM "in de cloud" draaien. Voor email is WAN optimalisatie minder boeiend, maar als je straks Sharepoint vanuit de cloud wil draaien, kan je behoorlijke winst halen.
Zie ook:
YouTube: Riverbed's Virtual Steelhead Demo
Naast optimalisatie van je internet verbinding, is het ook belangrijk dat de internet verbinding redundant is uitgevoerd. Je kan nog zo'n mooie SLA hebben, maar als de link down is, is 'ie echt down en kan je niet werken.
Vroegah kon je even niet meer surfen op het web, maar de internet verbinding wordt steeds belangrijker:
Online CRM, hosted VoIP / Unified Communications, hosted email (zoals BPOS), hosted office suite, (Google Apps), enz.
Als je sterk leunt op cloud services en je internetlijn ligt plat, dan ligt effectief je bedrijf plat.
Je internet lijn moet je daarom redundant uitvoeren: het liefst via verschillende fysieke netwerken.
( Zoals ADSL/SDSL, glasvezel, kabel, UMTS, enz. )
Vandaar dat
Cisco en andere fabrikanten routers hebben met ingebouwde UMTS optie.
Nu zit je met UMTS met z'n allen we op enkele masten die de bandbreedte delen. En er zijn maar 3 UMTS netwerk operators. Interesant scenario wat er gebeurt als iedereen massaal overschakelt op UMTS als bijvoorbeeld het telefoon netwerk (ADSL / SDSL) is uitgevallen.
Woy schreef op vrijdag 09 juli 2010 @ 09:37:
[...]
Wij zijn bij ons nu wel aan het kijken naar Cloud computing van MS. We zijn bezig met een applicatie die over de hele wereld sensor data gaat verzamelen. Het grote voordeel van Cloud computing is wat ons betreft de flexibele scaling, en dat het hardwarematige beheer bij een andere partij ligt. Natuurlijk is dat laatste ook op andere manieren mogelijk, door middel van normale virtualisatie ( Of gewoon extern beheer ). We kunnen op dit moment heel erg moeilijk inschatten hoe snel dat zal gaan lopen, dus een van de voorwaardes is, dat we snel kunnen opschalen, zonder dat het ons kleine bedrijf te zwaar belast.
Een van de grote nadelen is op dit moment IMHO nog dat je altijd vast zit aan een leverancier. MS heeft met hun Windows Azure op zich wel een mooi platform, maar je zit meteen wel vast aan Microsoft, want als je bijvoorbeeld naar google over wilt stappen, zul je toch je applicatie opnieuw moeten maken.
Nu zullen we sowieso natuurlijk al aanpassingen moeten doen om uberhaupt in de Cloud te kunnen werken, maar aangezien het server gedeelte compleet op MS technologie (ASP.NET, WCF, SQL Server) gebaseerd is, is dit goed te doen. We lopen vooral tegen problemen aan met de database. De grootste variant die MS op dit moment aanbied in de cloud is 50 GB wat voor onze huidige opzet zeker niet genoeg is. Echter zijn er zeker goede mogelijkheden om dit om te bouwen naar Table Storage, waar die limiet niet is. Dat zal echter natuurlijk wel enige effort vergen.
Bedrijven als
itricity en
Terremark bieden een vCloud aan.
Hardware wat hier onder draait is bijvoorbeeld van IBM of
Cisco UCS.
Men gebruikt VMware als virtualisatie platform en
AppSpeed om dynamisch resources van VM's op te schalen. Voordeel is dat je vrijheid hebt. Je richt gewoon je eigen VM in en deze draai je in de cloud. ( In je eigen cloud / VMware omgeving of bij een externe partij / vCloud.) In de toekomst kan je ook dynamisch schakelen tussen private en public cloud, afhankelijk van gevraagde computing resources. (Moet je internetlijn wel voldoende capaciteit hebben, natuurlijk.)
Nadeel is dat je het moet inrichten. Het is geen software-as-a-services, als in: creditcard trekken en je hebt je CRM pakket draaien. Maar zelfs SaaS oplossingen zijn vaak customizable of moet je finetunen.