Ik werk voor een consultancy en we zien dat veel klanten inmiddels kijken naar de ontwikkelingen in BigData architecturen. Het staat echter vaak nog in de kinderschoenen, om een aantal redenen denk ik:
1. De ontwikkelingen in software gaan erg hard; er zijn nog niet echt duidelijke winnaars en niet alles is enterprise ready. Bedrijven hebben daarom vaak moeite een stack te kiezen of zijn huiverig zich vast te pinnen / te investeren in een stack.
2. Nieuwe technieken werken soms lastig samen met bestaande technieken. De integratie kan dan duur uitpakken.
3. Gebrek aan kennis. De meeste cluster computing software is open source en draait op Linux. Niet alle sysads kunnen daarmee omgaan. Daarnaast vereist het programmeerskills van analisten en die zijn niet altijd voorhanden.
4. Lang niet iedereen heeft veel data en niet alle problemen hoeven opgelost te worden met veel data. Er zijn weinig vraagstukken waarvoor je echt alle data moet hebben; heel vaak kun je ook gewoon uit de voeten met een steekproef. De toegevoegde waarde is dus niet altijd meteen duidelijk.
5. Veel bedrijven zijn überhaupt nog bezig hun bestaande data op orde te krijgen. Dus samenbrengen van bronnen, datakwaliteit verhogen, ontsluiten nieuwe bronnen etc. Die denken nog niet echt na over een nieuwe architectuur.
Dat gezegd hebbende vind ik het wel zeer interessant wat er allemaal speelt op dit gebied. Spark met Spark ml of mllib begint steeds meer volwassen te worden evenals de tools om ongestructureerde data te bevragen. Kwestie van tijd voordat er ook makkelijk te gebruiken tooling omheen komt. Dan zal de acceptatie denk ik nog wel sneller gaan lopen
[
Voor 7% gewijzigd door
Morrar op 20-04-2016 09:15
]