Redactie - 04 april 2017

Einde van de cloud

Einde van de cloud image

U zult wel denken, die meneer is een beetje gek door over het einde van de cloud te spreken. De cloud is er pas net en nu alweer het einde van de cloud aankondigen? Ik bedoel echter het einde van de cloud ‘zoals we die nu kennen’. Er zijn namelijk enkele zeer interessante ontwikkelingen gaande die een stevige concurrent worden van het huidige cloud-model.

Centraal
De wereld is vandaag de dag flink gecentraliseerd. Als u iemand mobiel wilt bellen, wordt u eerst doorgelinkt naar een centraal punt van uw provider en daar met degene verbonden met wie u verbinding zoekt, zelfs als die persoon vlak naast u staat. Een beetje een omweg omdat de twee toestellen (nog?) niet direct met elkaar verbinding kunnen maken.

Datzelfde model hebben we de afgelopen jaren opgebouwd met de cloud. Ergens is een provider en als we iets willen doen dan worden we eerst naar die centrale plaats geleidt en vandaar uit wellicht naar een ander. Dat is prima, omdat we alle services rond dat centrale punt kunnen creëren en via dat punt kunnen distribueren. Software als een Service vanuit een centrale plek.

Cloud, het nieuwe mainframe
In het verleden was het mainframe een vergelijkbare oplossing. Vanaf ongeveer 1960 tot 1980 was het mainframe de centrale oplossing waar services en data resideerden. Daarna kwam de client-server architectuur op, omdat we steeds meer diensten lokaal konden en wilden toepassen. Van 1980 tot 2000 werd het cliënt server-model het dominante platform voor onze informatiediensten, terwijl het mainframeplatform nooit helemaal verdween.

In 1999 startte Salesforce en het begrip cloud ontwikkelde zich als – wederom – een centrale oplossing waar services en data resideerden. Als het ware een nieuw mainframe, maar nu op het internet. Met de komst van Yahoo, Google en Facebook werd de cloud snel populair voor het grote publiek en met Azure, AWS en Alibaba ook voor het bedrijfsleven. De periode van 2000- 2020 zou je als de cloud-dominante periode kunnen definiëren.

Maar niet voor alles is één centrale plaats van data en computing de ideale oplossing. Net als naast het mainframe de client-server omgeving zich succesvol ontwikkelde, zien we nu eenzelfde ontwikkeling als tegenhanger van de centrale cloud. Die zou wel eens dominant kunnen worden vanaf 2020.

Real time
Voor veel diensten is een centrale cloud te traag. Alles via een centrale provider laten lopen kost gewoon te veel tijd als er snelle beslissingen nodig zijn. De auto zonder bestuurder, zendmasten voor het 5G-netwerk, machines in fabrieken, ze vragen allemaal razendsnelle processing heel dichtbij met minimale latency. Real time verwerken van data om snel te kunnen acteren.

Allemaal te vangen onder de titel: het Internet of Things. Het internet van dingen is zich snel aan het ontwikkelen en creëert enerzijds heel, heel veel data en dat ook nog eens op heel, heel veel plaatsen. Net als vroeger begint het netwerk weer een belangrijke bottleneck te worden. Dat vraagt naast een centrale cloud vergelijkbare lokale oplossingen. En deze oplossingen kunnen weleens momenteel centrale clouddiensten weer lokaal maken.

Edge Intelligence
Dit vraagt nieuwe oplossingen. Net zoals indertijd naast het mainframe de client-server architectuur met lokale processing zich snel ontwikkelde, zo zien we naast de centrale cloud zich nu zogenaamde ‘Edge Intelligence’ in snel tempo ontwikkelen. Lokale processing en dataopslag om ter plekke realtime diensten uit te voeren. Net zoals onze mobiele telefoons steeds meer processing power en dataopslagmogelijkheden hebben gekregen, zo zullen allerhande devices meer computer- en opslag-capabiliteiten krijgen.

Daarnaast bestaat de behoefte om peer-to-peer communicatie uit te voeren. Vergelijkbaar als met je mobiele telefoon direct je buurman kunnen bellen, zonder je data via een centrale provider te laten lopen. Decentraal betalen, decentraal met je slimme huis communiceren, decentraal zelfsturende auto’s met elkaar laten communiceren. Het huis, de auto, je telefoon worden je eigen, persoonlijke decentrale cloud.

Back to the Future
Het is het verschil tussen big data en fast data. Hoewel ik op mijn iPhone 7 al een kwart terabyte kan opslaan, worden petabytes bevattende datalakes op centrale plaatsen gebouwd, omringd door high performance computing om snel met die enorme hoeveelheid beschikbare data, slimme diensten te kunnen uitvoeren. Search, analytics, grote berekeningen zullen centraal worden uitgevoerd, terwijl aan de front-end meer snelle lokale informatieplatformen nodig worden.

En we zullen kritisch moeten worden welke data we daar willen opslaan. Als een temperatuursensor ons elke seconde verteld wat de temperatuur is, hoeven we die data niet centraal op te slaan. Dat kost te veel bandbreedte en opslagkosten. Slimmer is lokaal bij die sensor intelligentie in te bouwen die slechts temperatuurveranderingen of defecten meldt aan een centrale cloud. De centrale cloud wordt een verzamelplaats voor relevante data, terwijl aan de voorkant het lokale dataverkeer direct wordt afgehandeld.

From the Edge to the Core to the Cloud
Intussen hebben we als bedrijf al een heel portfolio opgebouwd van slimme producten die lokaal processing, data-opslag en uitvoeringskracht hebben. Hierbij kan het OODA principe (Observe, Orient, Decide, Act), dat ooit is ontwikkeld om snelle processen, zoals dog-fights tussen gevechtsvliegtuigen, te beschrijven en te verbeteren, worden toegepast.

Hoe sneller je de OODA-loop doorloopt, hoe beter de performance van je proces. En we zien dat momenteel veel snelle besluitvormingsprocessen niet meer in een centrale cloud kunnen plaatsvinden. En zich vanuit de centrale cloud naar de zijkant van de infrastructuur verplaatsen. ‘From the edge to the core to the cloud’, niet voor niet sinds enkele jaren ons adagium. Het informatieleven is immers meer dan alleen clouds.

Einde van de cloud?
Betekent dit het einde van de centrale cloud? Nee, natuurlijk niet. Net zoals aan het begin van de client-server periode velen ten onrechte verkondigden dat het mainframe dood was, zal ‘edge-intelligence’ slechts bepaalde taken van de centrale clouds overnemen. Maar er zal zeker een verschuiving en nieuwe balancering komen tussen die twee toepassingen.

Deep-learning zal in grote centrale cloud-omgevingen blijven bestaan, maar machine-learning zal zich vooral aan de buitenkanten van de infrastructuur ontwikkelen. Daarnaast kan veel data kan zich door zijn grootte of compliance zich steeds beperkter bewegen. Daardoor moeten voor wereldwijde analytics nu al de microservices naar de data worden gebracht, zie mijn eerdere blog hierover: spelen met data op afstand.

Maar voor snelle processen moet computing én intelligentie bij de sensor data komen, bij het ‘point of access’ in plaats van in de cloud. Processing en data-opslag zijn overal mogelijk, de cloud heeft daar beslist geen hegemonie over.

Door: Hans Timmerman, CTO Dell EMC Nederland

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!