De cloud is fundamenteel voor het internet der dingen

Het concept van het internet der dingen heeft betrekking op het steeds groter wordende aantal objecten dat niet alleen interne sensoren en processors bevat, maar ook rechtstreeks op internet is aangesloten en hun gegevens online streamt. Hoewel huisautomatisering waarschijnlijk de 'top of mind'-toepassing is voor dit concept - de koelkast die melk bestelt in de supermarkt wanneer deze opraakt - is de reikwijdte in feite veel groter. We kunnen speelgoed hebben dat onafhankelijk met elkaar communiceert, kantoren die automatisch nieuwe benodigdheden bestellen als dat nodig is, zonder onze tussenkomst, zelfs sensoren op onze kleding en lichamen die onze gezondheidsgegevens in realtime naar onze artsen streamen. Dit soort machine-to-machine (M2M) communicatie is de kern van het internet der dingen.

Voor het volledige potentieel van het internet der dingen is cloud computing echter van fundamenteel belang . Het hele idee achter de verbonden objecten is dat de gegevens die ze verzamelen, meestal online worden gestreamd, zodat toepassingen deze gegevens efficiënt kunnen verzamelen, analyseren en verwerken. Terug naar onze voorbeeldkoelkast, het is niet de koelkast zelf die de melk bestelt in de supermarkt. De koelkast streamt alle gegevens, van de huidige supermarktniveaus tot uw historische verbruik, naar een toepassing die deze gegevens leest en parseert. Vervolgens, rekening houdend met andere factoren, zoals uw huidige supermarktbudget en hoe lang het duurt voordat de melk bij u thuis is aangekomen, beslist het of u de aankoop doet. De cloud is het natuurlijke thuis voor deze toepassingen.

Een oceaan van gegevens

Als al onze dagelijkse objecten alle denkbare soorten sensoren moeten ontvangen, is het enorme aantal datapunten dat wordt gegenereerd enorm. Het Internet of Things brengt daarom alle problemen met zich mee die te maken hebben met het opslaan en ontleden van deze gegevens die we kennen, behalve op een veel grotere schaal. En het is niet alleen een kwestie van volume, maar ook van de snelheid waarmee deze gegevens worden gegenereerd. Sensoren genereren veel meer gegevens en veel sneller dan de meeste commerciële toepassingen.

Om zowel het volume als de snelheid aan te kunnen, zijn cloud-gebaseerde oplossingen van fundamenteel belang. De cloud biedt ons de mogelijkheid om opslagbronnen dynamisch in te zetten naarmate onze behoeften groeien, en dit op een geautomatiseerde manier te doen, zodat menselijke tussenkomst niet langer nodig is. Het geeft ons ook toegang tot virtuele opslag, hetzij via clouddatabaseclusters of via gevirtualiseerde fysieke opslag waarvan de capaciteit kan worden aangepast zonder downtime, evenals toegang tot een enorme pool van opslagbronnen, meer dan alles wat we lokaal zouden kunnen hebben.

Het tweede probleem met al deze gegevens is hoe het te verwerken, een probleem dat in twee smaken komt. De eerste is de real-time verwerking van elk gegevenspunt van elk ander object zodra deze binnenkomt. De tweede is het extraheren van nuttige informatie uit de verzameling van alle beschikbare gegevenspunten en het correleren van de informatie van verschillende objecten om echte waarde toe te voegen aan de opgeslagen gegevens.

Hoewel realtime verwerking eenvoudig genoeg lijkt - de gegevens ontvangen, ontleden, er iets mee doen - dat is het eigenlijk niet. Laten we teruggaan naar de aangesloten koelkast en ons voorstellen dat deze een gegevenspakket verzendt met informatie over welke items zijn verwijderd of opgeslagen telkens wanneer een persoon de deur opent. Als we aannemen dat er ergens rond de 2 miljard koelkasten ter wereld zijn en dat mensen hun koelkastdeuren vier keer per dag openen, dan zijn dat 8 miljard datapakketten per dag. Dat komt neer op gemiddeld bijna 100 duizend pakketten per seconde, wat veel is. Tot overmaat van ramp zouden deze punten waarschijnlijk op bepaalde uren van de dag (meestal 's morgens en' s avonds) geconcentreerd zijn, zodat als we verwerkingscapaciteit zouden leveren op basis van piekbelastingen, veel van de infrastructuur verloren zou gaan .

Zodra de realtime verwerking is voltooid, komen we bij het tweede probleem, hoe we nuttige informatie kunnen extraheren uit de opgeslagen gegevens buiten het individuele transactieniveau. Het is goed voor je als je koelkast automatisch je boodschappen bestelt, maar het is zelfs beter voor de fabrikant als ze weten dat koelkasten uit een bepaalde regio vatbaarder zijn voor oververhitting of dat koelkasten met een bepaald soort levensmiddelen sneller verslijten. Om dit soort informatie uit de opgeslagen gegevens te halen, moeten we alle Big Data-oplossingen gebruiken die we vandaag hebben (en sommige die nog moeten verschijnen).

De cloud is bij uitstek geschikt om beide problemen aan te pakken. In het eerste geval maakt cloud computing de dynamische toewijzing (en de-toewijzing) van verwerkingsresources mogelijk, waardoor een toepassing die koelkastgegevens in realtime moest analyseren, alle gegevensvolumes kon verwerken en de eigen infrastructuurkosten kon optimaliseren. In het tweede geval gaat de cloud hand in hand met Big Data-oplossingen, om vrijwel dezelfde redenen.

Hoewel het internet der dingen de algemene architectuur van de cloud kan veranderen, is de cloud zoals we die vandaag kennen essentieel om deze verandering mogelijk te maken. Cloud computing, in de zin van gevirtualiseerde computerresources die dynamisch kunnen worden toegewezen door applicaties zelf, zonder menselijke tussenkomst, gaat nergens heen. Het internet der dingen zal het alleen maar laten groeien.

© Copyright 2020 | mobilegn.com