Aime houdt zich bezig met slimme softwareoplossingen op het snijvlak van innovatie en technologie. Als we inzoomen op het woord technologie, dan zien we dat de slimheid vaak ontstaat door de combinaties van Big Data en Artificial Intelligence.

Maar daar horen we tegenwoordig zoveel over – wat is het nu eigenlijk?

Big data, heb ik dat ook? AI – of kunstmatige intelligentie – hoe werkt dat? En wat zijn dan de verschillen met machine learning en deep learning, twee andere veelgebruikte termen die we regelmatig langs zien komen?

In deze blog gaan we in op de verschillen tussen big data, Artificial Intelligence, machine learning en deep learning. De eerste en de laatste drie zijn twee afzonderlijke concepten, maar juist de combinatie tussen beide kan goud waard zijn voor je organisatie.

Big data

We horen er veel over: big data. Maar kunnen we er wel iets mee? Wat is het nu eigenlijk? Kort gezegd: enorme datasets in je organisatie, die veelal behoorlijk ongestructureerd zijn, en van enorme waarde kunnen zijn. Maar met de traditionele analysemethoden kun je er weinig mee.

Oké, iets meer detail. Of een bepaalde dataset ‘big’ is wordt vaak bepaald aan de hand van de zogeheten V’s: woorden die allemaal met een v beginnen en iets zeggen over de dataset. Hoewel er inmiddels vele lijsten in omloop zijn met uiteenlopende hoeveelheden v’s, zijn de volgende vijf toch algemeen geaccepteerd om big data mee te identificeren:

  1. Volume: big data is groot. Als de hoeveelheid data zodanig groot is dat je er met een reguliere database amper meer aan toekomt, dan is de kans groot dat je met big data te maken hebt.
  2. Variety: big data is enorm gevarieerd. Metingen langs de snelweg? Analyses gedocumenteerd in rapporten? Ontwerpen die ergens op een harde schijf staan? Het zijn allemaal verschijningsvormen van big data. Je kunt ze allemaal gebruiken om je organisatie te verbeteren.
  3. Velocity: de doorlooptijd van informatie neemt alleen maar af. De snelheid waarmee nieuwe data je organisatie binnenvliegt neemt alleen maar toe.
  4. Value: er zit een behoorlijke hoeveelheid waarde in je data. Het is zaak om goed te kijken naar je klant én je klant van de toekomst. Proposities ontwikkeld voor die partijen kun je ondersteunen met je data.
  5. Veracity: big data is geloofwaardig. Hoewel correlaties niet hetzelfde zijn als causaties, neemt bij grotere datasets de kans af dat outliers je conclusies onnodig verstoren.

Kortom: big data gaat om de datasets en minder om wat je ermee doet. Heb je veel ongestructureerde data in huis, zoals veel oude wordfiles? Of een enorme hoeveelheid foto’s gekoppeld aan analyserapporten? Grote kans dat je met deze data waarde kunt creëren. Zelfs als het gaat om data die niet aan al de vijf v’s hierboven voldoet.

Hoe je dat doet? Om die vraag te beantwoorden komt het tweede deel van deze blog in de picture: Artificial Intelligence – met deelgebieden machine learning en deep learning.

Artificial Intelligence

De definitie die we bij Aime hanteren als het gaat om Artificial Intelligence is de volgende:

Menselijke intelligentie in software gevangen.

Maar betekent dat dan ook dat reguliere software een vorm van Artificial Intelligence is?

Ja – wat ons betreft wel. Volgens onze definitie is dat zo, omdat er menselijke intelligentie in software gevangen is. Stel dat we op basis van een foto willen zeggen wie het is, dan hebben we naast de foto ook een computerprogramma nodig dat door de mens gemaakt is. In dit computerprogramma wordt met regels vastgelegd wanneer een foto van mij langskomt, of een foto van iemand anders. Bruin haar? Krullen? Een groen vest? Grote kans dat het de foto van Christian is.Je kunt je voorstellen dat deze vorm van kunstmatige intelligentie niet schaalbaar is. Wat nu als we de computer een miljoen foto’s willen laten herkennen? Dat betekent dat we voor al die miljoen foto’s de regels moeten vastleggen. Dat is een enorme klus en – het zal je hopelijk niet verbazen – er is dan ook niemand die zijn of haar medewerkers met die taak opzadelt.

De kunstmatige intelligentie waarover we in het nieuws horen, moet dus iets anders zijn. Maar wat is dat dan wel?

Het antwoord: een vorm van kunstmatige intelligentie waarbij we computers de ruimte geven om zelf van de data te leren. We hebben het dan over de zogeheten machine learning-technieken.

Machine learning: een onderdeel van AI

En in dat proces wordt de boel als het ware omgedraaid. Aan de machine geven we de inputdata – de miljoen foto’s van hierboven  – maar ook de outputdata sturen we mee. Deze data, die we ook wel labels noemen, beschrijven de foto. Het label voor mijn foto is bijvoorbeeld “Christian”.

Deze data stoppen we vervolgens in de machine, die op zijn beurt het programma – met de regels waaronder bepaald wordt dat mijn foto hoort bij ‘Christian’ – zelf afleidt.

Stel dat honderd foto’s van die miljoen van mij zijn. Dan leert het model dus zelf herkennen hoe ik eruit zie. Stop ik vervolgens een nieuwe foto van mijzelf in het programma, dan is de kans groot dat er wederom PING! “Dit is Christian” uitkomt. Althans, dat is hoe het zou moeten gaan. Maar de betrouwbaarheid van zo’n programma is natuurlijk nooit 100%, net zoals een mens dat niet kan zijn.

We hebben de mogelijkheid om veel wat er in de computer gebeurt om het programma te maken, in te stellen. In de loop der jaren is er door de wetenschap een grote hoeveelheid zogeheten architecturen ontwikkeld voor verschillende taken. Op het moment dat we willen classificeren (de taak hierboven, bijvoorbeeld) dan hebben we de keuze uit decision trees, random forests, support vector machines, lineaire classifiers, basale neurale netwerken, en ga zo nog maar even door.

Al deze traditionelere manieren van machine learning hebben één grote valkuil. Ze kunnen heel goed met lineaire data omgaan, maar minder goed met niet-lineaire data. Lineaire data, zoals we zien, is data die te scheiden is door er een rechte lijn door te trekken.

Maar de echte wereld is niet lineair. Verre van zelfs. Want wat nu als je een dataset hebt die er zo uit ziet?

Kun je daar een rechte lijn doorheen trekken en ervoor zorgen dat deze de blauwe data netjes scheidt van de oranje data?

Vergeet het maar.

En dat is waarom tot een aantal jaar geleden de traditionele modellen wel redelijke resultaten boekten, maar de voor sommigen sterk levende droom van een ‘verbluffend goede’ kunstmatige intelligentie nog een ver-van-mijn-bedshow leek.

Tot 2012.

Deep learning: een onderdeel van machine learning

De voortgang in rekenkracht deed er toen voor zorgen dat er een ommezwaai in gang werd gezet. De traditionele modellen werden wat meer achtergelaten in termen van onderzoek en ontwikkeling, en massaal stortte zich men op iets dat deep learning heet. Zeker toen in dat jaar bij een competitie op het gebied van image recognition een enorme boost in betrouwbaarheid werd vertoond, ging het roer bij velen om.

En deep learning is tot op de dag van vandaag erg ‘hot’ in businessland.

Maar wat het nu eigenlijk is?

Een verzameling modellen die ook met niet-lineaire data, zoals de blauwe en oranje bolletjes van hierboven, kunnen omgaan. Met aanvullend daarop de ‘vereiste’ dat de modellen verschillende lagen diep zijn. Waar bij traditionele machine learning-oplossingen vaak verschillende soorten modellen achter elkaar werden geplaatst, gaat het bij deep learning nog slechts om één model, dat wel enige diepte bevat.

Eén van de bekendste soorten deep-learning modellen zijn de zogeheten deep neural networks. Deze neurale netwerken, die licht geïnspireerd zijn op de manier waarop het menselijk brein informatie verwerkt, zijn verantwoordelijk voor de enorme boost in betrouwbaarheid van AI-toepassingen in verschillende vakgebieden. De oogartsen die verslagen werden door DeepMind-AI’s? Een AI die weet te navigeren zonder gebruik te maken van GPS? Allemaal mogelijk dankzij deze netwerken.

Het gaat voor deze blogpost te ver om de precieze werking van een deep neural network uit te leggen. Daar komen we in een volgende blog op terug. Hopelijk kun je nu wel enigszins overweg met de hiërarchie van Artificial Intelligence naar deep learning: de laatste is wel een vorm van de eerste, maar een rule-based systeem is wel AI, maar geen deep learning.

Kies de gulden middenweg: succes met slimme software

Aime kan helpen om jouw software te verslimmen of slimme software voor je te schrijven. We kiezen daarbij altijd voor de gulden middenweg: we kiezen een mix van deep learning-toepassingen aangevuld met de traditionelere manieren van machine learning. Waarom? Omdat twee paar ogen altijd meer verschillende dingen opmerken dan één paar ogen. De combinatie deep learning en traditionele machine learning leidt vaak tot meer succes.

Toch beginnen we bij jouw organisatie. Waar zitten op dit moment de pijnpunten? Wie is je klant in de toekomst? Hoe kunnen we daar met je bestaande data goed op inspelen? Vervolgens ontwikkelen we aan de hand van onze vier fasen van AI en Big data een roadmap. Daarna gaan we aan de slag.

Meer weten? Uiteraard staat de ☕ altijd klaar. Kom langs en ervaar ook onze demo!