Innovatie & Strategie

Software-ontwikkeling
AI

AI dwingt IT'ers anders te denken

Accepteer dat de uitkomst van artificial intelligence nooit exact is

ai © CC0: Pixabay.com,  geralt
13 april 2018

Op de een of andere manier zit het in onze natuur om processen volledig ‘dicht te timmeren’, zodat we niet voor verrassingen komen te staan. Maar door de komst van artificial intelligence (AI) en machine learning moeten IT’ers afstand doen van dit streven.

AI neemt namelijk een deel van het denkwerk van mensen over en de uitkomst hiervan is, net zoals bij mensen, niet altijd juist. Dit betekent dat het resultaat, hoe geavanceerd het gebruikte algoritme ook is, nooit honderd procent nauwkeurig is. Werken met machine learning vereist daarom een nieuwe mindset waarbij je je controledrang los moet laten.

De standaardalgoritmes waaraan we binnen de IT gewend zijn, kennen duidelijke criteria en regels, zoals: als X groter is dan Y en meer dan vijf keer wordt gebruikt, dan wordt actie A ondernomen. AI daarentegen werkt niet met concrete uitkomsten maar op basis van kansberekeningen, ook waarschijnlijkheidsleer genoemd.

Twijfel

In deze naam proef je de twijfel al; iets is wel of niet waarschijnlijk. Uitkomsten worden dus met een bepaalde mate van zekerheid vastgesteld, waardoor je altijd te maken hebt met foutmarges. De uitkomst die je onder je neus krijgt bij machine learning is niet optie A of B, maar bijvoorbeeld: 75 procent zeker dat optie A juist is. Een machine met AI heeft het dus niet altijd bij het rechte eind en dat is in strijd met het beeld dat de meeste mensen hebben van computers en algoritmes. Dit betekent dat IT’ers een radicale omslag moeten maken in hun denkwijze: welkom in het grijze gebied van kansberekeningen.

Verzekering

Hoe komt het dat AI-algoritmes niet in staat zijn om exacte uitkomsten te geven? Dat komt vooral omdat algoritmes tegenwoordig niet alleen data analyseren, maar hier ook zelf betekenis aan geven – en dat is nu net wat AI zo opzienbarend en subliem maakt. Neem een AI-algoritme in een systeem bij een verzekeringsmaatschappij. De taak van dit algoritme is te bepalen welke bestaande klanten interessant zijn om te benaderen voor een nieuwe verzekering. Hoe kan een computer inschatten welke variabelen een klant interessant maken? Een mens snapt bijvoorbeeld dat een klant die achttien jaar is geworden en zijn brommerverzekering opzegt, misschien wel een auto heeft gekocht en dus een autoverzekering kan overwegen. Dat is contextbegrip. Je kunt dan een regel programmeren dat klanten die achttien jaar zijn geworden en hun brommerverzekering opzeggen, automatisch benaderd worden voor een autoverzekering.

Dat is misschien een effectieve regel, maar je moet dan wel beseffen dat de kans erg klein is dat deze aanname in honderd procent van de gevallen klopt. Een klant van net achttien jaar kan ook de auto van zijn vader gaan rijden of kiezen voor de trein door zijn studenten-OV-kaart. Zowel een mens als een computer kan soortgelijke individuele situaties nooit met zekerheid voorspellen.

Het bijzondere van AI-algoritmes zit hem vooral in feit dat ze, net zoals mensen, razendsnel ervaring opdoen en hiervan leren.

Complex

De taken die AI overneemt, bestaan dus vooral uit complex en verfijnd denkwerk. Het ‘denkproces’ van AI-algoritmes werkt in de basis hetzelfde als bij mensen, namelijk op basis van neurale netwerken die getraind worden. Daarom kun je AI beter niet vergelijken met traditionele IT-oplossingen. Dit is belangrijk om te beseffen, want van oudsher zijn IT’ers gewend dat een bepaalde input altijd leidt tot de verwachte output. En dan opeens is daar AI: een toepassing die gebruik maakt van kansberekeningen en waarbij de context een grote rol speelt.

Om succesvol met AI aan de slag te gaan is het daarom belangrijk dat je haar imperfecties accepteert, want overal waar een proces complex wordt door ontelbare variabelen, ontstaat een foutmarge.

Reactie toevoegen