Overslaan en naar de inhoud gaan

Explainable AI nu al misbruikt in marketing

Voor veel toepassingen waar kunstmatige intelligentie wordt ingezet, is het belangrijk dat duidelijk is hoe het algoritme aan zijn uitkomsten komt. Maar wat nu gepresenteerd wordt als verklaring maakt de zaak niet bepaald duidelijker. Er is dus meer behoefte aan 'begrijpelijke' AI dan aan 'verklaarbare' AI.
puzzled
© CC0 - Unsplash.com
CC0 - Unsplash.com

Naarmate kunstmatige intelligentie een belangrijkere rol krijgt in het maatschappelijk leven, neemt ook de behoefte toe te begrijpen hóe een algoritme te werk gaat. Dat inzicht is belangrijk voor burgers en bedrijven om vertrouwen te krijgen in de werking van algoritmen, maar in een groot aantal gevallen is die uitleg ook noodzakelijk. Denk aan juridische procedures, medische adviezen en bij financiële besluitvorming.

De roep om de black box te openen, heeft al geleid tot technieken die pretenderen meer inzicht te bieden. Voorbeelden hiervan zijn xAI Workbench, Arize AI en EthicalML/ai. Deze middelen voor meer inzicht, worden echter 'misbruikt' voor het aanjagen van sales. De inzet van deze technieken heeft namelijk tot gevolg dat 'explainable AI' nu steeds meer als een marketingterm wordt ingezet om AI-platformen aan de man te brengen, zo blijkt uit een analyse van Fortune.

Het probleem is - zo klinkt de kritiek - dat de 'verklaarbaarheid' neerkomt op het uitspugen van een hoop technisch 'gebrabbel' dat al dan niet iets te maken heeft met de uitgevoerde taak. De verklaring lijkt dan eerder een verhulling, door extra complexiteit te genereren. Aan de andere kant van het spectrum leveren deze 'verklaarbare AI-systemen' juist een te simplistische uitleg die niet duidelijk maakt waarom een gebruikte dataset wel of niet belangrijk was voor de uitkomsten van het algoritme.

Verklaren versus begrijpen

Verklaren staat dan ook niet gelijk aan begrijpen. Anthony Habayeb - CEO bij AI governance developer Monitaur -  trekt bij Venturebeat de vergelijking met ervaringen in het onderwijs: iemand iets uitleggen is niet hetzelfde als zeker weten dat diegene het ook echt begrijpt. Daarom is het belangrijk dat er 'begrijpelijke AI' komt in plaats van 'verklaarbare AI'.

AI begrijpelijk maken betekent niet alleen dat gebruikers inzicht krijgen in hoe het model functioneert, maar ook hoe en waarom het werd geselecteerd voor het uitvoeren van een bepaalde taak. Dat omvat ook welke data aan het model werden gevoed en waarom. Plus welke problemen er tijdens de ontwikkeling en training opdoken. En zo zijn er nog meer van dit soort onderwerpen om AI begrijpelijk te maken.

Veel moeite en weinig tijd

Uiteindelijk is 'verklaarbaarheid' een datamanagement-probleem. Het zal niet makkelijk zijn om de juiste technieken en gereedschappen te ontwikkelen die voldoende gedetailleerd de genoemde punten uit de doeken doen. Bijkomende complexiteit is dat dit ook nog eens binnen een aanvaardbare periode moet worden gedaan om de inzet van 'begrijpelijke AI' werkbaar te houden.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in