Innovatie & Strategie

Artificial Intelligence
Moreel kompas

Ethiek van KI is eigenlijk ethiek van automatisering

Ook automatiseringsproject zelf moet ethisch kloppen.

© Shutterstock Holmes Su
1 november 2021

In een artikel uit 2017 stelt Tom Rikert dat Kunstmatige Intelligentie (KI) echt loont wanneer het wordt gebruikt om processen vergaand te automatiseren. KI die menselijke denkprocessen wil imiteren, is academisch gezien interessant, maar levert voor bedrijven nog niet veel op. Beter eenvoudige KI die de productiviteit vergroot dan ingewikkelde intelligentie die maar sporadisch gebruikt kan worden.

Ook leveranciers leggen in hun marketing de nadruk op automatisering van processen. Van Robotic Process Automation tot Automatic Decision-Making, al deze toepassingen zijn gericht op het uit handen nemen van werk van mensen. Kunstmatige Intelligentie is binnen die processen niets meer dan een tool waarmee je processen kunt automatiseren.

Door mechanisering en automatisering kunnen bedrijven meer en goedkoper produceren. Door automatisering kunnen bedrijven zelfs nieuwe producten en diensten aanbieden die voorheen onmogelijk waren. Maar automatisering heeft ook schaduwzijden. Leidt automatisering niet tot onpersoonlijke diensten, waar de menselijke maat en compassie ontbreekt? Moeten we niet, voordat we de ethiek van KI-tooling gaan bekijken, eerst de ethiek van de automatisering bestuderen?

Werk centraal

Veel ethische overwegingen rondom automatisering gaan over werk. Kost automatisering werkgelegenheid of levert het extra werk op? Wordt werk saaier of kunnen we ons richten op leuke dingen? Dit soort ethische vragen worden sinds het begin van de industriële revolutie gesteld. En ze zijn nog steeds belangrijk, maar zijn ze voldoende?

Door de komst van Kunstmatige Intelligentie worden er nieuwe ethische kwesties bij automatisering ontdekt. Rondom discriminatie, uitsluiting en vooroordelen blijken er steeds weer problemen op te duiken. Individuen en bevolkingsgroepen worden uitgesloten van of benadeeld door computersystemen. Zonder dat er empathie is voor hun persoonlijke verhaal. Dat maakt mensen machteloos tegen de beslissingen van het algoritme. Dat zijn serieuze problemen waar alle aandacht voor nodig is. Maar zijn dat nou typische problemen rondom Kunstmatige Intelligentie of speelt er meer?

Dom algoritme discrimineert ook

De recente affaires rondom toeslagen tonen aan dat er ethische problemen kunnen ontstaan omdat er geautomatiseerd wordt. En dat ook “domme” algoritmes bevolkingsgroepen kunnen discrimineren. Algoritmes nemen verreikende beslissingen die betrokkenen ernstig in de problemen helpen. En omdat dit automatisch gebeurt, weten we eigenlijk niet hoe dat precies uitpakt voor individuen en minderheidsgroepen. Wie een gesprek voert, kan luisteren naar tegenargumenten of bezwaren. Een automatisch systeem kan niet luisteren. Ergens in het ontwerpproces heeft iemand niet voldoende over de consequenties van de mogelijke beslissingen nagedacht. Of heeft deze consequenties genegeerd. Met verstrekkende gevolgen omdat automatische systemen snel heel veel beslissingen kunnen nemen.

Dat Kunstmatige Intelligentie onethische beslissingen kan nemen, is bekend. Maar ook domme algoritmes kunnen onethische beslissingen nemen. En wanneer deze beslissingen razendsnel grote groepen mensen kunnen treffen, is het kwaad snel geschied.

Daarom moeten we de ethische discussie rondom Kunstmatige Intelligentie uitbreiden naar een ethische discussie rondom het automatiseren van processen. We moeten dezelfde criteria en principes, waarop we Kunstmatige Intelligentie beoordelen, ook gaan gebruiken om automatiseringsprojecten te evalueren. Pas wanneer een geautomatiseerd systeem ethisch verantwoord is, kunnen we gaan nadenken over de ethische toepassing van een mogelijke component in dat systeem: Kunstmatige Intelligentie.

Reactie toevoegen
1
Reacties
Ralph Goossens 01 november 2021 12:22

U schrijft "Ergens in het ontwerpproces heeft iemand niet voldoende over de consequenties van de mogelijke beslissingen nagedacht. Of heeft deze consequenties genegeerd."
Omdat het per definitie niet mogelijk is om alle consequenties van beslissingen te voorzien, zijn er drie harde voorwaarden om KI ethisch te kunnen inzetten en beoordelen: (1) KI mag alleen ingezet worden om voorstellen te doen; (2) de door KI gevolgde redenering om tot het voorstel te komen moet door KI inzichtelijk gemaakt kunnen worden voor de gebruiker; (3) die gebruiker moet het besluit nemen om het voorstel van KI al dan niet uit te voeren.
Zonder deze drie voorwaarden kan KI nooit ethisch ingezet worden. Met deze drie voorwaarden kan een discussie over ethische inzet gevoerd worden. Deze drie voorwaarden zijn dus noodzakelijk, maar nog niet voldoende.