Innovatie & Strategie

Artificial Intelligence
stop

Waarom burgers aan zet zijn in ethiek bij AI

En hoe we dat organiseren.

© Shutterstock WindVector
21 december 2021

En hoe we dat organiseren.

Ethische verantwoordelijkheid bij algoritmen - en kunstmatige intelligentie in het algemeen - zijn geen zaak voor techbedrijven, regelgevers en toezichthouders alleen. Er is een rol voor onafhankelijke initiatieven uit de maatschappij.

Die initiatieven kunnen verschillende vormen aannemen, blijkt uit een rondvraag door AG Connect onder een aantal deskundigen op het vlak van ethiek en AI. Aanleiding is de oproep vorige week van een groot aantal wetenschappers en deskundigen voor het opzetten van een internationale gemeenschap van ethische hackers die zijn pijlen richt op toepassingen van kunstmatige intelligentie voordat deze in gebruik genomen worden.

Fouten opgespoord door buitenstaanders

"Ik denk dat we ieder initiatief in deze richting in principe moeten verwelkomen, of het nu afkomstig is van de overheid, bezorgde burgers of het bedrijfsleven", zegt Stefan Leijnen, Lector Artificial Intelligence bij het Kenniscentrum Digital Business & Media van de Hogeschool Utrecht. "Er is werk aan de winkel om artificial intelligence op een verantwoorde manier in te bedden in de samenleving, zeker nu we de afgelopen jaren gezien hebben wat er verkeerd kan gaan als intelligente algoritmen worden ingezet zonder adequate monitoring en toezicht."

Ook Reinoud Kaasschieter, Artificial Intelligence and ECM Consultant bij Capgemini, lijkt zo'n oproep een goed idee. "De meeste 'foute' AI-implementaties zijn opgespoord door mensen van buitenaf: kritische journalisten, wetenschappers en betrokken burgers. Door dat te organiseren, krijg je natuurlijk meer daadkracht."

Wie waakt over grondrechten?

Maar naast positieve kanten, kleven en ook wel flinke bezwaren aan de voorgestelde hackersgemeenschap, waarschuwt Bart Wernaart, professor Moral Design Strategy, Law and Ethics aan de School of Business and Communication van Fontys Hogescholen.  "AI kan een grote impact hebben op het dagelijkse leven van burgers. Het raakt fundamentele waarden, zoals privacy, autonomie, zelf-determinatie en veiligheid. Deze waarden zijn - soms in andere bewoordingen - terug te vinden in grondwetten van landen. Hier dringt zich de vraag op: wie gaat er over onze grondrechten? Kan een netwerk van internationale hackers en analisten ook een voldoende democratische waarborg opleveren wanneer er een oordeel wordt geveld over de ethische houdbaarheid van AI-toepassingen?"

Hij wijst er bovendien op dat de gemeenschap van ethische hackers tot nog toe bestaat uit een vrij homogeen gezelschap. "Ik ben erg benieuwd hoe divers zo’n internationale community van hackers en analisten zal zijn. Een van de uitdagingen van de komende tijd is nu juist om niet alleen de moraliteit van bijvoorbeeld hoogopgeleide mannen te laten resoneren in technologie, maar juist een veel breder gedragen ethische signatuur. Dat wordt idealiter vastgesteld onder hen die de gevolgen dragen van de betreffende AI. Dat zijn meestal niet de hackers of de analisten in kwestie."

Was het ethisch genoeg?

Wernaart vindt het het idee van een online community van hackers en analisten sympathiek, maar vanuit praktisch en democratisch oogpunt moeilijk te realiseren. "Ethisch hacken - en ook het analyseren van risico’s - zou een transparant proces moeten zijn, willen we nog enige democratische controle hebben over deze processen." Dat staat haaks op de belangen van bedrijven die het intellectuele eigendom rondom hun AI willen beschermen. En dan zijn er nog juridische implicaties. Deze ethische hackers dringen per definitie iemands creatie binnen en richten daar mogelijk schade aan. "Het lijkt me lastig om steeds achteraf te moeten bepalen of een hack wel ethisch genoeg is om aansprakelijkheid te ontlopen."

Voor Leijnen is het de vraag of zo'n internationale gemeenschap van ethische hackers en analisten voldoende kan zijn. Het initiatief kan helpen bedrijven een stapje in de goede richting te laten zetten door problemen onder de aandacht te brengen, maar onder de streep zullen er ook wettelijke kaders moeten worden gesteld, vindt hij. Kaasschieter denkt ook dat er naast deze gemeenschap behoefte is aan toezichthoudende instanties - vergelijkbaar met de Autoriteit Persoonsgegevens - of keuringsinstanties - vergelijk deze met KEMA of de Keuringsdienst van Waren - om de AI-implementaties in de gaten te houden en te toetsen aan de geldige wet- en regelgeving.

Er ligt ook een taak bij individuele werknemers in de techindustrie, benadrukt Kaasschieter. Het gevaar is dat er te veel nadruk komt te liggen op 'ethics washing', ofwel achteraf over algoritmen een ethisch sausje gooien. Het accent moet komen te liggen op 'ethics-by-design'; vanaf het ontwerp al de ethische aspecten van een te ontwikkelen AI-toepassing een prominente rol geven. Dat is nog best een lastige opdracht voor individuele werknemers.

"Ik ken veel AI-ontwikkelaars die wel weten dat ze iets ethisch moeten maken, maar geen flauw idee hebben hoe ze dat in hun dagelijkse werkzaamheden gestalte moeten geven. Dit is trouwens niet alleen een probleem van ontwikkelaars, het is een breder probleem van werknemers binnen bedrijven." En, ook al liggen er wettelijke kaders, onder commerciële druk zullen bedrijven de randen van de wet- en regelgeving gaan opzoeken. "En of dat nou zo ethisch is? Ethiek is namelijk meer dan je houden aan de geldende wetten…", zegt Kaasschieter.

Nanda Piersma, lector Responsible AI aan de Hogeschool van Amsterdam maakt nog een belangrijk onderscheid. Ze vindt het initiatief goed maar verzet zich tegen het actiegroep-achtige karakter dat eruit spreekt. Het 'namen en shamen' is goed voor onethische programmeerclubs die zonder enig toezicht hun gang gaan met ongewenste praktijken, omdat zij het bewust doen. Er is echter ook een groep mensen die wel het beste willen, maar onbedoeld bias veroorzaken of andere ongewenste situaties. "Die groep heeft niets aan namen en shamen, maar zal daar helaas vaak het slachtoffer van worden. Zij hebben meer aan hulp om de problemen te herstellen en in andere situaties te voorkomen. Dus het gevaar van actiegroep-achtige vorm is dat je goedbedoelende mensen raakt, en niet helpt."

Alternatieve oplossing

Er is dus zeker behoefte aan een vinger aan de pols die losstaat van bedrijven en overheden. Het is de vraag of de voorgestelde internationale gemeenschap van ethische hackers, gestimuleerd door het uitloven van geldbedragen voor elke gevonden ethische misser - de 'bias bounties' - daarvoor de beste invulling is. Piersma ziet meer in een vorm waarbij een zogeheten Red Team de groep ontwikkelaars die uit de bocht vliegt, positief gaat helpen. Dan zullen de 'foute' applicatieontwikkelaars óf mee moeten, óf afvallen door shaming.

Wernaart ziet een alternatieve oplossing in een 'community tribunal'. Dit zou een meer gereguleerde gemeenschap zijn, die op basis van heldere spelregels rondom intellectueel eigendom, transparantie en aansprakelijkheid aan het werk gaat met AI-toepassingen die vrijwillig ingebracht worden door bedrijven en overheden. "Dat biedt veel voordelen en lost bovengenoemde problemen deels op. Het nadeel zal hierbij zijn dat we dan hoogstwaarschijnlijk niet de grootste schurkachtige AI-toepassingen eruit pikken, omdat die niet vrijwillig aan deze community ter controle zullen worden aangeboden, en de effectiviteit dus niet optimaal is", aldus Wernaart.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.