Overslaan en naar de inhoud gaan

7 aandachtspunten voor ethiek en transparantie bij toegepaste AI

Met AI kun je patronen herkennen in enorme hoeveelheden data, om daarmee inschattingen en voorspellingen te doen. En AI is in staat om daar gaandeweg steeds beter in te worden. Maar er zit ook een keerzijde aan de inzet van AI, met veelzijdige risico’s. Future Facts (onderdeel van het Conclusion ecosysteem) heeft een privacy- en ethiekframework ontwikkeld om issues te voorkomen.

Want of het nou komt door gebrekkige data of fouten in de programmatuur: blind vertrouwen op de uitkomst van wat een algoritme zegt kan ernstig nadeel toebrengen aan mensen. Met de Toeslagenaffaire als pijnlijk en extreem voorbeeld. Hoe kun je ervoor zorgen dat je AI op een verantwoorde manier inzet?

Privacy- en ethiekframework voor AI: de zeven aandachtsgebieden in het kort

Future Facts heeft een privacy- en ethiekframework ontwikkeld voor de inzet van AI. Dit framework benoemt zeven aandachtsgebieden waarbij je moet stilstaan als je problemen wilt voorkomen. Lees hier de uitgebreide versie van het framework.

1. Beleid en Governance bij het toepassen van AI

Stel richtlijnen en kaders op over hoe je als organisatie omgaat met AI. En zorg voor een duidelijke verdeling van rollen en verantwoordelijkheden.

2. Rechtvaardigheid bij het toepassen van AI

Een algoritme mag niet leiden tot het uitsluiten van bevolkingsgroepen op bepaalde kenmerken. Nauw verband hiermee houdt bias, oftewel vooringenomenheid, die in data verstopt kan zitten. Alles bij elkaar vraagt de inzet van AI om een zorgvuldige afweging van (maatschappelijke) risico’s, kosten en baten.

3. Rechtmatigheid bij het toepassen van AI

Bij de inzet van AI-toepassingen moet je (uiteraard) voldoen aan wet- en regelgeving. Verwerk je persoonsgegevens met een algoritme? Dan is de AVG van toepassing. Ook als je geen persoonsgegevens verwerkt kun je met bepaalde wetgeving te maken hebben. Daarnaast is er de Europese AI-verordening, waarover de onderhandelingen tussen de lidstaten en het Europees Parlement nog moeten beginnen.

4. Kwaliteit bij het toepassen van AI

Kwaliteitsborging verhoogt de toegevoegde waarde van het algoritme en vermindert risico’s voor mens en maatschappij. Kwaliteitsborging heeft zowel betrekking op de kwaliteit van de data, als die van de AI-toepassing zelf. Datakwaliteit is het terrein van datamanagement. Gedegen datamanagement is dus een randvoorwaarde voor de inzet van AI.

5. Transparantie bij het toepassen van AI

Voor de acceptatie van AI is het van belang dat degenen die onderwerp van de output zijn, of daar de gevolgen van ondervinden, op de hoogte zijn van het gebruik van algoritmes. Transparantie is ook een goede maatstaf voor moreel handelen: als je niet open durft te zijn over wat je doet, ben je dan wel met de juiste dingen bezig? Transparantie verhoogt het vertrouwen in je organisatie, dus het credo is: zeg wat je doet, en doe wat je zegt.

6. Bewustzijn bij het toepassen van AI

Hier kunnen we kort over zijn: zorg dat iedereen binnen je organisatie die op wat voor manier dan ook betrokken is bij AI bewust is van wat AI eigenlijk is, wat de mogelijkheden zijn, maar zeker ook wat de tekortkomingen en valkuilen zijn.

7. Verantwoording bij het toepassen van AI

Voor de inzet van AI is het van groot belang dat je je als organisatie achteraf kunt verantwoorden. Hiervoor is het uiteraard nodig dat je een goede governance hebt geïmplementeerd, maar het gaat verder dan dat. Leg van meet af aan vast welke keuzes je hebt gemaakt, en waarom. Zorg er ook voor dat de output van AI verklaarbaar is, en dat tijdig kan worden ingegrepen als zaken anders lopen dat gepland. Zorg bij impactvolle AI altijd voor een menselijke beoordeling.

De moeite waard!

Alles bij elkaar zijn er best veel zaken om rekening mee te houden. Maar de moeite die je daarvoor moet nemen, verdient zich dubbel en dwars terug. Je beperkt niet alleen risico’s, maar je dwingt jezelf tot nadenken over de keuzes die je gaandeweg moet maken. Daar wordt niet alleen de wereld, maar ook je AI-model, en daarmee je organisatie beter van.

Over Future Facts (onderdeel van het Conclusion ecosysteem)

Future Facts is de responsible AI-partner van Nederland en sinds 2021 onderdeel van het veelzijdige Conclusion ecosysteem. Met een team van bevlogen AI-specialisten en onze krachtige executiestrategie, bewerkstelligen wij in korte tijd duurzame verandering en positieve impact bij onze klanten door inzet van state-of-the-art technologie.

Future Facts is in het DX300-onderzoek van MT/Sprout verkozen tot beste Data- en AI-specialist van Nederland.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee
RH
Ron Heinen 11 augustus 2023

Naast een privacy- en ethiekframework kun je ook wiskunde toepassen om issues te voorkomen. Informatiedragers als foto's, audio's en video's kunnen ook door AI gegenereerd worden. Om te bewijzen dat een informatiedrager echt is kan een watermerk in de informatiedrager aangebracht worden waarmee de authenticiteit en eigenaar van de informatiedrager bewezen kan worden.
Uitleg in een masterclass in de Tweede Kamer is te vinden is op https://www.tweedekamer.nl/nieuws/kamernieuws/masterclass-over-toepassingen-en-gevolgen-van-chatgpt
In de Dr.Kelder Podcast legt José van Dijck (Universiteit Utrecht, deskundige in Nederland op het gebied van technologie, onderwijs en media) uit waarom een watermerk opgenomen in informatiedragers als foto's, audio's en video's steeds meer noodzakelijk is: https://www.radioviainternet.nl/podcasts/dr-kelder-en-co/2023/chat-gpt-vloek-of-zegen-vriendschappen-heb-je-er-wat-aan
Komende jaren zullen op wetenschappelijke conferenties steganografie systemen gepresenteerd worden waarmee onzichtbare en onkraakbare watermerken in informatiedragers aangebracht kunnen worden.
Op https://citeseerx.ist.psu.edu/document?repid=rep1&type=pdf&doi=b5f364dc21d2cbebe8f4f8f6d3961ff7c4284ee7 is een informatie-theoretisch framework te vinden waar deze nieuwe systemen aan zullen voldoen.
Achtergrond info over digitale watermerken (bijvoorbeeld de applicaties hiervan) is te vinden op https://nl.wikipedia.org/wiki/Digitaal_watermerk
Een voorbeeld van een onzichtbaar en onkraakbaar watermerk in een foto is te zien op https://www.ndax.eu/RLchCdQtYaA7g-ZuOjOm.jpg
Conform het wetenschappelijke falsificatie principe kan bewezen worden dat de gebruikte manier van een onzichtbaar en onkraakbaar watermerk aanbrengen niet werkt door de inhoud van het watermerk in de foto terug te sturen in een reactie op dit artikel.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in