Management

Zo creëer je normen voor ethiek in AI
Wie denkt mee over normenkader?
Wie denkt mee over normenkader?
De snelle opkomst van het toepassen van kunstmatige intelligentie roept veel vragen op rond ethische kwesties. Het is een vakgebied dat nog sterk in ontwikkeling is en afspraken maken over ethische kwesties is erg cultuurbepaald. Dat maakt het niet eenvoudig om te komen tot wereldwijd geaccepteerde standaarden. Toch is dat waar de normcommissie Artificial Intelligence van de Nederlandse standaardenorganisatie NEN aan werkt en input voor zoekt.
Hoe komt het dat AI-systemen de neiging hebben te discrimineren en wat kun je er tegen doen? Welke beslissingen mag een AI-systeem zelf nemen? Wie is eindverantwoordelijk wanneer AI de fout in gaat? Hoe maak je toch aantoonbaar dat een algoritme binnen ethische waarden opereert, ondanks dat het soms een black box is?
Kunstmatige intelligentie is volop in ontwikkeling. Dat maakt het al lastig gemeenschappelijke afspraken te maken. Vooral omdat sommige AI-systemen ook nog eens zelflerend zijn, dus een beschrijving van het systeem van vandaag kan morgen al niet meer kloppen. Bovendien zijn de ethische waarden die daarbij komen kijken voor iedereen anders. En de technologie kan vaak ook nog voor heel verschillende toepassingen worden gebruikt. Bijvoorbeeld: slimme camera's mensen laten tellen voor de nationale politie is technisch gezien misschien niet zo anders dan producten op een lopende band in een magazijn tellen. Maar het een heeft in het maatschappelijk leven wel een heel andere lading dan het ander. Dat maakt het opstellen van een normenkader of standaardisering voor ethische waarden nog lastiger.
Yvette Mulder is een van de sprekers van de nieuwe collegereeks 'AI van techniek naar toepassing', die AG Connect samen met Nyenrode Business Universiteit organiseert. In deze reeks van 6 colleges komen theorie en praktijk van het toepassen van AI aan bod. Geïnteresseerd? Kijk voor meer informatie op www.nyenrode.nl/ai
"Je kunt niet voor iedereen en voor alle toepassingen één ethisch waardensysteem vastleggen waaraan zij allemaal precies op dezelfde manier moeten voldoen", schets Yvette Mulder de uitdaging voor de normcommissie Artificial Intelligence waar zij voorzitter van is. Het werk van NEN is er daarmee de afgelopen decennia niet makkelijker op geworden. Als er behoefte was aan een industrienorm voor de manier waarop een boutje in een moertje moest passen, werden na onderhandelingen harde conclusies vastgelegd die jarenlang geldig bleven. Zo kan het opstellen van richtlijnen voor AI niet verlopen. Maar die normen zijn wel hard nodig. Consumenten en overheden in Europa willen dat producten en diensten op basis van kunstmatige intelligentie voldoen aan de normen en waarden die we in Europa hanteren ten aanzien van die toepassingen. Ook als die technologie uit China of de Verenigde Staten komt.
Internationale overeenstemming nodig
Het Nederlands Normalisatie Instituut (NEN) is daarom 3 jaar geleden gestart met nadenken over deze onderwerpen. De markt voor producten en diensten waarin AI is verwerkt is mondiaal. Normen ontwikkelen voor alleen Nederland heeft daarom niet zo veel zin. De NEN-werkgroep neemt daarom deel in een internationaal samenwerkingsverband van standaardenorganisatie ISO, dat al een jaar eerder is begonnen met dit werk. In het samenwerkingsverband zijn 33 landen actief deelnemer en kijken er 17 mee. Datzelfde gebeurt sinds dit jaar bij de Europese standaardisatieorganisatie CEN.
Voor het werk aan AI en ethiek nemen de werkgroepen de normen die er al liggen voor software als uitgangsmateriaal. "In feite is kunstmatige intelligentie gewoon een softwaretoepassing. Daarom zijn veel afspraken die al zijn beschreven voor software, ook toepasbaar op algoritmen, zoals over onderhoud en het testen van software."
Belangrijke zaken die specifiek bij kunstmatige intelligentie spelen, zijn de kwaliteit van data en de ethische aspecten. Maar eerst is begonnen met het vastleggen van terminologie. Wat verstaan we onder big data? En onder artificial intelligence? "Het moet voor iedereen duidelijk zijn waar je het over hebt en dan moet je het eens zijn over de betekenis van de woorden die je gebruikt."
Omdat het zo moeilijk is om afspraken te maken over de ethische aspecten van de inzet van kunstmatige intelligentie, richt de normcommissie zich sterk op governance, processen en de kwaliteitsborging van data. Er worden procedures en checklists ontwikkeld, die ervoor moeten zorgen dat bij ieder product of dienst een grondige afweging wordt gemaakt over de ethische aspecten die daarbij spelen. Daarnaast is ook risicobeheer (risk management) een belangrijk aandachtspunt. Inmiddels zijn daarvoor al 22 normen in ontwikkeling en zijn er 8 klaar.
Een belangrijke taak van de normcommissie is om met betrokkenen uit het veld de normen te bespreken die in ontwikkeling zijn. Wie mee wil discussiëren kan zichzelf opgeven voor deelname. In principe betalen deelnemers een lidmaatschapsbijdrage, maar kleine, minder draagkrachtige organisaties dragen een lager bedrag bij.
Meningen botsen soms flink
Hoewel de meningen en belangen soms fors kunnen botsen, ziet NEN zichzelf ook als mediator die met de partijen in gesprek gaat om toch tot een consensus te komen. Die wordt dan in internationaal verband namens Nederland ingebracht. NEN heeft daartoe een opdracht van de overheid maar staat hier verder los van. De overheid zit vaak wel aan tafel met een vertegenwoordiger, maar heeft geen speciaal stemrecht. Mulder: "Dat voorkomt dat de overheid via de normen verkapt een overheidsbeleid opdringt. Hoe de normcommissies in andere landen dat invullen, is wisselend. We weten bijvoorbeeld dat de Chinese overheid veel belang hecht aan standaardisatie en dat aanjaagt. Voor Nederland geldt dat ook, maar met een andere invulling. We leven nu eenmaal in een klein land dat het moet hebben van samenwerking. Dat is belangrijk voor onze economie."
Mulder weet zeker dat er de komende jaren nog voldoende werk ligt. Het opstellen van de normen duurt gemiddeld al een jaar of twee tot drie. Bovendien liggen ze minder vast dan wetgeving of overheidsbeleid. "Elke paar jaar vindt er een review plaats. De komende jaren zitten we wel in de ontwikkeling waar we nu mee bezig zijn. Kunstmatige intelligentie neemt nog een enorme vlucht, er is dus nog veel discussie."
Meer weten over de samenwerking in de Europese Unie op IT-gebied? Bekijk het overzicht op Dossier Europa.
Een drietal kanttekeningen :
1. Een ethisch waardensysteem voor AI is eigenlijk een contradictio in terminis, want een waardensysteem is per definitie algemeen en niet beperkt tot één onderwerp. Tegelijkertijd is er niet één waardesysteem, maar zijn er net zoveel waardesystemen als er culturen, religies en politieke richtingen zijn. Elk waardesysteem reguleert het totaal van de samenleving dat eraan onderworpen is, niet één onderdeeltje. Zo is de keuze voor een parlementaire democratie niets anders dan een keuze voor een ethisch waardensysteem obv democratische overeenstemming in plaats van één die bepaald wordt door religieuze leiders, dictators, een NEN instituut of de Communistische Partij. Wij hebben hier in Nederland ons ethische waardensysteem dus allang bepaald en doen dat gezamenlijk. Dat houdt tevens in dat we, als we in meerderheid van mening zijn dat bepaalde waarden vervangen moeten worden door nieuwe, daartoe simpelweg kunnen besluiten. Ergo, ons waardensysteem heeft noch beoogt eeuwigheidswaarde en is daarmee een stuk realistischer dan de andere systemen die daar vrijwel allemaal wel naar streven.
2. Om ons al bestaande ethische waardensysteem handen en voeten te geven vertalen we onze normen naar wetgeving , legitimeren de overheid om die te handhaven en stellen we rechters aan om zo nodig ons recht te kunnen halen. Een belangrijk onderdeel van deze rechtsorde is de aansprakelijkheid voor schade van de veroorzaker van die schade. Er is geen enkele reden om het concept van aansprakelijkheid niet ook van toepassing te verklaren op AI en dan op zowel de gebruikers als de ontwerpers van AI. In concreto, als een gemeente door het gebruik van Syri “ onze” normen overtreedt en daarmee schade veroorzaakt is zij voor die schade aansprakelijk. Elke weldenkende gemeente zal in het contract met de ontwerpers van dat programma die aansprakelijkheid naar hen doorzetten. Wanneer gebruikers én ontwikkelaars van AI in onze bestaande rechtsorde op deze wijze geconfronteerd kunnen worden met de gevolgen van hun hersenspinsels, waarom zouden we dan nog naar een alternatief waardensysteem op zoek moeten gaan? Beter is het om hun aansprakelijkheid zo nodig nog iets nader te preciseren cq bv uitsluiting van aansprakelijkheid te verbieden en de rechtsgang te vergemakkelijken. Als we met z’n allen gewoon wat assertiever worden om de makers van AI voor de rechter ter verantwoording te roepen, komen we al heel ver.
3. AI zonder data bestaat niet. Hier hebben we alleen wel een probleempje , want we hebben de eigendom van die data niet zo goed geregeld. Dat wil niet zeggen dat die eigendom niet bestaat. In beginsel zijn bv alle op personen herleidbare data eigendom van die persoon. Het gebruik van zulke data zonder expliciete toestemming van de eigenaar is derhalve diefstal. Als deze data voor de ontwikkeling van AI gebruikt worden is het betreffende eindproduct illegaal. Hebben we daar een nieuw waardenstelsel voor nodig. Nee, we moeten alleen ons bestaande waardensysteem beter gebruiken.
Misschien is het de AI, die patronen achterhaalt, die ons niet welgevallig zijn. Want als het gaat om "bias" is de mens nog VEEL gevoeliger voor bias dan een machine. We noemen dat "perceptie filter".
En als je AI wilt inzetten op een zogenaamd "gevoelig veld" zet er dan een mens tussen, die op basis van het AI advies een beslissing neemt. Kijken of dat beter gaat.
Gezien het aantal mensen, dat jarenlang onschuldig in de cel zat of zelfs geexecuteerd werd betwijfel ik dat ten zeerste. Maar niemand die zich daar druk om maakt. Immers, vergissen is menselijk, niet?
Volgens mij moet je eerst maar eens wereldwijd een "gedragen" definitie van AI ontwikkelen. Een normenkader suggereert namelijk dat je op de een of andere manier op systematische wijze meetbare (empirisch) grenzen vaststelt waar de "AI" (construct) in mag bestaan. Komisch dat de vergelijking met een boutje en moertje werd gemaakt, maar de enige NEN-norm die daarvoor is afgesproken is de maatvoering (anders passen die dingen natuurlijk niet). De werking van het boutje en moertje zijn vaak niet eens beschreven. Bij de wat grotere wel (anders zouden hele bruggen en gebouwen uit elkaar vallen). Edoch een boutje en een moertje zijn fysieke relatief eenvoudige voorwerpen. "AI" (wat dat ook moge zijn) is imho niet gelijk aan software. Vaak hoor ik dan algoritmen. Mensen halen van alles door elkaar. Een algoritme is een wiskundige beschrijving (vaak in de vorm van predicatenlogica) tussen twee statussen. Dus een stukje software dat je naam op het scherm tovert is echt geen algortime en al helemaal geen "AI". Bekende algoritmen zijn overigens programeertaal agnost, het zijn, zeg maar, recepten om een wiskundig probleem te adresseren. Voorbeelden van algoritmen zijn sorteeralgoritmen (quick-sort, radix-sort, etc... ). De "AI" wordt vandaag de dag populistisch beschreven en maar ook wetenschappelijk om zoveel manieren, dat je de bomen door het bos niet meer ziet. Volgens mij gaat ethiek over meer dan alleen de onderliggende algoritmiek en daaruit afgeleide IT. Volgens mij is het proces met de mensen (actoren) daarin nog veel relevanter. We maken ons nu wel druk over ethiek en AI, maar wie kan mij garanderen dat 10 ambtenaren die precies hetzelfde besluit moeten nemen (zoals in de wet en regelgeving beschreven) altijd dezelfde uitkomst heeft op dezelfde casus? En moet dat altijd wel dezelfde uitkomst hebben? Welke aspecten maken iets ethisch?
In het tijdschrift Privacy en Informatie heb ik gepleit voor een verbod op het heimelijk gebruik van techniek. Dat zou kunnen door een aanpassing van de artikelen 139a tot en met f Wetboek van Strafrecht, die nu vooral gelden voor het gebruik van camera's en afluisterapparatuur. Deze artikelen zouden kunnen worden aangevuld met bepalingen over heimelijk gebruik van andere technieken als (etnische) profilering, algoritmes, internet der dingen en AI. Een beroep op ethische normen is naar mijn mening niet voldoende.