Innovatie & Strategie

Dit is een bijdrage van Pegasystems BV
Artificial Intelligence
vrouwe justitia

Het belang van responsible AI in deze snelle wereld

Gelijkheid, transparantie, empathie en betrouwbaar: de pijlers van een verantwoord AI-beleid 

17 november 2020
Door: Pegasystems BV, partner

Gelijkheid, transparantie, empathie en betrouwbaar: de pijlers van een verantwoord AI-beleid 

Bijna alles wat wij online doen, wordt aangestuurd door Artificial Intelligence (AI). Voorspellende algoritmes doen ons aanbevelingen voor specifieke producten en diensten, ze stellen een diagnose, ze vertalen op voorhand de informatie die je te zien krijgt en maken op basis van eerdere gedragingen berekeningen voor je. Ze bepalen zelfs welke nieuwsberichten en content je te zien krijgt in je nieuwsoverzicht op social media. Wat AI onderscheidt van decisioning technologie is dat AI ‘al doende’ leert. Hoe meer het ingebed raakt in ons leven, hoe zelfstandiger het wordt en zijn werk kan doen zonder menselijke supervisie.

Naarmate de behoefte aan AI gedreven technologie groeit, neemt de druk op organisaties om bij blijven ook steeds meer toe. De ‘AI Arms Race’ is nog nooit zo groot geweest. Het gaat niet om wie de meest geavanceerde algoritmes kan bouwen, maar meer om wie de meeste aandacht kan trekken en controleren én daarmee aan invloed wint. Het gezegde luidt: “With great power comes great responsibility”, maar buiten de VS en Europa is er minder privacywet- en regelgeving als het gaat om het verzamelen en gebruiken van persoonsgegevens. Voor veel organisaties rijst de vraag: hoe zorgen we ervoor dat onze AI-modellen onze culturele en ethische waarden reflecteren, maar tegelijkertijd de concurrentie voor blijven? Het feit dat bedrijven worden gedwongen AI sneller in te zetten - misschien sneller dan ze zouden willen – heeft ook een keerzijde.

Vier vereisten voor responsible AI
De strijd voor sociale rechtvaardigheid nam dit jaar zeer prominent plaats in in het nieuws. Meer dan ooit staan vooroordelen en discriminatie in de schijnwerpers. Organisaties die het gebruik en de ontwikkeling van AI stimuleren, moeten er alles aan doen om bias uit te sluiten, om door AI genomen beslissingen uit te leggen en verantwoordelijkheid te nemen als hun AI de plank misslaat. Als klantgerichtheid meer is dan alleen een buzzword, gaat het meer om een verantwoorde manier van ontwikkeling dan om snelheid.

De vier belangrijkste aspecten voor responsible AI zijn:

Gelijkheid
Om er zeker van te zijn dat AI iedereen gelijk en eerlijk behandelt, moeten organisaties proactief en scherp toezien op hun AI-regels. Belangrijk is dat zij echt onbevooroordeelde AI-modellen bouwen die proactief worden gemonitord en waarvan ook de output wordt geanalyseerd. Centrale vraag hierbij: behandelt de gebruikte AI iedereen echt gelijk, ongeacht geslacht, etniciteit, leeftijdsgroep, postcodegebied, inkomen of religie?  

Of AI eerlijk te werk gaat, daar staat eigenlijk niemand bij stil. Totdat er iets fout gaat met alle schadelijke gevolgen van dien. Maar eigenlijk zou AI als het gaat om vooroordelen en discriminatie, zich beter moeten gedragen dan de maatschappij waarin we leven. Een treffend voorbeeld is de AI-tool ‘Correctional Offender Management Profiling for Alternative Sanctions’ (COMPAS) van Northpointe. Wat bleek? De tool discrimineerde Afro-Amerikaanse verdachten. Het algoritme werkte op basis van gegevens die al in het rechtssysteem zaten. Het systeem was daarmee al bevooroordeeld ten aanzien van Afro-Amerikanen, waardoor de kans dat Afro-Amerikaanse verdachten opnieuw zouden worden veroordeeld twee keer zo groot was als bij blanke criminelen. Dit soort ingeslopen bias komt vaker voor dan men denkt, waardoor stereotypering in stand wordt gehouden.

Transparantie
Organisaties moeten transparant zijn over hoe ingezette AI tot een specifiek besluit komt - zeker binnen sectoren met strenge wet- en regelgeving zoals de financiële en verzekeringssector. Zo kwam eind vorig jaar een bekende organisatie onder vuur te liggen toen bleek dat mannelijke klanten hogere creditcard limieten aangeboden kregen dan vrouwelijke klanten met dezelfde financiële positie en achtergrond. Omdat het gebruikte AI-model niet transparant was hoe het tot een bepaalde beslissing kwam – ook wel black box of opaque AI genoemd - werd de organisatie bestempeld als bevooroordeeld ten aanzien van vrouwen. 

Organisaties moeten proactief zijn bij het certificeren van hun algoritmen en duidelijk hun beleid communiceren ten aanzien van bias. Bovendien, zeker wanneer er problemen zijn, duidelijk uitleggen hoe ze tot een beslissing zijn gekomen. Het zou ook helpen als ze overwegen transparante en verklaarbare algoritmen te gebruiken voor sterk-gereguleerde, risicovolle use-cases, zoals goedkeuringen van kredietaanvragen. Des te makkelijker is het voor servicemedewerkers om een beslissing te begrijpen en uit te leggen aan klanten.

Empathie
De noodzaak voor organisaties om empathie te tonen is groter dan ooit. Empathie in AI betekent wil zeggen relevante en nuttige beslissingen waarbij de behoeften van de klant centraal staan. Het gaat erom te kijken naar de volledige context van een klant om precies te begrijpen wat hij ‘op dit moment’ nodig heeft. Het is weten wanneer het verkoopmoment daar is, maar minsten zo belangrijk, ook weten wanneer je de klant moet faciliteren, hem aan boord moet houden of gewoonweg even niets moet doen.

Een mooi voorbeeld is de dienst ‘Benefits Finder’ van Commonwealth Bank of Australia waarmee zij 600.000 klanten informeerden over de waarde van bijna verlopen creditcardpunten en hoe ze deze konden inwisselen. Hoewel de meeste bedrijven dit soort punten laten vervallen, zodat ze geen kosten hoeven te maken, zag CBA proactieve communicatie als een meer empathische manier om hun klanten van dienst te zijn. Empathie is goed voor je business, zo blijkt uit recent onderzoek van Forrester (Total Economic Impact). Wanneer je AI gebruikt bij het ontwikkelen van een 1:1 engagement programma, levert dat een winst op van ongeveer $700M in drie jaar en tegelijkertijd een besparing van meer dan $500M op het klantverloop.

Betrouwbaar
Misschien zegt Tay je nog iets? Een experiment van een paar jaar geleden met een zelflerende Twitterbot die de plank volledig missloeg. De chattende robot was bedoeld om kunstmatige intelligentie en gespreksbegrip te testen. Mensen gingen op Twitter massaal met de chatbot in gesprek en zochten de grens op hoever de chatbot zou gaan met zijn antwoorden. De chatrobot leerde door commentaren van twitteraars te herhalen en antwoorden te genereren op basis van het verkeer op Twitter. Met als gevolg dat het AI-model binnen 24 uur vrouwonvriendelijk en racistisch werd.

Hoewel sommigen er de grap wel van inzagen, betekende het voor de markt echt een keerpunt. Met name voor organisaties die snel stappen wilden zetten in AI. Duidelijk werd dat robuustere AI nodig was, dan wel AI met ingebouwde beveiliging zodat ze minder makkelijk te beïnvloeden waren. Ook kwam men tot inzicht dat ze AI-regels en vangrails moesten instellen om te bepalen welke soorten acties in bepaalde situaties 'geschikt' waren.

Vaak wordt pas aan algoritmen gedacht als er fouten zijn gemaakt. Het zou veel beter zijn als organisaties proactief maatregelen nemen om discriminatie te voorkomen door toezicht te houden op zichzelf en beslissingen te nemen die het meest geschikt zijn voor de klant.

Gelijkheid, transparantie, empathie en betrouwbaar: de vier belangrijkste pijlers van een verantwoord AI-beleid van elke organisatie. En hoewel velen het zich niet kunnen veroorloven om gas terug te nemen, is het wel belangrijk dat we dezelfde basisprincipes hanteren als het gaat om respect voor de klant en een duurzame (en hopelijk winstgevende) visie uitdragen voor succes op de lange termijn. Daar kunnen we allemaal van profiteren. Het is niet alleen het juiste om te doen; het versterkt uiteindelijk onze klantrelaties, merken en bedrijfsresultaten, ongeacht met welke crisis we hierna worden geconfronteerd.

Door: Matthew Nolan, Senior Director Product Marketing, Pegasystems

Reactie toevoegen