Management

Artificial Intelligence
bias

'Bestrijding schadelijke effecten AI-taalmodellen geen taak techbedrijven'

In brandbrief vragen onderzoekers om snel ingrijpen.

© Shutterstock iofoto
10 februari 2021

In brandbrief vragen onderzoekers om snel ingrijpen.

Komend half jaar moeten er duidelijke normen komen voor het gebruik van grote AI-modellen voor natuurlijke taalmodellen, stellen wetenschappers van onder meer de Amerikaanse Stanford University en Open AI in een artikel. Het duurt niet lang meer voor andere bedrijven dan Google, Microsoft en OpenAI in staat zijn vergelijkbare modellen te bouwen en er toepassingen voor aan te bieden. De manier waarop de modellen nu werken, heeft serieuze nadelige gevolgen voor de maatschappij, die op zijn minst kenbaar gemaakt moeten worden. Liever moeten die echter worden voorkomen door het opstellen van gebruiksregels.

Er is nu een beperkt aantal partijen dat de beschikking heeft over deze geavanceerde technologie. Die voorsprong duurt niet lang, voorspellen de wetenschappers. Het is echter niet aan deze handvol techbedrijven om de normen te bepalen, is een argument dat vaak naar voren komt in de deelnemers aan het onderzoek dat de basis vormt voor het artikel.

Aan het onderzoek werkte een groot aantal wetenschappers mee vanuit verschillende disciplines zoals computerwetenschappen, filosofie en politieke wetenschappen. Het probleem zit in de inherente vooroordelen die in dergelijke grote taalmodellen worden 'ingebakken' als gevolg van training op petabytes aan teksten die zonder veel filtering van het internet worden geschraapt. Zo is aangetoond dat GPT-3 - een model van OpenAI dat exclusief in licentie is gegeven aan Microsoft voor het gebruik in diens clouddiensten - aantoonbaar vooroordelen heeft tegen zwarte mensen en een koppeling maakt tussen moslims en terroristen, stelt Venturebeat.

Meer desinformatie dreigt

Op het moment dat dergelijke modellen beschikbaar komen in toepassingen die iedereen kan inzetten, gaan ze ongetwijfeld bijdragen aan het creëren van nog meer desinformatie. Ze kunnen ook ingezet worden om werknemers te vervangen met alle gevolgen van dien voor bijvoorbeeld het selecteren van kandidaten voor sollicitatieprocedures, om maar een voorbeeld te noemen.

De techbedrijven zijn niet in staat een goede afweging te maken met de economische voordelen van het verkopen van diensten op basis van zulke modellen en de noodzaak tot het bestrijden van de maatschappelijke effecten daarvan, stellen de wetenschappers. Dat werd onlangs weer duidelijk uit het conflict dat Temnit Gebru - voormalig leidinggevende in het ethisch team bij Google - had met haar werkgever en dat uiteindelijk leidde tot haar ontslag.

De onderzoekers geven in het artikel een aantal adviezen:

  • Teksten gegenereerd met behulp van AI moet altijd worden voorzien van een wettelijk afgedwongen waarschuwing.
  • Dergelijke taalmodellen zouden altijd in duo's moeten worden gebruikt zodat de een de ander kan corrigeren.
  • Er moeten bias-tests worden ontwikkeld die voor elk gebruik van een AI-model moeten worden uitgevoerd. Het naar de voorgrond komen van de bias is namelijk sterk afhankelijk van het doel waarvoor het model wordt ingezet.
  • Voor sommige toepassingen is het gebruik van dergelijke AI-modellen niet wenselijk en moet dit worden voorkomen.
Lees meer over
Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.