Overslaan en naar de inhoud gaan

'Bestrijding schadelijke effecten AI-taalmodellen geen taak techbedrijven'

Komend half jaar moeten er duidelijke normen komen voor het gebruik van grote AI-modellen voor natuurlijke taalmodellen, stellen wetenschappers van onder meer de Amerikaanse Stanford University en Open AI in een artikel. Het duurt niet lang meer voor andere bedrijven dan Google, Microsoft en OpenAI in staat zijn vergelijkbare modellen te bouwen en er toepassingen voor aan te bieden.
bias
© Shutterstock
Shutterstock

De manier waarop de modellen nu werken, heeft serieuze nadelige gevolgen voor de maatschappij, die op zijn minst kenbaar gemaakt moeten worden. Liever moeten die echter worden voorkomen door het opstellen van gebruiksregels.

Er is nu een beperkt aantal partijen dat de beschikking heeft over deze geavanceerde technologie. Die voorsprong duurt niet lang, voorspellen de wetenschappers. Het is echter niet aan deze handvol techbedrijven om de normen te bepalen, is een argument dat vaak naar voren komt in de deelnemers aan het onderzoek dat de basis vormt voor het artikel.

Aan het onderzoek werkte een groot aantal wetenschappers mee vanuit verschillende disciplines zoals computerwetenschappen, filosofie en politieke wetenschappen. Het probleem zit in de inherente vooroordelen die in dergelijke grote taalmodellen worden 'ingebakken' als gevolg van training op petabytes aan teksten die zonder veel filtering van het internet worden geschraapt. Zo is aangetoond dat GPT-3 - een model van OpenAI dat exclusief in licentie is gegeven aan Microsoft voor het gebruik in diens clouddiensten - aantoonbaar vooroordelen heeft tegen zwarte mensen en een koppeling maakt tussen moslims en terroristen, stelt Venturebeat.

Meer desinformatie dreigt

Op het moment dat dergelijke modellen beschikbaar komen in toepassingen die iedereen kan inzetten, gaan ze ongetwijfeld bijdragen aan het creëren van nog meer desinformatie. Ze kunnen ook ingezet worden om werknemers te vervangen met alle gevolgen van dien voor bijvoorbeeld het selecteren van kandidaten voor sollicitatieprocedures, om maar een voorbeeld te noemen.

De techbedrijven zijn niet in staat een goede afweging te maken met de economische voordelen van het verkopen van diensten op basis van zulke modellen en de noodzaak tot het bestrijden van de maatschappelijke effecten daarvan, stellen de wetenschappers. Dat werd onlangs weer duidelijk uit het conflict dat Temnit Gebru - voormalig leidinggevende in het ethisch team bij Google - had met haar werkgever en dat uiteindelijk leidde tot haar ontslag.

De onderzoekers geven in het artikel een aantal adviezen:

  • Teksten gegenereerd met behulp van AI moet altijd worden voorzien van een wettelijk afgedwongen waarschuwing.
  • Dergelijke taalmodellen zouden altijd in duo's moeten worden gebruikt zodat de een de ander kan corrigeren.
  • Er moeten bias-tests worden ontwikkeld die voor elk gebruik van een AI-model moeten worden uitgevoerd. Het naar de voorgrond komen van de bias is namelijk sterk afhankelijk van het doel waarvoor het model wordt ingezet.
  • Voor sommige toepassingen is het gebruik van dergelijke AI-modellen niet wenselijk en moet dit worden voorkomen.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in