Overslaan en naar de inhoud gaan

OpenAI wil graag AI-regulering van overheid VS

CEO Sam Altman van AI-pionier OpenAI heeft er bij de Amerikaanse overheid op aangedrongen om wet- en regelgeving in te stellen voor de snel ontwikkelende technologie van kunstmatige intelligentie (AI). De topman van het bedrijf dat het geruchtmakende ChatGPT heeft losgelaten op de wereld vroeg om regulering in een hoorzitting in het Congres. Hij pleitte voor regulering die bedrijven verplicht om overheidslicenties te verkrijgen voor geavanceerde AI-modellen die voorbij een bepaalde grens gaan.
het Capitool, VS
© WhiteHouse.gov
WhiteHouse.gov

Waar die grens komt te liggen en hoe dat überhaupt gedefinieerd moet worden, is voer voor flinke discussie. Altman heeft er wel enige ideeën over. "Ik denk dat een model dat kan overtuigen, manipuleren of beïnvloeden van het gedrag of de overtuigingen van een persoon, dat dat een goede grens zou zijn. Ik denk dat een model dat kan helpen om nieuwe biologische wapens te creëren een hele goede grens zou zijn. Dat soort dingen."

Blik op banen en verkiezingen

De medeoprichter en hoogste baas van OpenAI was één van de drie AI-experts die 'getuigden' voor een commissie van de Amerikaanse Senaat. Het onderwerp van die hoorzitting was toezicht op en eventuele regulering van AI, dat nu stormachtige ontwikkelingen doormaakt die flinke en verstrekkende impact hebben. De commissieleden vroegen naar de huidige staat van AI-ontwikkeling en sneden enkele punten van zorg over het gebruik van AI aan. In de sessie is er vooral aandacht gegeven aan de gevolgen van AI voor de arbeidsmarkt en voor disinformatie rondom de verkiezingen.

De andere twee AI-experts die zijn gehoord door de Senaatscommissie zijn de oprichter van AI-startups Robus AI en Geometric Intelligence en de privacy- en trusttopvrouw van IBM. Eerstgenoemde is Gary Marcus, gepensioneerd hoogleraar in de psychologie en neurowetenschappen aan de New York University, die erop wijst dat AI-chatbots mensen kunnen misleiden. Daarbij kunnen mensen door valse informatie worden aangezet tot schadelijk of risicovol gedrag, schrijft The Register.

Valse beschuldigingen en slecht advies

De expert noemt als praktijkvoorbeelden hoe ChatGPT een geval van seksuele intimidatie verzon en daarbij een echt bestaande professor als dader noemde, en hoe Snapchats AI een schijnbaar dertienjarig meisje adviseerde om tegen haar ouders te liegen over een ontmoeting met een 31-jarige man. Dat minderjarige meisje was echter fictief; als account aangemaakt door de AI- en mens-kritische onderzoeker Aza Raskin.

AI kan zorgen voor een stortvloed aan desinformatie en daarmee vertrouwen in instituten als de overheid en het rechtssysteem aantasten, aldus AI-expert Marcus. Hij sprak in de hoorzitting over bijdrage aan ondermijning van de democratie.

Genuanceerde aanpak

De derde expert was Christine Montgomery, chief privacy and trust officer bij IBM. Zij dringt er bij het Amerikaanse Congres op aan om regels in te stellen, maar dan niet met brede dekking. De inzet van AI moet volgens haar worden gereguleerd voor alleen specifieke gevallen. Deze gerichte aanpak moet ervoor zorgen dat innovatie niet wordt beperkt. Montgomery gaf het idee van verschillende regels voor verschillende risico's.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in