Overslaan en naar de inhoud gaan

OpenAI lobbyde voor zwakkere AI-wet Europa

Het Amerikaanse bedrijf OpenAI verklaart al maanden openlijk dat wet- en regelgeving nodig is om de risico's van kunstmatige intelligentie in te perken. Tegelijkertijd heeft de AI-maker gelobbyd in de Europese Unie om belangrijke elementen van de impactvolle AI Act afgezwakt te krijgen. Dit meldt TIME op basis van documenten die het heeft opgevraagd in het kader van open overheidsfunctioneren.
oog code
© Shutterstock
Shutterstock

Niet alleen heeft OpenAI om minder strenge regels gevraagd, het heeft ook zelf voorstellen gedaan voor aanpassingen. In meerdere gevallen zijn voorgestelde amendementen van het Amerikaanse bedrijf terecht gekomen in de definitieve wetstekst, weet TIME dankzij zijn ingediende Wob/Woo-verzoeken. Het Europese Parlement heeft de AI Act eerder deze maand goedgekeurd. Nu volgt nog een laatste behandelingsronde en naar verwachting komt in januari de afronding.

'Geen hoog risico'

Een belangrijk punt in de lobby-activiteiten van OpenAI is het standpunt dat zijn generatieve-AI technologie níet geclassificeerd zou moeten worden als een hoog-risico systeem. Die definitie brengt onder de AI Act extra regulering met zich mee. OpenAI stelt echter - net als investeerder Microsoft en concurrent Google - dat hoog-risico een kwestie van toepassing is van de technologie. Een AI-ontwikkelaar als OpenAI zou slechts de tools maken en dus niet over de inzet gaan en het eventuele risicogehalte daarvan.

In september vorig jaar heeft OpenAI een document gestuurd een EU-functionarissen waarin het semi-commerciële AI-onderzoeksbedrijf dit standpunt uiteenzet. Deze 'OpenAI White Paper on the European Union’s Artificial Intelligence Act' bestrijkt AI-systemen als beeldgenerator Dall-E 2 en GPT-3, wat de inmiddels oudere versie is van de ondergrond voor de geruchtmakende AI-bot ChatGPT. Zulke AI-systemen zijn volgens OpenAI niet 'high-risk'. Dit tot nog toe geheim gehouden lobbydocument is door TIME online gepubliceerd.

Toch wel hoog risico?

Ironisch genoeg heeft OpenAI-CEO Sam Altman in het openbaar definities gegeven voor hoog-risico AI-systemen waar de creaties van zijn bedrijf wel onder vallen. "Ik denk dat een model dat kan overtuigen, manipuleren of beïnvloeden van het gedrag of de overtuigingen van een persoon, dat dat een goede grens zou zijn", zei hij in een hoorzitting voor het Amerikaanse Congres over AI-regulering. ChatGPT heeft zich in de praktijk al 'schuldig gemaakt' aan zulke kwalijke zaken. "Ik denk dat een model dat kan helpen om nieuwe biologische wapens te creëren een hele goede grens zou zijn. Dat soort dingen."

Recent heeft de topman van OpenAI nog dreigende taal geuit over een mogelijke EU-exit als de aankomende AI-wetgeving te streng zou zijn. Later is hij teruggekomen op die woorden en heeft hij gesteld dat zijn bedrijf er samen met de EU uit wil komen. TIME concludeert nu op basis van de verkregen EU-documenten en de uiteindelijke wetstekst van de AI Act dat OpenAI wel succes heeft geboekt met zijn lobbywerk. In eerdere versies van het wetsvoorstel stonden formuleringen die algemene AI-systemen wel als hoog-risico zouden aanmerken. De nu goedgekeurde tekst bevat echter het compromis dat leveranciers van zogeheten 'foundation models' (zoals GPT van OpenAI) moeten voldoen aan een handjevol vereisten, waaronder het uitvoeren van risk assessments.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in