Innovatie & Strategie

OpenAI-CEO: EU-exit mogelijk bij te strenge regels
ChatGPT-maker noemt aankomende Europese AI-wetgeving overregulering, maar hoopt op afzwakking.
ChatGPT-maker noemt aankomende Europese AI-wetgeving overregulering, maar hoopt op afzwakking.
OpenAI, de maker van de geruchtmakende chatbot ChatGPT, kan overwegen om de Europese Unie te verlaten als de in wording zijnde AI-wetgeving van de EU te streng blijkt te zijn. CEO Sam Altman zegt dat zijn bedrijf wel zal proberen om aan de wet te voldoen, maar als dat niet kan, dan is een EU-exit mogelijk. Het gaat onder meer over datagebruik en melding als er auteursrechtelijk beschermd materiaal is benut voor het trainen van AI-systemen.
"Het huidige ontwerp van de AI-wet van de EU zou overregulering zijn, maar we hebben gehoord dat dit zal worden teruggetrokken", verklaarde de topman op een evenement in Londen. "Ze praten er nog steeds over", schrijft persbureau Reuters op uit zijn mond. De door AI-aangedreven chatbot ChatGPT levert logisch klinkende teksten en heeft daarmee in korte tijd systeem veel opzien gebaard. De gecreëerde teksten blijken namelijk lastig te onderscheiden zijn van schrijfwerk dat mensen kunnen doen.
Impact op maatschappij
De EU wil als eerste overheid regels stellen voor de baanbrekende techniek van AI, die veelbelovend is maar die ook grote zorgen baart. Zo zou ChatGPT morele waarden in de maatschappij ondermijnen, blijkt uit onderzoek, omdat mensen de neiging hebben alles wat de bot 'zegt' klakkeloos over te nemen. Geen of gebrekkige bronvermelding, ontbrekende feitencontrole en AI-hallucinaties spelen hierbij mee. Verder wil de EU in de eigen landen geen uitwassen van AI toestaan zoals de Chinese burgervolgsystemen waarmee gedrag wordt beloond en gestraft.
Europarlementariërs bereikten eerder deze maand een overeenstemming over het ontwerp van de nieuwe AI-regelgeving. Maar daarmee is die wetgeving er nog niet. Er moet nog worden gedebatteerd tussen de vertegenwoordigers van het Europees Parlement, de Raad en de Commissie om de laatste details uit te werken. "Er is zoveel dat ze zouden kunnen doen", benadrukt Altman. Hij noemt als voorbeeld dat de definitie nog wat aangepast zou kunnen worden van AI-systemen voor algemene doeleinden. "Er zijn veel dingen die kunnen worden gedaan", aldus de OpenAI-topman.
Vóór regulering VS
Altman heeft eerder deze maand tegenover een Amerikaanse Senaatscommissie juist gepleit vóór AI-regulering door de overheid van de Verenigde Staten. De hoogste baas van het grote, vooroplopende OpenAI ziet heil in regulering die bedrijven verplicht om overheidslicenties te verkrijgen voor geavanceerde AI-modellen die voorbij een bepaalde grens gaan. Daarbij gaf hij voorbeelden van grenzen die in de praktijk eigenlijk al gepasseerd zijn, ook door ChatGPT. "Ik denk dat een model dat kan overtuigen, manipuleren of beïnvloeden van het gedrag of de overtuigingen van een persoon, dat dat een goede grens zou zijn", aldus Altman.
Daarnaast is het probleem met het bepalen van zulke grenzen en definities ook de duale aard van technologie en innovaties. AI die wordt gebruikt voor onderzoek naar vaccins tegen bepaalde virussen valt in theorie ook te gebruiken voor biologische wapens. De OpenAI-CEO noemde dat laatste als voorbeeld van iets dat "een hele goede grens" zou zijn. De speciale Senaatscommissie voor AI heeft nog twee andere AI-experts gehoord, die met andere (praktijk)voorbeelden en redenen neigen naar bepaalde vormen van overheidsregulering voor AI.
De duale aard van technologie en innovaties komt zeer veel voor. De eerste verantwoordelijkheid ligt bij de gebruiker. Met een mes kunt je een heerlijke maaltijd maken of iemand mee steken en met een auto kun je van A naar B rijden of iemand opzettelijk aanrijden. Dit zijn geen redenen om messen en auto's te verbieden. Data is ook duaal. Voor causale veranden is dataoverdracht noodzakelijk. Data is de grondstof van natuur en maatschppij. Data heeft dus ook een sterke duale aard. De bron en de gebruiker van data dient hierbij in eerste instantie zelf van bewust te zijn en hiernaar te handelen.