Overslaan en naar de inhoud gaan

OpenAI-bestuur krijgt meer macht, om onveilige AI-ontwikkeling tegen te houden

OpenAI heeft zijn bestuurders meer macht gegeven om de ontwikkeling van kunstmatige intelligentie (AI) binnen de start-up veiliger te maken. Het bestuur van het bedrijf achter ChatGPT kan de lancering van een nieuw AI-model nu tegenhouden, ook als de top van de ontwikkelaar van kunstmatige intelligentie het model veilig vindt.

De Amerikaanse start-up heeft een set nieuwe richtlijnen gepubliceerd waarin staat hoe OpenAI omgaat met extreme risico's van zijn krachtigste AI-systemen. Een team dat twee maanden geleden is opgericht, gaat van de meest geavanceerde, nog niet gelanceerde AI-modellen van OpenAI beoordelen hoe hoog de risico's zijn, zegt teamleider Aleksander Madry. Ook past dit team modellen aan om mogelijke gevaren te verminderen. Alleen de modellen met een "laag" of een "gemiddeld" risico worden volgens de richtlijnen uitgebracht.

Bestuurscrisis net achter de rug

Onlangs hadden het bestuur van OpenAI en topman Sam Altman nog ruzie over zorgen rond de veiligheid van AI. Vorige maand werd hij ontslagen omdat het bestuur geen vertrouwen meer in hem had als leider van het bedrijf. Nog geen week later keerde hij weer terug als topman en kondigde OpenAI een nieuw bestuur aan.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in