Overslaan en naar de inhoud gaan

Grote AI-bedrijven starten onderzoeksgroep voor verantwoordelijke ontwikkeling AI

Microsoft, Google, OpenAI en Anthropic - alle vier partijen die geavanceerde AI-modellen hebben gemaakt en op de markt hebben gebracht - zijn samen een nieuwe onderzoeksgroep begonnen op het gebied van kunstmatige intelligentie. Het zogeheten Frontier Model Forum gaat zich richten op de veilige en verantwoordelijke ontwikkeling van zogeheten 'frontier models'.
Chatbot in een telefoon.
© Shutterstock.com
Shutterstock.com

'Frontier models' zijn volgens de nieuwe onderzoeksgroep grootschalige machinelearning-modellen, die meer of betere mogelijkheden hebben dan de meest geavanceerde AI-modellen die nu bestaan. Ook kunnen deze frontier models een grote variëteit aan taken uitvoeren.

Dergelijke modellen zijn veelbelovend, maar hebben ook vangrails nodig om risico's te beperken, benadrukken de vier bedrijven in een aankondiging. Ze stellen dat hier al belangrijke stappen in genomen zijn door bijvoorbeeld de Britse en Amerikaanse overheden en de Europese Unie, maar dat er meer nodig is om ervoor te zorgen dat frontier models verantwoord ontwikkeld en ingezet worden. Daar wil het Forum bij gaan helpen.

Best practices

Concreet richt de nieuwe organisatie zich op drie gebieden. Allereerst wil het Forum best practices identificeren, maar ook stimuleren dat er kennis en best practices gedeeld worden binnen de industrie, overheden, de maatschappij en academici. Daarbij legt de organisatie een focus op veiligheidsstandaarden en best practices rondom veiligheid, zodat potentiële risico's beperkt worden. Ook moet het in de ogen van het Forum mogelijk worden om onafhankelijke, gestandaardiseerde evaluaties te doen over de mogelijkheden en veiligheid van AI-modellen.

Daarnaast gaat het Forum zich actief inzetten om onderzoek naar de veiligheid van AI verder te brengen. De organisatie wil daartoe onderzoek gaan coördineren in gebieden als robuustheid tegen aanvallen, mechanische interpreteerbaarheid, schaalbaar toezicht, onafhankelijke toegang tot onderzoek en de detectie van afwijkingen.

Het derde en laatste aandachtsgebied draait om het delen van informatie tussen bedrijven en overheden. Daarvoor wil het Forum betrouwbare en veilige mechanismen neerzetten die gebruikt kunnen worden om informatie over AI-veiligheid en -risico's te delen onder bedrijven, overheden en andere relevante partijen.

Anderen kunnen zich aanmelden

Hoewel vier bedrijven het Frontier Model Forum hebben opgericht, kan de onderzoeksgroep verder uitgebreid worden met meer leden. Organisaties die frontier models ontwikkelen en inzetten en laten zien dat ze de veiligheid hiervan belangrijk vinden en bij willen dragen aan het werk van het Forum, mogen lid worden en meewerken aan de gestelde doelen.

In de komende maanden wordt een adviesraad opgezet, waarin diverse achtergronden en perspectieven gerepresenteerd worden. In de komende weken gaat het Forum bovendien met maatschappelijke organisaties en overheden overleggen over het ontwerp van het Forum en over hoe er betekenisvolle samenwerkingen opgezet kunnen worden. 

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in