Overslaan en naar de inhoud gaan

Onderzoek naar missers van tekstrobots gaat mis op de missers

Na korte tijd moesten onderzoekers van Stanford University een demo-site van hun open source natuurlijk taalmodel Apalca weer offline halen. Ze wilden met de site onderzoeken waarom de nu populaire Large Language Models (LLM) zoals GPT zo makkelijk de fout ingaan met ongepaste taal en feitelijke onjuistheden. Volgens de onderzoekers waren er zorgen over de veiligheid en de kosten voor hosting van de site.
ashamed
© Shutterstock
Shutterstock

Het ging om onderzoek met medewerking van Meta - moederbedrijf van onder meer Facebook - dat ook erg graag wil weten waarom deze vorm van kunstmatige intelligentie zo foutgevoelig is. Meta wilde daarvoor wel de code van zijn LLaMa-systeem delen met een geselecteerde groep onderzoekers, meldt The Register. Maar het was niet erg praktisch om de onderzoekers te laten werken met het volledige LLaMa-model met enkele tientallen tot honderden miljarden parameters, aangezien dat de inzet van een enorme infrastructuur betekent.

De onderzoekers hebben daarom een afgeleid model gemaakt met zeven miljard parameters - en noemden dat Apalca - dat zelfs op een Raspberry Pi en een Pixel 6-smartphone blijkt te werken.

Filters werken niet voldoende

De onderzoekers hingen het aan een publieke website om er hun experimenten mee te doen. Na korte tijd werd de demo-site echter al weer offline gehaald. In een verklaring zeggen de onderzoekers dat het beschikbaar stellen van het model potentiële risico's met zich meebrengt, zoals het verspreiden van valse informatie, 'toxische' teksten en stereotypen. Het is het algemene probleem van zogeheten instruction following models, waar ook GPT, ChatGPT en Bing Chat aan lijden. Er waren daarom moderationfilters toegevoegd die OpenAI - de maker van GPT en ChatGPT - ook gebruikt. Bovendien werd aan alle respons die Apalca geeft, een watermerk toegevoegd zodat anderen met enige zekerheid kunnen herleiden of teksten van Apalca afkomstig waren.

Toch waren de filters onvoldoende om Apalca te corrigeren. Het lijkt erop dat Apalca nog sterker in de fout gaat dan modellen zoals GPT-3.5, zeggen de onderzoekers. Bovendien liepen de kosten voor het hosten van de demo-site op basis van Apalca zo op dat werd besloten de website weer te sluiten. Het experiment is echter allerminst mislukt, zeggen de onderzoekers tegen The Register. De dataset en de code die nodig zijn om het model af te stellen op specifieke taken zijn beschikbaar via GitHub. Het model is daarom nuttig voor het doen van onderzoek naar de tekortkomingen ervan.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in