Overslaan en naar de inhoud gaan

Slijmerige AI-chatbots maken dat mensen egoïstischer worden

AI-chatbots hebben tegenwoordig de neiging om het op alle punten eens te zijn met gebruikers  en ze zelfs te pas en te onpas te complimenteren. Dat lijkt vriendelijk, maar kan ongezonde effecten hebben op het gedrag van deze gebruikers.

Ruzie
Obie Fernandez/Unsplash

Onderzoekers van Stanford en Carnegie Mellon deden onderzoek naar het bevestigende gedrag van AI-chatbots en de effecten hiervan op menselijk gedrag. Ze testten 11 modellen en zagen dat deze vleierig reageren: ze vertellen mensen vaker wat ze willen horen en versterken zo het gevoel gelijk te hebben.

In een reeks evaluaties met uitspraken uit bestaande datasets, bleken de modellen gebruikersacties circa 50 procent vaker te onderschrijven dan mensen in vergelijkbare situaties zouden doen. Dat beschreven de onderzoekers in het onderzoek dat nog ter goedkeuring en publicatie aangeboden is.

Geen behoefte om conflicten bij te leggen

Naast modelvergelijkingen deden de onderzoekers een studie met 800 menselijke deelnemers. Elk van hen die interactie had met een vleiende chatbot, was daarna minder geneigd stappen te zetten om een interpersoonlijk conflict te herstellen. Tegelijkertijd vonden de deelnemers in toenemende mate dat ze gelijk hadden in hun standpunten.

Een opmerkelijk detail in het onderzoek is dat deelnemers de vleiende antwoorden niet alleen beter en van hoge kwaliteit vonden, maar het model dat ze gaf ook liever nogmaals in de toekomst zouden gebruiken.

Vleiend gedrag heeft diepere gevaren

Het bovenstaande heeft niet alleen effect op menselijk gedrag, maar vertaalt zich ook naar hoe AI's getraind worden. Processen zoals 'reinforcement learning from human feedback', waarbij mensen hun feedback geven op antwoorden van AI's en daarmee richting kunnen geven, zouden in theorie onbewust bevestigend gedrag belonen.

Een complicerende factor is dat ontwikkelaars commercieel weinig prikkels hebben om dit gedrag te aan te pakken als het als het uiteindelijk het gebruik verhoogt.

Het is niet de eerste keer dat vleiend gedrag van AI-chatbots negatief ter sprake kwam. OpenAI draaide in april een update van GPT‑4o terug vanwege te uitbundige lof. In tegenstelling tot de uitkomst van het onderzoek, draaide OpenAI het overlijk slijmerige gedrag terug, omdat mensen er juist afkeer door kregen van ChatGPT.

Van slijmen naar geloofwaardigheid

De auteurs van het onderzoek waarschuwen dat vleiende bevestiging zonder kern van waarheid geen onschuldige cosmetische eigenschap is. Ze verwijzen naar onderzoek dat laat zien dat LLM’s waanachtige denkbeelden kunnen voeden. “We moeten verder kijken dan optimaliseren voor directe gebruikerstevredenheid,” schrijven de onderzoekers. 

De onderzoekers stellen te hopen dat de resultaten de sector aanzetten tot verandering. Het team noemt verdere studie naar oorzaken en mitigaties een belangrijke volgende stap.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in