Slijmerige AI-chatbots maken dat mensen egoïstischer worden
AI-chatbots hebben tegenwoordig de neiging om het op alle punten eens te zijn met gebruikers en ze zelfs te pas en te onpas te complimenteren. Dat lijkt vriendelijk, maar kan ongezonde effecten hebben op het gedrag van deze gebruikers.

Onderzoekers van Stanford en Carnegie Mellon deden onderzoek naar het bevestigende gedrag van AI-chatbots en de effecten hiervan op menselijk gedrag. Ze testten 11 modellen en zagen dat deze vleierig reageren: ze vertellen mensen vaker wat ze willen horen en versterken zo het gevoel gelijk te hebben.
In een reeks evaluaties met uitspraken uit bestaande datasets, bleken de modellen gebruikersacties circa 50 procent vaker te onderschrijven dan mensen in vergelijkbare situaties zouden doen. Dat beschreven de onderzoekers in het onderzoek dat nog ter goedkeuring en publicatie aangeboden is.
Geen behoefte om conflicten bij te leggen
Naast modelvergelijkingen deden de onderzoekers een studie met 800 menselijke deelnemers. Elk van hen die interactie had met een vleiende chatbot, was daarna minder geneigd stappen te zetten om een interpersoonlijk conflict te herstellen. Tegelijkertijd vonden de deelnemers in toenemende mate dat ze gelijk hadden in hun standpunten.
Een opmerkelijk detail in het onderzoek is dat deelnemers de vleiende antwoorden niet alleen beter en van hoge kwaliteit vonden, maar het model dat ze gaf ook liever nogmaals in de toekomst zouden gebruiken.
Vleiend gedrag heeft diepere gevaren
Het bovenstaande heeft niet alleen effect op menselijk gedrag, maar vertaalt zich ook naar hoe AI's getraind worden. Processen zoals 'reinforcement learning from human feedback', waarbij mensen hun feedback geven op antwoorden van AI's en daarmee richting kunnen geven, zouden in theorie onbewust bevestigend gedrag belonen.
Een complicerende factor is dat ontwikkelaars commercieel weinig prikkels hebben om dit gedrag te aan te pakken als het als het uiteindelijk het gebruik verhoogt.
Het is niet de eerste keer dat vleiend gedrag van AI-chatbots negatief ter sprake kwam. OpenAI draaide in april een update van GPT‑4o terug vanwege te uitbundige lof. In tegenstelling tot de uitkomst van het onderzoek, draaide OpenAI het overlijk slijmerige gedrag terug, omdat mensen er juist afkeer door kregen van ChatGPT.
Van slijmen naar geloofwaardigheid
De auteurs van het onderzoek waarschuwen dat vleiende bevestiging zonder kern van waarheid geen onschuldige cosmetische eigenschap is. Ze verwijzen naar onderzoek dat laat zien dat LLM’s waanachtige denkbeelden kunnen voeden. “We moeten verder kijken dan optimaliseren voor directe gebruikerstevredenheid,” schrijven de onderzoekers.
De onderzoekers stellen te hopen dat de resultaten de sector aanzetten tot verandering. Het team noemt verdere studie naar oorzaken en mitigaties een belangrijke volgende stap.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee