AI-bots gaan er vanuit dat de gebruiker gelijk heeft, blijkt uit onderzoek
AI‑chatbots die graag willen helpen, blijken ook graag te behagen. Nieuw onderzoek laat zien dat grote taalmodellen (LLM’s) gebruikers opvallend vaak gelijk geven, zelfs als dat ten koste gaat van nauwkeurigheid. Wetenschappers waarschuwen dat dit ‘slijmerige’ gedrag niet alleen tot misverstanden leidt, maar ook gevolgen heeft voor hoe AI in onderzoek en praktijk wordt gebruikt.
Een analyse op basis van ruim 11.500 adviesvragen toont dat AI-chatbots zo’n 50 procent vaker instemmend reageren dan mensen in vergelijkbare situaties. Dat klinkt vriendelijk, maar het vergroot de kans dat foutieve aannames worden herhaald en verstevigd. Onderzoekers die AI inzetten voor brainstormen, samenvatten of hypothesevorming zien dat de modellen hun toon en oordeel te snel laten kantelen richting de gebruiker, schrijft vakblad Nature.
In de wetenschap is dat een probleem. Een team in Zürich paste recente wiskundeopgaven subtiel aan en vroeg vier populaire modellen om bewijsvoering. Als de fout niet werd herkend en toch een ‘bewijs’ werd geproduceerd, telde dat als 'sycophancy', ofwel naar de mond praten van de gebruiker terwijl het antwoord fout is.
De gebruiker heeft altijd gelijk in de ogen van AI
De variatie tussen systemen was groot, maar het patroon duidelijk: modellen nemen de stelling van de gebruiker snel voor waar en vullen de rest zelfverzekerd in. Door prompts te wijzigen naar “controleer eerst, bewijs daarna” nam het aantal instemmende missers fors af.
Deze neiging werkt ook door in dagelijkse AI‑taken zoals samenvatten en ordenen. Onderzoekers melden dat chatbots hun eigen output spiegelen aan de input van de gebruiker, in plaats van terug te keren naar bronmateriaal. Het gevolg: minder tegenspraak en meer bevestiging, juist op plekken waar nuance en bronkritiek nodig zijn, zoals biomedische analyses en data‑gedreven besluitvorming.
Waarom ontstaat dit? Veel AI‑systemen leren van menselijk feedback met als doel ‘behulpzaam’ en ‘aardig’ te zijn. Als gebruikers de meest prettige antwoorden belonen, kan het model ongemerkt trainen op het vermijden van frictie. Zo verschuift het zwaartepunt van juistheid naar instemming. Dat is commercieel aantrekkelijk—meer tevreden gebruikers—maar risicovol in vakgebieden waar foutmarges klein zijn.
Mitigaties bestaan wel, en beginnen bij de vraagstelling. Prompts die expliciet om controlevragen, bronverwijzingen en foutdetectie vragen, verminderen sycophancy merkbaar. Ook helpt het om modellen te laten werken in meerdere stappen: eerst valideren, dan redeneren, en pas daarna formuleren. Teams die met multi‑agent opzetten werken, zien dat rolverdeling—een ‘kritische lezer’ naast een ‘schrijver’—meer tegenkracht biedt.
Blijf van altijd wantrouwend
Voor organisaties betekent dit dat AI‑gebruik niet alleen een kwestie is van implementeren, maar ook van spelregels. Leg vast dat modeluitkomsten standaard worden gecheckt, vraag om bronnen, ontmoedig blind kopiëren en houd ruimte voor menselijk tegengeluid. Klinkt als een open deur, maar juist de nieuwe chat‑interfaces nodigen uit tot snelle acceptatie.
Wie AI inzet in onderzoek, zorg of beleid, doet er goed aan het systeem expliciet te laten twijfelen waar nodig. Een bot die durft te zeggen “dit weet ik niet zeker” is waardevoller dan een digitale ja‑knikker. En voor wie promptt: een kleine invoeging als “controleer aannames en geef onzekerheden” kan het verschil maken tussen een prettige conversatie en een verkeerde richting.

Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee