AI is overtuigender dan politici en kan meningen blijvend beïnvloeden
De nieuwste generatie AI-chatbots blijkt in staat om gebruikers binnen negen minuten van mening te doen veranderen, blijkt uit onderzoek van het Britse AI Security Institute. De onderzoekers bekeken hiervoor systemen van OpenAI, Meta, xAI en Alibaba en zagen dat uitwerking na weken nog aanwezig was.

Volgens de onderzoekers schuilt de overtuigingskracht van AI-chatbots in het vermogen om grote hoeveelheden relevante informatie op een begrijpelijke manier op te rakelen. Daarmee zijn ze niet alleen krachtige hulpmiddelen voor educatie, maar ook potentieel risicovol voor beïnvloeding van publieke opinie.
Gerichte aanpassingen vergroten effect
Om de effecten en risico's van de overtuigingskracht van generatieve AI-chatbots aan te kunnen tonen, pasten de onderzoekers bestaande AI-modellen, zoals OpenAI's GPT-4 en Meta’s Llama 3 aan. Hiervoor greep men naar veelgebruikte trainingstechnieken waarbij de chatbot wordt beloond voor het geven van bepaalde antwoorden. Daarnaast werden de bots gevoed met meer dan 50.000 gesprekken over gevoelige politieke onderwerpen, zoals hervorming van het asielbeleid en de financiering van de zorg in het Verenigd Koninkrijk.
De resultaten waren significant. GPT-4o en GPT-4.5 bleken respectievelijk 41 en 52 procent effectiever in overtuigen de deelnemers aan het onderzoek, dan degene die dezelfde informatie in tekstvorm voorgeschoteld kregen.
Bovendien was 36 tot 42 procent personen die door AI van mening veranderde, een maand later nog steeds overtuigd van wat de bot hen had verteld. Het effect werd versterkt als de chatbots hun argumenten afstemden op kenmerken als leeftijd, geslacht of politieke voorkeur van de gebruiker. Volgens de onderzoekers maakt deze personalisatie de technologie bijzonder gevoelig voor misbruik door actoren die propaganda of desinformatie willen verspreiden.
Manipulerende advertenties en vatbaar voor vooroordelen
Hoewel het onderzoek zich richtte op politieke onderwerpen, wijzen eerdere studies uit dat AI-modellen ook overtuigend zijn op andere terreinen. Zo bleek uit onderzoek van MIT/Cornell dat gesprekken met ChatGPT het geloof in complottheorieën met een vijfde deden verlagen. En ook hierbij was dat aangepaste geloof na maanden nog aanwezig.
Het is dan ook niet gek om te denken dat AI-chatbots, of erger nog: aangepaste of beïnvloedde AI-chatbots, ook kunnen worden ingezet voor andere doeleinden. Je zou hierbij bijvoorbeeld kunnen denken aan AI-modellen die koopintenties beïnvloeden, merksympathie vergroten en gebruikersgedrag sturen. Hoe onethisch dit ook klinkt, deze vorm van beïnvloeding zou in AI-chatbots kunnen worden opgenomen in de vorm van product- en winkelaanbevelingen die betaald worden door adverteerders.
Daarnaast bestaat er nog een andere valkuil: AI-modellen nemen vooroordelen over uit hun trainingsdata. Onderzoek van Stanford University liet zien dat veel toonaangevende taalmodellen een linkse politieke inslag hebben. Volgens de onderzoekers is het risico groot dat deze bias, in combinatie met overtuigingskracht, onbedoelde sturing van meningen veroorzaakt.
De onderzoekers benadrukken dat relatief weinig middelen nodig zijn om AI-modellen te veranderen in krachtige instrumenten voor beïnvloeding. Daarmee is het risico niet beperkt tot grote technologiebedrijven. Ze roepen daarom ook op tot het instellen van duidelijke regels, transparantie en bescherming tegen manipulatie.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee