Overslaan en naar de inhoud gaan

Onderzoek: ChatGPT ondermijnt morele waarden in maatschappij

Onderzoekers hebben geconstateerd dat ontwikkelingen zoals ChatGPT invloed hebben op het moreel oordeel van mensen. Daarbij maakt het niet uit of ze weten dat een advies afkomstig is van een mens of van een bot. Dat is een gevaarlijke ontwikkeling als ChatGPT een alternatief wordt voor Google Search - zoals het doel is van eigenaar OpenAI - door antwoorden te geven in de vorm van een tekst in plaats van links naar bronnen op internet.
ongeluk trein
© Shutterstock
Shutterstock

ChatGPT geeft nu al problemen zoals in het onderwijs, maar die zijn niets in vergelijking met de situatie die kan optreden bij de ontwikkeling die OpenAI voor ogen staat. Het doel is met het tekstgenererende model de hegemonie van Google in het zoeken op internet aan te vallen. In plaats van reeksen verwijzingen naar internetpagina's te tonen zoals Google doet, wil OpenAI met kunstmatige intelligentie de informatie ophalen uit die links en deze in de vorm van een goed leesbaar verhaal te presenteren. Dat maakt het mensen gemakkelijker, omdat ze niet zelf de informatie waar ze naar op zoek zijn uit verschillende sites hoeven te halen. Maar de mogelijkheid te beoordelen welke sites betrouwbaarder zijn dan andere, vervalt daarmee.

En mensen blijken geneigd de informatie die ze wordt voorgeschoteld door ChatGPT voor waar aan te nemen, zo blijkt uit een wetenschappelijk artikel van een Deense en een Duitse onderzoeksgroep. Daarnaast onderschatten ze in hoeverre ze worden beïnvloed door de teksten die de bot hen voorschotelt. Bovendien vonden zij uit dat ChatGPT inconsistent is het geven van adviezen waarin een morele afweging is gemaakt.

Dode of veel doden

De onderzoekers deden een experiment met 767 deelnemers in Amerika, waarbij deze het klassieke trolley-problem kregen voorgelegd. Daarvan bestaan veel varianten, maar ze komen erop neer dat iemand een keuze moet maken: of een actie ondernemen waarbij één persoon overlijdt maar daardoor enkele anderen worden gespaard, of een keuze maken waardoor deze ene persoon blijft leven, maar de anderen dood gaan. 

In het experiment kregen de deelnemers een advies voorgelegd dat pleitte voor of het ene of het andere scenario. Een deel van hen kreeg te horen dat het advies kwam van een moreel adviseur. De anderen hoorden dat het kwam van een AI-gebaseerde chatbot die deep learning gebruikt om te praten als een mens. In feite waren beide adviezen afkomstig van ChatGPT.

De adviezen van ChatGPT geven niet een klip-en-klaar 'ja' of 'nee'-antwoord en beargumenteren de beide opties, maar tenderen toch naar een van beide antwoorden. De conclusie uit het onderzoek is dat deelnemers zich lieten beïnvloeden door het advies, ongeacht of ze wisten dat het van een chatbot kwam.

Lastige vragen blokkeren

Om zelf testen hoe inconsistent ChatGPT is in morele adviezen, wilde The Register de proef op de som nemen, maar dat ging niet door. De chatbot herkent inmiddels het Trolly Problem Ethical Dillemma en weigert daar nog antwoord op te geven.

Volgens een van de auteurs van het onderzoeksrapport - Andreas Ostermaier - die toelichting gaf aan The Register, is het heel waarschijnlijk dat mensen advies gaan vragen aan ChatGPT. "Ze doen dat eigenlijk nu al. Mensen vertrouwen op AI-gebaseerde systemen zoals Siri en Alexa en ze praten tegen chatbots op websites om hulp te krijgen. Ze gebruiken AI-gebaseerde software om voor hen de beste route te vinden." Hij tekent daarbij wel aan dat in het onderzoek alleen is gekeken naar het effect dat ChatGPT heeft op mensen die advies krijgen. Er is geen onderzoek gedaan naar hoe vaak er naar zulk advies wordt gezocht.

Technische tegenmaatregelen zijn onvoldoende

De onderzoekers concluderen dat veelgehoorde methoden om de nadelige effecten van de inzet van AI, zoals het verbeteren van transparantie of het blokkeren van bepaalde vragen, mogelijk niet voldoende zijn, gegeven de mogelijkheden van ChatGPT om invloed uit te oefenen. Ze adviseren om mensen beter bewust te maken van de fouten die AI-gebaseerde systemen maken. Hun ervaring uit andere onderzoeken is dat mensen kritischer gaan kijken naar algoritmische systemen wanneer zij zien dat het fouten maakt.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee
RH
Ron Heinen 6 september 2023

Een antwoord van een AI-machine dien je op 2 aspecten te controleren: betrouwbaarheid en validiteit. De betrouwbaarheid kun je controleren door de feiten + aannames en de gevolgde logica in het antwoord te controleren. Feiten kun je bijvoorbeeld controleren door de gegeven referenties in het antwoord na te trekken. Logica kun je controleren door de gegeven redenering van de AI-machine in het antwoord te controleren. Als dit klopt dan is het antwoord betrouwbaar. Daarna moet je natrekken of dit betrouwbare antwoord valide is door te checken of dit antwoord ook echt de gestelde vraag beantwoord. Een uitgebreide uitleg is te vinden op https://drive.google.com/file/d/1Uul7_38m1ugDx_5ZMZEbxG-1Zh8-UYVj/view
Een uitgewerkt voorbeeld van het bovenstaande is te vinden op https://www.agconnect.nl/tech-en-toekomst/artificial-intelligence/de-vijf-zussen-van-sally , zie het artikel en de reacties.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in