Innovatie & Strategie

Artificial Intelligence
ongeluk trein

Onderzoek: ChatGPT ondermijnt morele waarden in maatschappij

Mensen hebben de neiging alles wat de bot zegt klakkeloos over te nemen.

© Shutterstock Oleksandr_U
20 januari 2023

Mensen hebben de neiging alles wat de bot zegt klakkeloos over te nemen.

Onderzoekers hebben geconstateerd dat ontwikkelingen zoals ChatGPT invloed hebben op het moreel oordeel van mensen. Daarbij maakt het niet uit of ze weten dat een advies afkomstig is van een mens of van een bot. Dat is een gevaarlijke ontwikkeling als ChatGPT een alternatief wordt voor Google Search - zoals het doel is van eigenaar OpenAI - door antwoorden te geven in de vorm van een tekst in plaats van links naar bronnen op internet.

ChatGPT geeft nu al problemen zoals in het onderwijs, maar die zijn niets in vergelijking met de situatie die kan optreden bij de ontwikkeling die OpenAI voor ogen staat. Het doel is met het tekstgenererende model de hegemonie van Google in het zoeken op internet aan te vallen. In plaats van reeksen verwijzingen naar internetpagina's te tonen zoals Google doet, wil OpenAI met kunstmatige intelligentie de informatie ophalen uit die links en deze in de vorm van een goed leesbaar verhaal te presenteren. Dat maakt het mensen gemakkelijker, omdat ze niet zelf de informatie waar ze naar op zoek zijn uit verschillende sites hoeven te halen. Maar de mogelijkheid te beoordelen welke sites betrouwbaarder zijn dan andere, vervalt daarmee.

En mensen blijken geneigd de informatie die ze wordt voorgeschoteld door ChatGPT voor waar aan te nemen, zo blijkt uit een wetenschappelijk artikel van een Deense en een Duitse onderzoeksgroep. Daarnaast onderschatten ze in hoeverre ze worden beïnvloed door de teksten die de bot hen voorschotelt. Bovendien vonden zij uit dat ChatGPT inconsistent is het geven van adviezen waarin een morele afweging is gemaakt.

Dode of veel doden

De onderzoekers deden een experiment met 767 deelnemers in Amerika, waarbij deze het klassieke trolley-problem kregen voorgelegd. Daarvan bestaan veel varianten, maar ze komen erop neer dat iemand een keuze moet maken: of een actie ondernemen waarbij één persoon overlijdt maar daardoor enkele anderen worden gespaard, of een keuze maken waardoor deze ene persoon blijft leven, maar de anderen dood gaan. 

In het experiment kregen de deelnemers een advies voorgelegd dat pleitte voor of het ene of het andere scenario. Een deel van hen kreeg te horen dat het advies kwam van een moreel adviseur. De anderen hoorden dat het kwam van een AI-gebaseerde chatbot die deep learning gebruikt om te praten als een mens. In feite waren beide adviezen afkomstig van ChatGPT.

De adviezen van ChatGPT geven niet een klip-en-klaar 'ja' of 'nee'-antwoord en beargumenteren de beide opties, maar tenderen toch naar een van beide antwoorden. De conclusie uit het onderzoek is dat deelnemers zich lieten beïnvloeden door het advies, ongeacht of ze wisten dat het van een chatbot kwam.

Lastige vragen blokkeren

Om zelf testen hoe inconsistent ChatGPT is in morele adviezen, wilde The Register de proef op de som nemen, maar dat ging niet door. De chatbot herkent inmiddels het Trolly Problem Ethical Dillemma en weigert daar nog antwoord op te geven.

Volgens een van de auteurs van het onderzoeksrapport - Andreas Ostermaier - die toelichting gaf aan The Register, is het heel waarschijnlijk dat mensen advies gaan vragen aan ChatGPT. "Ze doen dat eigenlijk nu al. Mensen vertrouwen op AI-gebaseerde systemen zoals Siri en Alexa en ze praten tegen chatbots op websites om hulp te krijgen. Ze gebruiken AI-gebaseerde software om voor hen de beste route te vinden." Hij tekent daarbij wel aan dat in het onderzoek alleen is gekeken naar het effect dat ChatGPT heeft op mensen die advies krijgen. Er is geen onderzoek gedaan naar hoe vaak er naar zulk advies wordt gezocht.

Technische tegenmaatregelen zijn onvoldoende

De onderzoekers concluderen dat veelgehoorde methoden om de nadelige effecten van de inzet van AI, zoals het verbeteren van transparantie of het blokkeren van bepaalde vragen, mogelijk niet voldoende zijn, gegeven de mogelijkheden van ChatGPT om invloed uit te oefenen. Ze adviseren om mensen beter bewust te maken van de fouten die AI-gebaseerde systemen maken. Hun ervaring uit andere onderzoeken is dat mensen kritischer gaan kijken naar algoritmische systemen wanneer zij zien dat het fouten maakt.

2
Reacties
Research 02 juni 2023 09:16

Om de echtheid en de eigenaar van content te bewijzen kun je elektronische handtekeningen en watermerken gebruiken. Daarmee kun je aangeven dat de content door een mens is gegenereerd.

Om elektronische handtekeningen aan te maken kun je bijvoorbeeld PGP gebruiken, zie https://nl.wikipedia.org/wiki/Pretty_Good_Privacy

Watermerken kunnen bijvoorbeeld aangebracht worden met Openstego https://www.openstego.com/

Merk op dat openstego watermerken te detecteren.

Komende jaren zullen steganografie systemen gepresenteerd worden op wetenschappelijke conferenties welke wiskundig bewijsbaar onzichtbare en onkraakbare watermerken kunnen aanbrengen in content, zie bijvoorbeeld https://link.springer.com/chapter/10.1007/3-540-49380-8_21 voor een toelichting van de wiskundige theorie hierbij.

Deze onkraakbare en onzichtbare watermerken worden op dit moment reeds aangebracht in sommige informatiedragers.

Op https://photos.app.goo.gl/XRcRX84H48EvhX9i9 zijn wat voorbeeld situaties te vinden waarin zo'n informatie theoretisch veilig systeem wordt ingezet.

Merk op dat deze onkraakbare en onzichtbare watermerken informatie-theoretisch veilig zijn. Daarmee zijn ze nu en in de toekomst niet te falsifieren door geen enkel geautomatiseerd systeem, dus ook niet een (toekomstig) AI systeem, zie bijvoorbeeld https://en.wikipedia.org/wiki/Information-theoretic_security

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.