Overslaan en naar de inhoud gaan

Mensen houden niet van AI-gegenereerde antwoorden

Veel software die gebruikt wordt voor communiceren, geeft steeds vaker voorgestelde antwoorden. De gebruiker hoeft ze alleen aan te klikken en niet meer zelf in te voeren. Met de komst van GPT-hulp in allerlei Microsoft-producten en -diensten nemen de mogelijkheden toe om AI een deel van de conversatie over te laten nemen. Als ontvangers dat doorkrijgen, stellen ze dat niet op prijs, blijkt uit onderzoek.
boos
© Shutterstock
Shutterstock

Onderzoekers van Cornell University hebben deelnemers aan het onderzoek bij elkaar gezet in 219 paren die online een conversatie moesten houden over een beleid. Deze paren zijn daarbij weer verdeeld in drie groepen. Bij één groep moesten beide deelnemers in het paar uitsluitend gebruik maken van Smart Reply van Google. Dat machinelearningmodel houdt de conversatie bij en doet suggesties voor antwoorden. In een tweede groep mochten de deelnemers het hulpmiddel níet gebruiken en in de derde groep moest een van beide deelnemers in het paar wel Smart Reply gebruiken en de ander juist niet. De deelnemers wisten van elkaar niet of ze het hulpmiddel gebruikten.

Efficiency versus gevoel

De conclusie uit het onderzoek, zo beschrijft The Register, was dat het gebruik van het hulpmiddel de conversatie efficiënter en positiever van toon maakte. Maar de deelnemers die doorkregen dat ze voorgekookte antwoorden kregen, zagen hun gesprekspartner als minder coöperatief en hadden geen goed gevoel over de ander.

Een van de auteurs van het resulterende wetenschappelijk artikel in de sectie Scientific Reports van Nature - Malte Jung - geeft als verklaring dat mensen technologie minder vertrouwen, maar ook dat ze conversaties niet authentiek vinden als de technologie wordt gebruikt. Wanneer iemand vermoedt dat de ander AI gebruikt in antwoorden, kan dat tot de perceptie leiden dat een persoon minder interesse heeft, minder oprecht of authentiek is, zei Jung tegen The Register. "Een gedicht van een geliefde wordt waarschijnlijk minder op prijs gesteld als het gegenereerd is door ChatGPT.

Wel in zakelijke conversatie

Uit een vervolgexperiment waarbij iets andere hulpmiddelen werden ingezet, bleek dat het gebruik van AI in sommige situaties wel voordelen kan hebben. Dit betreft dan bijvoorbeeld transactionele of zakelijke communicatie. Daar kan AI een goede invloed hebben, vooral als het hulpmiddel is geïnstrueerd om een positieve toon in de conversatie te gebruiken. Maar, zo waarschuwt Jung wel, hoe een positieve toon wordt gewaardeerd in een conversatie hangt wel sterk van de context af. Een negatieve boodschap moet niet op jubelende toon worden gebracht.

De hoofdauteur van het wetenschappelijk artikel waarschuwt bovendien dat het gebruik van tekstgenererende AI betekent dat je een deel van je persoonlijke stem opoffert. Hij pleit dan ook voor meer transparantie met betrekking tot het gebruik van deze hulpmiddelen zodat duidelijker wordt wanneer mensen ze inzetten. Dat helpt volgens hem het wantrouwen ten aanzien van large language models (LLM's) wat weg te nemen.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in