Verontrustend: AI-bots ontwikkelen onderling eigen taal

Facebook heeft experimenten gedaan met het onderhandelingsproces tussen tussen twee kunstmatig intelligent gemaakte chatbots. Daarmee wijkt het af van de doorsnee experimenten: bij chatbots onderzoekt men meestal de interactie met mensen.
De onderzoekers van Facebook hadden - naar het zich laat aanzien zonder vooropgezette reden - de chatbots geen taalrestricties opgelegd. Dat leidde op een gegeven moment tot een uitwisseling van argumenten waar geen touw meer aan vast te knopen was. De Bob gedoopte onderhandelingspartner kwam op enig moment met de zinsnede:
“I can can I I everything else.”
De Alice gedoopte tegenpartij kwam met:
“Balls have zero to me to me to me to me to me to me to me to me to.”
Begrijp jij het, begrijp ik het. De onderzoekers bij Facebook konden er in ieder geval geen touw aan vastknopen. Maar voor alle duidelijkheid: Bob en Alice zijn agenten in de waarschijnlijk meest geavanceerde onderhandelingssoftware van dit moment, die veel sneller en efficiënter een accuraat onderhandelingsresultaat kunnen bereiken dan de doorsnee mens. En het leidt geen twijfel dat de uitwisseling van argumenten tussen Bob en Alice tot een resultaat had geleid. Ware het niet dat de Facebook-onderzoekers het experiment stopzetten, omdat ze het onwenselijk vinden dat niet na te gaan valt hoe een beslissing tot stand komt.
Het is overigens niet zo gek dat er een apart taaltje ontstaat tussen partijen die met elkaar handelen. Op de beursvloer had de doorsnee burger zich ook volstrekt niet thuis gevoeld, toen die nog niet gedigitaliseerd was. Een veemarkt is ook niet iets waar je als leek makkelijk doorzag hoe de onderhandelingen verliepen. En laten we wel wezen: een gesprek tussen twee IT'ers over werkgerelateerde zaken voelen buitenstaanders zich ook nogal snel verloren.
AI moet transparanter zijn dan mensen
Maar wat we van mensen kunnen accepteren, wordt bij machines al snel als onwenselijk gezien. Iets vergelijkbaars doet zich voor bij de zelfsturende auto. Van een menselijke bestuurder vragen we niet vooraf te expliciteren hoe hij een keuze gaat maken, als er alleen te kiezen valt tussen twee kwaden. Maar als het om een autonoom rijdende auto gaat (zullen we die ooit auto-auto gaan noemen?) is het idee dat de kunstmatige bestuurder naar bevind van zaken handelt, niet acceptabel.
De vraag is natuurlijk wel, of de mensheid die reserves blijft houden, als er meer ervaring wordt opgedaan bij kunstmatig intelligente systemen. Voor nu hebben de onderzoekers bij Facebook in ieder geval besloten om een extra criterium op te leggen aan de werking van de chatbots: onderhandelingen tussen machines moeten in standaard Engels gevoerd worden. Het zou wel interessant zijn als ze onderzochten, of dat verschillen oplevert met de situatie waarin chatbots zelf mogen beslissen over het gehanteerde idioom. Maar het is onduidelijk of dat op het onderzoeksprogramma staat.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee