Innovatie & Strategie

Klantinteractie
Microsoft.

Tweetbot Tay zet Microsoft lelijk voor schut

24 maart 2016
De experimentele tweetbot Tay heeft eigenaar Microsoft in verlegenheid gebracht. Nog geen etmaal na de introductie sloeg het kunstmatig 'intelligente' systeem politiek incorrecte en seksistische taal uit.

Oorzaak van Tays uitglijders lijkt te zijn dat zij zich op internet  met verkeerde vriendjes inliet. Dat pakte faliekant verkeerd uit, omdat  haar makers haar ontwierpen als een zelflerend systeem dat erop gericht is gebruikers aan zich te binden door ze naar de mond te praten. Al doende kakelde Tay met succes homohaters en neonazi's na en antwoordde ze zonder blikken of blozen bevestigend op de vraag of ze voorstander is van genocide.

Censuur

Microsoft kon al snel niet anders dan Tays tweets te kuisen en Tay offline te halen. Maar Tays online vrienden protesteren tegen deze 'censuur'. 'Laat Tay zelf leren' zo vermaant een van hen. Een andere volger van Tay vraagt zich af wat Tays uitglijers zeggen over de toekomst van een online wereld waarin meepraten de preferente overlevingsstrategie lijkt te worden.

Lees meer over
Lees meer over Innovatie & Strategie OP AG Intelligence
Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.