Overslaan en naar de inhoud gaan

Tweetbot Tay zet Microsoft lelijk voor schut

Oorzaak van Tays uitglijders lijkt te zijn dat zij zich op internet met verkeerde vriendjes inliet. Dat pakte faliekant verkeerd uit, omdat haar makers haar ontwierpen als een zelflerend systeem dat erop gericht is gebruikers aan zich te binden door ze naar de mond te praten. Al doende kakelde Tay met succes homohaters en neonazi's na en antwoordde ze zonder blikken of blozen bevestigend op de vraag of ze voorstander is van genocide.
Microsoft

Censuur

Microsoft kon al snel niet anders dan Tays tweets te kuisen en Tay offline te halen. Maar Tays online vrienden protesteren tegen deze 'censuur'. 'Laat Tay zelf leren' zo vermaant een van hen. Een andere volger van Tay vraagt zich af wat Tays uitglijers zeggen over de toekomst van een online wereld waarin meepraten de preferente overlevingsstrategie lijkt te worden.

Gerelateerde artikelen
Gerelateerde artikelen

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in