Overslaan en naar de inhoud gaan

Microsoft zet ook bijl in het ethics-team

Microsoft heeft in de grote ontslagronde waarbij 10.000 werknemers zijn betrokken, ook een essentieel 'ethics and society team' op straat gezet. Dat team moest ervoor zorgen dat de nieuwe AI-gebaseerde diensten die Microsoft in rap tempo wil introduceren, geen maatschappelijke schade veroorzaken.
Ontslag
© Shutterstock
Shutterstock

Hoe de gang van zaken precies is gegaan, is onduidelijk. Het lijkt erop dat Microsoft ervan uit is gegaan dat de 'responsible innovation toolkit' die het team onlangs afleverde, voldoende is om ontwikkelaars die met AI werken zelf de juiste inschattingen te laten maken. Het bedrijf zegt in een reactie aan Ars Technica dat het zich gebonden houdt aan een veilige en verantwoorde manier van ontwikkelen van AI-producten en 'ervaringen'. Dat gebeurt volgens het bedrijf door "te investeren in mensen, processen en partnerships die hier prioriteit aan geven".

Verschillende reacties op Twitter - waaronder die van een hoogleraar op het gebied van taalwetenschappen en ethiek (die wordt aangehaald door Ars Technica) - laten geen spaan heel van Microsofts besluit het team op te heffen. Dat nieuws is gisteren door Platformer het eerst gemeld. Gegeven het feit hoe moeilijk en belangrijk dit werk is, is elke significante reductie van het aantal mensen dat dit werk doet, sterk af te keuren, zegt bijvoorbeeld Emily Bender ethicus aan de University van Washington.

Team loste al langzaam op

Het team van oorspronkelijk 30 personen was de afgelopen jaren al afgebouwd. Veel van de leden werden ondergebracht in specifieke productteams. De resterende zeven teamleden hadden teveel werk op hun bordje, volgens ingewijden die tegenover Platform een boekje open doen.

Bovendien werden de door hun uitgebrachte adviezen regelmatig door Microsoft in de wind geslagen. Zo adviseerde het team tégen de komst van de Bing Image Creator in de huidige vorm. De reden voor dat negatieve advies was dat het onderliggende AI-model te veel is getraind op auteursrechtelijk beschermde werken. Inmiddels heeft Microsoft, samen met zijn developmentplatform GitHub en ChatGPT-maker OpenAI, een rechtszaak over de onderliggende rechtenkwestie aan de broek.

Haastige spoed?

Ars Technica merkt op dat Microsoft de conclusie van het eigen ethics-team bestrijdt. Het bedrijf zou wel degelijk op basis van de adviezen aanpassingen hebben gemaakt aan de bewuste Bing-tool. Maar er zijn ook meldingen van andere besluiten waaruit blijkt dat Microsoft grote haast heeft om de AI-gebaseerde diensten naar de markt te brengen. Daarbij zou het dus meer bezwaren naast zich neer hebben gelegd.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in