Innovatie & Strategie

Governance
kunstmatige intelligentie

Verantwoorde AI en robotica krijgen een keurmerk

Wil het wat worden met AI en robots moet het grote publiek vertrouwen krijgen.

© CC0 - Pixabay Geralt
20 september 2018

Wil het wat worden met AI en robots moet het grote publiek vertrouwen krijgen.

Een onafhankelijk keurmerk moet het vertrouwen van het grote publiek in robotisering en de inzet van kunstmatige intelligentie gaan vergroten. Schrikverhalen en hypes moeten worden voorkomen.

The Foundation for Responsible Robotics en Deloitte willen samen zo'n keurmerk in het leven roepen en laten uitgroeien tot een industriestandaard. Het FRR-gecertificeerde keurmerk moet zekerheid gaan bieden over het verantwoord ontwerpen, ontwikkelen en produceren van robots.

"Artificial Intelligence en Robotics kunnen de maatschappij enorme voordelen opleveren, als we het goed doen. Schikverhalen en de hype moeten we proberen te voorkomen. We moeten het publiek een kwaliteitsmerk bieden dat hen helpt weloverwogen beslissingen te nemen", zegt professor Noel Sharkey, mededirecteur van The Foundation for Responsible Robotics.

Producenten krijgen leidraad

De beoordeling van producten voor het FRR-keurmerk richt zich onder meer op milieubescherming, duurzaamheid, integriteit, ethisch ontwerp, veiligheid en beveiliging en de aandacht van de producent voor de maatschappelijke impact en mensenrechten.

Het keurmerk moet zowel producenten als afnemers van AI-toepassingen een leidraad geven. Producenten worden er op gewezen waar zij rekening mee moeten houden bij in de ontwerp-, productie- en exploitatiefase. Ook mensen die op zoek zijn naar een baan kunnen het keurmerk gebruiken bij de keuze voor een werkgever. 

"Door onze kennis en ervaring op het gebied van Auditing, Innovatie en Artificial Intelligence kunnen we bijdragen aan het creëren van vertrouwen in de keten van producent tot consument", zegt Marc Verdonk, Partner Emerging Technology, Risk Advisory Deloitte in een verklaring.

Lees meer over Innovatie & Strategie OP AG Intelligence
2
Reacties
Thijs Dorssers 24 september 2018 12:26

Interessante ontwikkeling en natuurlijk altijd een goed initiatief van The Foundation for Responsible Robotics en Deloitte. Zo is de Nederlandse NEN-commissie ook al bezig met certificering voor veiligheid rondom Robots. Wellicht dat deze partijen elkaar hierin ook kunnen ondersteunen en vinden.
Een vraag blijft wel: hoe zorgt men er voor dat er onafhankelijk wordt gekeurd?
In het verleden is een vergelijkbaar initiatief als eens opgezet door de Robotica branche. Dit is gestorven doordat er allemaal consultants op afkwamen. Er werd niet meer onafhankelijk gekeurd. Vandaar ook dat ik de opmerking van Van Zanten snap en deel.
Men zou hierover eens moeten informeren bij Eddie Mennen van Yaskawa Benelux.
Als Holland Robotics blijven we graag op de hoogte aan en aangesloten over deze ontwikkelingen.

van Zanten 22 september 2018 20:12

Let op, de komende periode duikelen de (grote) Auditing Firms over elkaar heen met een vergelijkbaar aanbod. Die zien hier allemaal een fraai business model opduiken. Als je dit goed wilt doen begint het echter bij de bron, waarom wil je algoritmes eigenlijk inzetten, welk 'probleem' los je er mee op en hoe denk je dat te gaan doen. En dat doe je helemaal zelf als bedrijf, niet geen dure audits voor nodig.

Door te roepen "Schikverhalen en de hype moeten we proberen te voorkomen" (mits deze quote juist is) doet Noel Sharkey precies het omgekeerde, namelijk de suggestie wekken dat het helemaal fout gaat en eerst olie op het vuur gooien.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.