Overslaan en naar de inhoud gaan

Explainable AI: het recht op een goede uitleg

Voor het vertrouwen van de mens in technologie, en specifiek artificial intelligence (AI), is het van het grootste belang dat een goede uitleg kan worden gegeven over hoe besluiten tot stand zijn gekomen. Een recent voorbeeld van de Belastingdienst laat zien dat het vertrouwen en daarmee ook de reputatie een enorme deuk krijgen als er geen of geen goede uitleg wordt gegeven. De context van een AI-toepassing is cruciaal voor een goede uitleg.
Algortimsich denken
© Shutterstock
Shutterstock

Bij het ontwerp en de bouw van zo’n toepassing is het daarom zaak om daar vanaf het begin rekening mee te houden. Uiteindelijk moet AI de mens dienen en niet andersom.

Lees dit PRO artikel gratis

Maak een gratis account aan en geniet van alle voordelen:

  • Toegang tot 3 PRO artikelen per maand
  • Inclusief CTO interviews, podcasts, digitale specials en whitepapers
  • Blijf up-to-date over de laatste ontwikkelingen in en rond tech

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in