Overslaan en naar de inhoud gaan

Eed van Hippocrates ook voor IT’ers?

‘Computersysteem vervangt huisarts bij ggz-verwijzing’ of ‘computers kunnen net zo goed ziekten herkennen als artsen - of beter’. Dit zijn slechts een aantal voorbeelden van wat krantenartikelen. Er wordt gesproken over technologieën zoals artificial intelligence, machine learning en algoritmes alsof het de normaalste zaak van de wereld is. Maar achter deze technologieën zitten techneuten die - in tegenstelling tot artsen - geen ‘Eed van Hippocrates’ hebben afgelegd.
gezondheidszorg
© CC0 - Pixabay
CC0 - Pixabay

Worden we daar echt beter van?

Een van de belangrijkste onderdelen van deze eed is de zin ‘Ik zal aan de patiënt geen schade doen’. Moet dat dan niet ook gelden voor technologie? Iedereen weet dat technologie niet kwaadaardig zou moeten zijn. Het probleem is alleen dat maar weinig mensen weten hoe ze moeten voorkomen dat technologie toch wel kwaad doet.

Stel je voor dat een developer een spellingscontrole algoritme zou ontwikkelen en dit in de zorg zou worden ingezet. Opeens corrigeert het algoritme automatisch de namen van medicijnen, waardoor sommige patiënten de verkeerde medicatie meekrijgen. Ligt de verantwoordelijkheid dan bij de makers, bij de gebruikers of bij de technologie zelf?

Dat het gebruik van technologie in de zorg mensen al schade toebrengt geeft de studie ‘Racial bias in health algorithms’ uit 2019 aan. Daaruit bleek dat er raciale vooroordelen te vinden waren in veel gebruikte algoritmes in de zorg. Mensen van kleur bleken minder snel doorverwezen te worden dan even zieke witte mensen. Ze moesten dus zieker zijn om dezelfde zorg te ontvangen. Volgens de onderzoekers kreeg 17,7% van de patiënten van kleur de zorg die ze nodig hadden. Zou het algoritme onbevooroordeeld zijn dan zou dat aandeel eerder richting de 46,5% gaan. Een bizar verschil met verstrekkende gevolgen.

Het gaat hierbij niet om een specifiek algoritme. Het gaat om het gehele systeem waarin we bepaalde problemen met algoritmes proberen op te lossen. Het achteraf fixen van biases in algoritmes is lastig. Het zou juist voorkomen moeten worden.

Momenteel gebruiken we technologie voornamelijk om artsen te helpen bij hun besluitvorming. Dat bespaart namelijk kosten. De artsen worden dus zelf nog niet vervangen, maar de rol van technologie binnen de zorg wordt wel groter. Wat zou een arts doen als de eigen diagnose niet overeenkomt met het advies van een algoritme? Waar vertrouw je dan op?

Iedereen kan zich IT’er noemen. Het is een vrij beroep. Maar dat houdt ook in dat ook iedereen technologieën kan ontwikkelen voor de zorgsector. Waar we van artsen een bepaalde gedragscode verwachten, bestaat dat voor een IT’er niet. Met alle mogelijke gevolgen van dien.

Magazine AG Connect

Dit artikel is ook gepubliceerd in het magazine van AG Connect (oktober 2022). Wil je alle artikelen uit dit nummer lezen, zie dan de inhoudsopgave.

Gerelateerde artikelen
Gerelateerde artikelen

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in