Overslaan en naar de inhoud gaan

Blockchain moet AI-onderzoekers aan gevoelige data helpen

Een nieuwe toepassing van blockchain kan data-analisten en wetenschappers helpen aan data waar ze door privacywetgeving moeilijk toegang toe kunnen krijgen.
oogchirurgie
© CC BY-SA 2.0
CC BY-SA 2.0

De blockchaintoepassing - genaamd Kara - is ontwikkeld door de oogchirurg en Stanford-hoogleraar Robert Chang samen met IT-hoogleraar Dawn Song van de University van California - Berkely, beschrijft Ars Technica. Chang wilde bigdata-analyse gebruiken om patronen te zoeken in patiëntgegevens om zo de ontwikkeling van sommige oogziekten zoals glaucoma te bestuderen. Hij dacht daarvoor daarvoor kunstmatige intelligentie in te kunnen zetten maar kwam er achter dat hij moeilijk aan voldoende data kon komen.

Zijn eigen patiëntdata waren ontoereikend en pogingen om meer data te vergaren via donorregistraties en databases waaraan mensen vrijwillig hun gegevens ten behoeve van wetenschap afgeven, liepen op niets uit. Bovendien liep Chang aan tegen privacyregelgeving die het verzamelen en bewaren van patiëntgegevens verbiedt.

Beperkte toegang tot gedeelde data

Het idee met Klara is nu dat mensen worden uitgenodigd tegen betaling hun gegevens te delen via een blockchainapplicatie in combinatie met een techniek genaamd 'differential privacy' die uit de koker van Song komt. Over en weer krijgen de partijen maar heel beperkt toegang tot de data. Zo zijn alleen de foto's die mensen uploaden van hun ogen - in het geval van het onderzoek van Chang - door de onderzoekers te gebruiken voor het trainen van een AI-systeem. De gegevens staan allemaal versleuteld en geanonimiseerd op het blockchainplatform van Song waar ook de berekeningen in een black box plaatsvinden. Daramee wordt ook voorkomen dat de onderzoekers of anderen met toegang tot die kant van het systeem via reverse engineering alsnog de inzender van de foto's kunnen terugvinden.

Bias een probleem op zich

Een van de problemen die Song en Chong daarnaast willen oplossen, is het gevaar dat er een bias ontstaat in de patiëntgegevens omdat er 'prikkels' worden gegeven voor het delen van de patiëntgegevens. Somige bevolkingsgroepen zullen eerder geneigd zijn hun data af te staan voor een geldelijke vergoeding. Zo zijn er meer factoren die van invloed zijn op de waarde van data van verschillende patiënten. Ook moet het systeem rekening kunnen houden met patiënten die toestaan dat sommige data wordt gebruikt in een bepaald onderzoek maar andere data niet.

Met systemen als Klara houden mensen meer zeggenschap over de data die zij delen. Het onderzoek kan een opstap zijn naar systemen waarbij mensen zelf kunnen bepalen wat er met hun persoonijke gegevens gebeurt.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in