Innovatie & Strategie

Juridische zaken
chatgpt

Waarom ChatGPT een privacynachtmerrie kan zijn

Transparantie richting gebruikers ontbreekt.

28 februari 2023

Transparantie richting gebruikers ontbreekt.

De wereldwijde opmars van ChatGPT is al maanden een feit. Het aantal gebruikers stijgt explosief en tikt inmiddels de 100 miljoen aan. De mogelijkheden van de chatbot met een zeer verfijnd taalmodel worden overal besproken, maar volgens experts blijven grote risico’s onder de radar. Zoals privacy.

Het door OpenAI ontwikkelde taalmodel ChatGPT wordt ondersteund door enorme hoeveelheden gegevens die het model laten functioneren. Hoe meer het model getraind wordt, hoe beter het patronen detecteert, hoe beter het kan anticiperen en hoe beter het een plausibele tekst kan produceren op basis van de ingevoerde opdrachten van gebruikers. ChatGPT is door OpenAI intussen ‘gevoed’ met ruim 300 miljard woorden die allemaal zijn gescraped van internet. Ze komen onder meer van websites, boeken en nieuwsartikelen. Maar ook van persoonlijke informatie die zonder toestemming is verkregen. Daar kleven grote risico's aan, zo waarschuwen experts.

Universitair docent IT en privacyrecht Mathieu Paapst stelt tegenover AG Connect dat het “Aannemelijk is dat ChatGPT informatie heeft gescraped vanaf het internet en dat daar ook eerder openbaar gemaakte persoonsgegevens tussen zullen zitten.” Volgens Paapst moet OpenAI als de verwerkingsverantwoordelijke strikt genomen in dat geval een melding sturen richting de betrokkenen met informatie over onder meer de grondslag, de bewaartermijnen en de doelen van de verwerking.

Het geleerde ongedaan maken

“Dat ze dat niet doen, dat is zorgwekkend omdat je dan niet weet of ze jouw gegevens ook verwerkt hebben. Aan de andere kant moeten we ook realistisch zijn, en ons realiseren dat er natuurlijk door veel meer organisaties persoonsgegevens gescraped worden vanaf het internet.” Volgens Paapst zijn er de ‘nodige risico’s’ omdat iemand die zijn gegevens van internet wil wissen dan niet kan bereiken dat het door ChatGPT geleerde ongedaan wordt gemaakt.

Ruben van der Geest, werkzaam als jurist bij ICTRecht, stelt tegenover AG Connect eveneens dat er zorgen bestaan over de wijze waarop ChatGPT met persoonsgegevens omgaat. Net als Paapst maakt hij zich zorgen over scrapen van persoonsgegevens die in vergaarde documenten of geoogste webpagina’s staan. “Je kunt het systeem wel leren om bepaalde gegevens, zoals namen, direct weg te gooien, maar het blijft een verwerking onder de AVG.” Volgens Van der Geest worden heel veel persoonsgegevens verwerkt bij het verzamelen van gegevens door OpenAI, maar betrokkenen weten dit niet en hebben er geen zicht op.

“Daarnaast is het niet mogelijk om bijvoorbeeld een inzageverzoek te doen bij OpenAI, terwijl dit volgens de AVG wel mogelijk moet zijn.” Google en Bing doen wat betreft scrapen hetzelfde, maar zijn volgens Van der Geest meer transparant erover. “Doordat alle gegevens door de AI-molen worden gehaald om het systeem te trainen is het waarschijnlijk lastig om te achterhalen welke persoonsgegevens worden verwerkt. Voor ons als gebruikers is het zelfs onmogelijk.”

Onbewust persoonsgegevens delen

Er is volgens van der Geest nóg een risico. “Dat je onbewust persoonsgegevens met het systeem deelt. Elk prompt die je intypt wordt weer gebruikt om het systeem te verbeteren. Het systeem kan dus een profiel van de gebruiker maken en profileren is onder de AVG een verwerking met een hoog risico.”

Een risico is er ook in het afleiden van persoonsgegevens op basis van een schrijfstijl. “Een voorbeeld hiervan is: ‘Gebaseerd op de schrijfstijl van deze persoon, heeft deze persoon autisme?’ Er zijn natuurlijk mensen die dergelijke observaties ook kunnen maken, maar het feit dat iedereen een tool tot zijn beschikking heeft die dit kan, kan grote gevolgen hebben.”

Blogposts, recensies, reacties

In de Verenigde Staten wordt in verschillende media gewaarschuwd voor 'privacynachtmerrie' ChatGPT. Volgens hoogleraar Business Information Systems Uri Gal van de Universiteit van Sydney is de kans groot dat informatie van vrijwel iedereen die ooit een blogpost, een productrecensie of een reactie op een online artikel heeft geschreven wordt verwerkt in ChatGPT. "OpenAI heeft echter nooit gevraagd of deze gegevens gebruikt mogen worden. En dat is een schending van het privacyrecht", zo legt hij uit aan The Conversation.“Vooral wanneer gegevens gevoelig zijn en kunnen worden gebruikt om ons, onze familieleden of onze locatie te identificeren.”

Lees meer over
6
Reacties
Bop 04 mei 2023 12:46

Waarom kreeg ik dit oude artikel weer voor mijn neus?
Zelfs mijn eigen reactie is dubbel.

Bop 04 mei 2023 12:44

'Geskreept', geschraapt zeg maar.

j.a.karman 28 april 2023 17:06

Het gebruiken van jurisprudentie gaat samen met namen van betrokkenen.
Het gebruiken van openbare gegevens gaat samen met namen en verwijzingen naar personen
Wat jezelf openbaar deelt en bekend maakt valt niet meer onder een gegeven dat beschermd moet worden
Overheidsbeslissingen hangen van de bestuurders als personen af. Open overheid (WOO) verwacht dat alles openbaar gemaakt moet kunnen worden.

Hiervoor zijn geen aparte meldingen nodig aan betrokkenen als de informatie verwerkt.
Heel vreemd dat privacy juristen er van uit gaan dat dat altijd zonder meer zou moeten. Dat zou tot gevolg hebben dat niets meer van de hierboven genoemde gegevensbronnen gebruikt zou mogen worden.
Conclusie: De absoluutheid van die bewering klopt niet.

De klassieke uitspraak met het recht op vergetelheid geeft een veel genuanceerdere overweging aan.
https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:62012CJ0…

Don van Riet (oud KPN strateeg) 28 april 2023 12:08

Alsof we al niet jarenlang onze privacy de deur hebben uitgedaan door een veelheid in aanbieders van softwaresystemen, zoekmachines en social media in ons leven uit te nodigen. Google, Microcoft, Facebook/Meta, Twitter, Linked In en ga zo maar door "scrapen" al tientallen jaren alles wat ze van ons weten voor eigen gewin: wij als gebruikers betalen immers met onze opgave van privacy. ChatGPT kent nog geen equivalent verdienmodel, dat is iets dat me méér interesseert: wat gaat erin, wat eruit en wie krijgt nu voor wat betaald...?

Ruud Leether 06 maart 2023 13:53

Terechte kritiek hoewel "automatisch verzamelen van data" voor veel lezers duidelijker dan "schrapen" zou zijn. Maar ja, wie zullen hier straks nog in staat zijn zelf in goed Nederlands te schrijven en te praten ? ChatGPT brengt dan ook niet alleen privacy risico's met zich mee.....

Bop 03 maart 2023 14:39

'Geskreept'.
En daar stopte ik met lezen.

Wel eens van schrapen gehoord?

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.