Overslaan en naar de inhoud gaan

Deze securityrisico's kan ChatGPT vormen voor tech zelf

ChatGPT is nu zeker een half jaar onder ons en inmiddels is meermaals gewaarschuwd voor potentiële risico's. Generatieve taalmodellen als deze kunnen bijvoorbeeld geloofwaardige misleidende en foutieve teksten genereren en uitmuntende phishing-mails schrijven. Maar ook voor de techindustrie kunnen de taalmodellen naast kansen diverse risico's opleveren, stelden wetenschappers tijdens Dcypher Donderdag op 25 mei aan de Universiteit van Amsterdam, waar ze in gingen op een aantal van die risico's.
Chatbot in een telefoon.
© Shutterstock.com
Shutterstock.com

De risico's van generatieve taalmodellen zijn in het afgelopen half jaar meermaals duidelijk geworden. Het bekendste voorbeeld bestaat waarschijnlijk uit de talloze studenten die onder meer ChatGPT gebruiken om bijvoorbeeld essays te schrijven en andere opdrachten te maken.

Lees dit PRO artikel gratis

Maak een gratis account aan en geniet van alle voordelen:

  • Toegang tot 3 PRO artikelen per maand
  • Inclusief CTO interviews, podcasts, digitale specials en whitepapers
  • Blijf up-to-date over de laatste ontwikkelingen in en rond tech

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in