Overslaan en naar de inhoud gaan

Cybersecurityexperts: Geen vertraging in AI nodig, maar versnelling in weerbaarheid

De oproep van een groot aantal prominenten uit wetenschap en bedrijfsleven om een pauze in te lassen bij de ontwikkeling van krachtige natuurlijke taalmodellen als GPT, roept ook een tegenbeweging op. Zo'n pauze gaat niet helpen de ontwikkeling van verkeerd gebruik van de technologie af te remmen. Het is beter om het begrip van de techniek te verbeteren en leidinggevenden te trainen om de technologie op een goede manier te gebruiken.

Tegelijk moet het besef groeien van waar tegenstanders zullen proberen de technologie in te zetten voor hun eigen doelen, stelt een aantal cybersecurityspecialisten.

Een pauze in de ontwikkeling van een volgende generatie AI zal gewetenloze types er niet van weerhouden de technologie in gevaarlijke richtingen te ontwikkelen, stelt McAfee-CTO Steve Grobman ineen artikel van Venturebeat. "Bij technische doorbraken is het heel belangrijk dat organisaties en bedrijven hun standaarden en ethiek laten mee-ontwikkelen om ervoor te zorgen dat de technologie op de meest verantwoord mogelijke manier wordt gebruikt."

Hij zegt ook dat een pauze een niet haalbare overregulering is. "AI is toegepaste wiskunde. We kunnen mensen geen regels opleggen om ze ervan te weerhouden wiskunde toe te passen."

Sectorspecifieke regulering belangrijk

Grobman krijgt in het Venturebeat-artikel bijval van Justin Fier, SVP of Red Team Operations bij Darktrace. Hij zegt dat het nadenken over regulering van AI een belangrijk en continu proces is. Maar vooral een urgente uitdaging voor wetgevers met sectorspecifieke kennis omdat de toepassingen zich uitstrekken van gezondheidszorg tot luchtvaart. Hij pleit voor een internationale consensus over wie aansprakelijk is bij het misbruik van allerlei vormen van kunstmatige intelligentie en automatisering, niet alleen bij generatieve AI. "Een korte pauze bij de ontwikkeling van generatieve AI gaat dat probleem niet oplossen.

Risico's beperken

De aandacht van de cybersecuritygemeenschap moet liggen bij het versnellen van de discussie hoe de risico's die samenhangen met het misbruik van AI kunnen worden ingeperkt. Ook zouden de leveranciers van AI transparanter moeten zijn over de 'vangrails' die zij aanbrengen in hun technologie om het ontstaan van nieuwe bedreigingen te voorkomen. Gartner-analist Avivah Litan stelt in dat kader dat de ontwikkeling van large language models (LLM) gebruikers nodig heeft om vertrouwen te krijgen in het functioneren van de 'red teams' van de leverancier. Maar organisaties als OpenAI zijn vaag over hoe ze intern omgaan met risico's en er zijn weinig mogelijkheden voor eindgebruikers om de werking van de getroffen beschermingsmaatregelen op waarde te schatten.

Nieuwe tools helpen

Gartner heeft het tegenover Venturebeat over de ontwikkeling van een nieuwe klasse aan trust, risk and security management [TRiSM] tools. Leveranciers zouden die tools aan eindgebruikers ter beschikking moeten stellen zodat zij zelf data- en content-missers kunnen opsporen. Een andere manier is om AI in te zetten om AI-missers te bestrijden. Microsoft Security Copilot zet bijvoorbeeld GPT-4 in in combinatie met bekende security data.

Jeff Pollard, analist bij Forrester zei tegen Venturebeat: "De enige manier om cybersecurity er klaar voor te maken is er nu mee beginnen." Het idee dat het inlassen van een pauze gaat helpen komt als een boemerang terug naar cybersecurityteams.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in