Overslaan en naar de inhoud gaan

Microsoft: De taken van het red team veranderen ingrijpend door komst AI

Microsoft is al sinds 2018 bezig met het ontwikkelen van methoden om de specifieke gevaren van de komst van kunstmatige intelligentie in kaart te brengen. Bedrijven moeten voor een AI Red Team veel meer uit de kast halen dan op het bordje van een 'regulier' red team ligt, concludeert het bedrijf.

Red team
Shutterstock, Avigator Fortuner

Een red team is een essentieel onderdeel van een development team als een bedrijf veilige software wil ontwikkelen. Maar de taken van een red team veranderen als in de software kunstmatige intelligentie wordt verwerkt, schetst Microsoft in een blog waarin het bedrijf de ervaringen van de afgelopen vijf jaar bundelt.

Responsible AI

Een van de nieuwe taken die een AI red team moet oppakken naast het zoeken naar beveiligingsproblemen, is nagaan of het systeem ook schadelijke content kan produceren. Het red team is dus ook verantwoordelijk voor het opleveren van responsible AI.

Microsoft geeft bovendien als algemene waarschuwing dat het red team kunstmatige intelligentie moet testen op het niveau van zowel het onderliggende model - dus bijvoorbeeld GPT 4 - als op het niveau van de applicatie waarin het model werkzaam is. Dat geeft beter inzicht in veiligheidsmechanismen die op de specifieke niveau's actief zijn.
Microsoft geeft verder vijf tips:

  • Het red team krijgt dus een breder takenpakket

De AI red team krijgt een paraplufunctie voor zowel beveiliging als specifieke AI-problematiek, zoals prompt injection en poisoning. Daarbij horen ook het beoordelen of de software zich niet schuldig maakt aan schending van de 'eerlijkheidsprincipes' zoals bijvoorbeeld stereotypering, of aan het produceren van schadelijke content zoals verheerlijking van geweld. 

  • Red teams moeten zich richten op zowel kwaadwillende als reguliere personas

Niet alleen kwaadwillenden kunnen een AI-systeem manipuleren om schadelijke content te produceren. Ook een nietsvermoedende gebruiker kan het systeem onbewust naar een verkeerd pad leiden. Dus waar het red team zich voorheen uitsluitend op de mindset van kwaadwillenden kon richten, moet nu de gedachtengang van een breder scala aan personas worden gevolgd.

  • AI systemen veranderen in de tijd

Traditionele systemen blijven in principe ongewijzigd na oplevering, op enkele updates na. Als er gebruik gemaakt wordt van een AI-model, moet het red team er rekening mee houden dat het model in de tijd verandert door training. Het AI red team moet dus periodiek ook al eenmaal in productie genomen systemen opnieuw beoordelen.

  • Een AI model geeft niet steeds hetzelfde antwoord

Klassieke software geeft bij het twee keer invoeren van dezelfde input, ook twee keer dezelfde output. Een AI-model geeft steeds een antwoord dat op dat moment waarschijnlijk het meest accuraat is (probablistisch). Dat betekent dat het invoeren van dezelfde input op twee verschillende momenten, ook verschillende antwoorden kan opleveren. Het AI red team moet daarop bedacht zijn en tests dus meer keer uitvoeren, ook al levert de eerste keer een bevredigend resultaat.

  • Inperken van AI-fouten vergt een gelaagde aanpak

In zekere zin lijkt dit advies op het verweer van traditionele software tegen bijvoorbeeld phishing door de host af te schermen met mechanismen om op een slimme manier malafide URL's te identificeren. Zo moeten ook AI-risico's op dieper niveau worden afgevangen met bijvoorbeeld classifiers die potentieel schadelijke content een vlag meegeven om zo 'drift' in conversaties binnen gestelde limieten te houden.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in