Overslaan en naar de inhoud gaan

Google Bard blijkt minder goed beveiligd dan ChatGPT

Bard is aanzienlijk minder goed beveiligd tegen misbruik dan ChatGPT. Dit stellen onderzoekers van securityleverancier Check Point. Zij hebben de AI-chatbot van Google aan de tand gevoeld en concluderen dat het daarmee veel gemakkelijker is om schadelijke inhoud te genereren.
klassiek toetsenbord
© CC0 - Pexels.com
CC0 - Pexels.com

Met enig doorzettingsvermogen is het mogelijk Bard code te laten leveren voor keyloggers en malware zoals ransomware. Mails voor phishingdoeleinden laten zich zelfs met minimale inspanning opstellen door de generatieve AI van Google.

Google Bard is sinds vandaag ook beschikbaar in Nederland en in het Nederlands. Check Point Research (CPR), de Threat Intelligence-tak van Check Point, heeft twee dagen terug een eerste security-analyse van die AI-bot gepubliceerd. Google Bard is voorzien van beveiligingsmaatregelen om gebruik voor kwaadaardige toepassingen te voorkomen. De onderzoekers hebben echter ontdekt dat sommige van die beperkingen tegen misbruik gemakkelijk zijn te omzeilen. Daarvoor is niet eens per se een hoog niveau van technische bekwaamheid nodig.

Doorvragen loont

"In sommige gevallen kunnen zelfs niet-technische actoren schadelijke tools maken", luidt één van de bevindingen. Het onderzoek belicht het potentieel van Google Bard om de uitvoering van cybercriminaliteit te versnellen. Deze securitygerichte analyse van CPR wordt de komende weken voortgezet, ook omdat Google mogelijk de komende weken nog aanpassingen doorvoert. Bij ChatGPT van OpenAI is dat eerder ook al gedaan, waarbij de destijds aangebrachte 'vangrails' tegen misbruik toen ook al te licht werden bevonden.

De onderzoekers van Check Point waren bij Bard al snel in staat om kwaadwillende resultaten te genereren. Zo leverde Bard phishingmails af, schreef het code voor een keylogger en genereerde het basale ransomwarecode. Hierbij vergeleek CPR de Google-bot met ChatGPT. "Bij het eerste eenvoudige verzoek om een phishingmail te schrijven, gaven zowel ChatGPT* als Google Bard aan dat ze dit niet konden doen", meldt Check Point. Vervolgens vroegen de onderzoekers of de AI-platformen een phishingmail konden genereren uit naam van een specifieke financiële instelling. Dit verzoek weigerde ChatGPT, maar Google Bard genereerde wél een zeer specifieke mail zonder restricties."

Malware mag niet (maar kan wel)

Daarna hebben de security-onderzoekers de beide bots gevraagd om malwarecode. Ook dat verzoek werd afgewezen door zowel ChatGPT als Bard. De onderzoekers herhaalden de vraag, maar dan voorzien van enige rechtvaardiging. Ook toen weigerden beide AI-bots. "In de antwoorden gaf ChatGPT een zeer gedetailleerde uitleg terwijl Google Bard heel beknopt en algemeen bleef."

Vervolgens werd de vraag om malware specifieker gemaakt: een verzoek werd ingediend om keyloggercode voor algemene doeleinden te schrijven. "ChatGPT antwoordde restrictiever en identificeerde ons verzoek als mogelijk kwaadaardig, terwijl Bard simpelweg de code gaf." Tot slot hebben de onderzoekers nog gevraagd om een keylogger die de toetsaanslagen van de gebruiker zelf zou registreren. Als resultaat leverden beide modellen elk eigen code op voor hetzelfde doel. ChatGPT voegde daar nog wel een soort disclaimer aan toe, namelijk dat het geleverde resultaat niet mag dienen voor kwaadaardige doeleinden.

Na keyloggers zijn de experts van Check Point doorgegaan naar ransomware. "Op het eerste duidelijke verzoek zonder specifieke details, liet Google’s Bard weten dat het niet begreep wat gevraagd werd." Vervolgens is de AI gevraagd een omschrijving te geven van de meest voorkomende handelingen die ransomware verricht, om dat antwoord dan weer te benutten om ransomware te creëren. Bard genereerde echter niet het script waar om gevraagd werd. Maar de aanhouder wint: "Na nog enkele aanpassingen aan de input leverde Bard wel het gevraagde ransomware-script en bood het platform zelfs hulp om het script aan te passen en te laten werken."

Bards beginnersfouten?

De experts van CPR concluderen dan ook dat de antimisbruikbeperkingen van Bard op het gebied van cyberbeveiliging aanzienlijk minder zijn dan die van ChatGPT. Daardoor is het "veel gemakkelijker om schadelijke inhoud te genereren met de mogelijkheden van Bard". Zo legt de AI-chatbot van Google volgens Check Point bijna geen beperkingen op voor het maken van phishingmails en kan het "met minimale manipulaties" keyloggers ontwikkelen en eenvoudige ransomware maken.

Volgens de onderzoekers lijkt het er in het algemeen op dat Google's Bard niet alle lessen over antimisbruikbeperkingen heeft meegekregen die eerder geleerd zijn uit de implementatie van ChatGPT. "De bestaande beperkingen in Bard zijn relatief basaal, vergelijkbaar met ChatGPT tijdens de eerste lanceringsfase enkele maanden geleden." De onderzoekers spreken desondanks wel de hoop uit dat dit de eerste stapjes zijn op een lange weg en dat Google's AI-platform de nodige beperkingen en veiligheidsgrenzen nog zal omarmen.

'Ik heb deze vaardigheden niet'

In reactie op een malwaregerichte vraag van AG Connect ontkent Bard dat het in staat is malware maken. "Malware is een type computerprogramma dat ontworpen is om schade toe te brengen aan een computersysteem of om toegang te krijgen tot vertrouwelijke informatie. Het maken van malware vereist een diep begrip van computersystemen en programmeertalen. Ik heb deze vaardigheden niet." Waarna de AI-chatbot afsluit met: "Ik hoop dat dit antwoord nuttig is".

* CPR kon niet direct bevestigen welke ChatGPT-versie precies is vergeleken met Bard. Dat is waarschijnlijk ChatGPT 4, maar de vraag staat uit bij CPR. Deze tekst wordt aangepast zodra wij bevestiging hebben ontvangen.

Check Point Research laat aan AG Connect weten dat het zijn vergelijking van Bard heeft uitgevoerd met versie 3.5 van ChatGPT. Voor die wat oudere en minder geavanceerde versie is bewust gekozen: dat is namelijk de standaardversie die het meest toegankelijk is, dus openlijk beschikbaar voor het algemene publiek en niet zoals versie 4.0 alleen voor betalende premium-gebruikers.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee
RH
Ron Heinen 11 augustus 2023

Bing Chat GPT4 geeft referenties in z'n antwoorden wat verificatie van de antwoorden veel gemakkelijker maakt. Google Bard geeft geen referenties. Ook is Bing Chat GPT4 zeer goed in het toepassen van wiskunde en Bard minder.
Voorbeeld: We laten het wiskundige probleem op https://www.accountant.nl/vaktechniek/2023/6/de-steekproefomvang-ontmaskerd---deel-4/ oplossen door GPT4 en Bard.
We stellen beide AI-Systemen achtereenvolgens de volgende vragen:
1. Wat is de kans dat k fouten voorkomen in n steekproeven volgens de binomiale verdeling?
2. Wat is n als k=0 en p = 5 procent?
3. Ik wil dat de kans dat er geen fouten voorkomen in n steekproeven kleiner is dan 5%, wat is dan n?
Antwoord GPT4: "Dit betekent dat als je n steekproeven neemt met een foutkans van 5% per steekproef, en je wilt dat de kans dat er geen fouten voorkomen kleiner is dan 5%, dan moet je kiezen voor een waarde van n groter dan 59."
Antwoord Bard: "Als je wilt dat de kans dat er geen fouten voorkomen in n steekproeven kleiner is dan 5%, dan moet n groter zijn dan 30."
De methode achter deze manier van vragen stellen is dat je met vraag 1 de context van het probleem geeft. Met vraag 2 test je of de AI-machine het probleem begrijpt. Met vraag 3 controleer je of de conclusie welke je in vraag 2 hebt getrokken correct is. Bing Chat begrijpt het en Google Bard begrijpt het niet.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in