Overslaan en naar de inhoud gaan

65 procent van grote AI‑startups lekt gevoelige informatie

'Fail fast' is een veel gehoord gezegde in Silicon Valley, maar als je dat doet met de gevoelige informatie van anderen, moet je misschien toch wat minder snel proberen te falen. Cloudbeveiliger Wiz meldt dat 65 procent van de grotere AI‑bedrijven uit de Forbes AI 50 aantoonbaar gevoelige data heeft gelekt.

lek
CC BY 2.0 - Flickr

Het mag ondertussen wel redelijk duidelijk zijn dat AI-bedrijven de focus niet hebben op de veiligheid van hun gebruikers. Cloudbeveiliger Wiz bewijst dat nogmaals in een recent onderzoek. De onderzoekers vonden dat tweederde van de grotere AI-bedrijven toegangssleutels en tokens lekt die direct toegang kunnen geven tot diensten en data.

Wiz scande niet alleen de zichtbare data, maar dook ook in publieke code van organisaties op Github. Daarmee richtte het onderzoek zich op plekken waar standaardscanners vaak niet komen.

Toegang tot privé-AI-modellen

Bij de gelekte gegevens zitten API‑sleutels en tokens voor platforms als Weights & Biases, ElevenLabs en Hugging Face. Volgens Wiz kan misbruik daarvan toegang bieden tot privé‑modellen, trainingsdata of interne informatie over teams en systemen.

Opvallend is dat zelfs een bedrijf zonder publiek toegankelijke codes geheimen lekte. Aan de andere kant vond Wiz geen lekken bij een bedrijf met zestig openbare codes. Dat duidt volgens het bedrijf op het verschil dat volwassen sleutelbeheer kan maken, los van omvang.

Wiz noemt concrete casussen. Bij LangChain werden meerdere API‑sleutels aangetroffen in bestanden, notebooks en omgevingsbestanden. Bij ElevenLabs stond een enterprise‑sleutel in platte tekst aangetroffen. In een verwijderd fork trof Wiz een Hugging Face‑token dat toegang gaf tot circa duizend privé‑modellen.

Problemen worden aangepakt

Wiz probeerde alle betrokken partijen te contacteren, maar kreeg niet iedereen te pakken. Bij bijna de helft van de gevonden lekken bereikte de betreffende organisatie niemand. Waar wel contact was, reageerden bedrijven als ElevenLabs en LangChain snel en verholpen zij de issues.

Wiz benadrukt dat het probleem breder is dan alleen het onderzoek dat zich toespitste op GitHub. Leden en bijdragers vormen een uitbreidingslaag van het aanvalsoppervlak, zeker wanneer zij persoonlijke accounts gebruiken en experimenteren met AI‑tools. Het onderzoek sluit aan op een eerdere analyse waarin nieuwe lekroutes rond AI‑specifieke tokens zijn beschreven.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in