Op een veilige manier GenAI-services implementeren, terwijl u data veilig houdt en naleving waarborgt
Het risico om slachtoffer te worden van ransomware-aanvallen en het lekken van data naar shadow software-as-a-service (shadow SaaS) en generatieve kunstmatige intelligentie (GenAI)-tools wordt vergroot door externe gebruikersverbindingen via onbeveiligde netwerken en BYOD-apparaten. Zo zagen onderzoekers een toename van 90 procent in publiekelijk afgeperste ransomware-slachtoffers en is naar schatting 55 procent van de dataverliesincidenten te wijten aan GenAI-gebruik.
Hoewel AI veelbelovend is en potentieel voordelen biedt in tal van sectoren, kan het ook beveiligingsrisico's met zich meebrengen. Enkele voorbeelden.
Datalekken
GenAI-tools omvatten vaak shadow IT, wat betekent dat beheerders zich niet bewust zijn van hun gebruik. Als gevolg hiervan worden openbare versies van de tools gebruikt zonder de juiste toegangscontroles en gegevensbeschermingsbeleid.
Gevolgen
Standaard gebruiken GenAI-tools gebruikersgegevens om nieuwe modellen te trainen. Zonder enig toezicht kunnen gebruikers onbewust auteursrechtelijk beschermde of gevoelige gegevens aan de GenAI-service bekendmaken.
Ontoereikende oplossingen
Conventionele tools voor preventie van gegevensverlies (DLP) zijn gebouwd voor het tijdperk van vooraf gedefinieerde trefwoorden en patronen. Ze begrijpen de context van ongestructureerde gegevens niet, wat typerend is voor GenAI-prompts die inherent conversationeel zijn.
Gevolgen
Vertrouwelijke gegevens die via GenAI-services worden gedeeld, blijven onopgemerkt, wat leidt tot gegevenslekken en gebrek aan inzicht in werkelijke risico's.
De kracht van GenAI ontsluiten
In het snel veranderende technologielandschap zijn de implicaties van GenAI-toepassingen een groeiende zorg. Nu ChatGPT en Gemini steeds populairder worden op de werkvloer, worden organisaties geconfronteerd met een dilemma tussen productiviteit en risico.
Een nieuwe GenAI-beveiligingsoplossing stelt gebruikers in staat om generatieve AI-toepassingen veilig te implementeren in de organisatie, terwijl het tegelijkertijd databescherming en naleving van regelgeving aanpakt. In tegenstelling tot standaardoplossingen voor databescherming, die geen context identificeren in conversatieprompts, beschikt deze nieuwe oplossing over GenAI-gebaseerde gegevensclassificatie om gegevenslekken in GenAI-toepassingen te voorkomen.
Zo kunnen organisaties:
- Inzicht krijgen in alle shadow GenAI-tools, zoals ChatGPT of Gemini
- De voor hen beste GenAI-use cases ontdekken, bijvoorbeeld voor codering, data-analyse en meer
- De GenAI-toepassingen met het hoogste risico identificeren en mitigatie prioriteren
- Gegevensverlies voorkomen met behulp van transformatieve GenAI-gestuurde gegevensanalyse
- Voldoen aan regelgeving met monitoring en zichtbaarheid op enterprise niveau
Next-level databescherming
De cloudservice Harmony Data Loss Prevention (DLP) levert databescherming voor de workspace, waarbij GenAI wordt gebruikt voor gedetailleerde zichtbaarheid en controle.
Dit stelt hybride organisaties in staat om:
- Meer dan 700+ vooraf gedefinieerde gegevenstypen, aangepaste gegevenstypen, Microsoft-tags en gevoelige gegevens te herkennen die in afbeeldingen zijn geïdentificeerd met behulp van Optical Character Recognition (OCR)
- Innovatieve copy/paste-beperkingen toe te passen met realtime beleidshandhaving
- Bedreigingen te voorkomen door gedownloade bestanden te scannen
- Gegevensbeschermingsbeleid af te dwingen door geüploade bestanden te inspecteren
- Veilige acceptatie van generatieve AI-toepassingen in de onderneming te ondersteunen
Nieuwe ThreatCloud AI-engines voor nog betere preventie
Infinity ThreatCloud AI, het centrale zenuwstelsel op het Infinity Platform, deelt wereldwijd up to date threat intelligence informatie in minder dan 2 seconden. Dit betekent dat een nieuwe aanvalssignatuur die door een endpoint in Brazilië wordt geïdentificeerd, 2 seconden later kan worden geblokkeerd door een cloudworkload in Japan, een netwerkgateway in Italië of een mobiel apparaat in Zimbabwe. ThreatCloud AI heeft een malwarevangst van 99,8 procent en is nu uitgebreid met nieuwe engines om zeer complexe aanvallen en dreigingscampagnes te identificeren, waaronder:
- ThreatCloud Graph-engine voor multidimensionale beoordeling van cyberdreigingen; voorkomt opkomende bedreigingen door hun relatie met bekende schadelijke artefacten te zien
- Automatische URL-categorisatie van nieuwe sites met behulp van AI-gebaseerde natuurlijke taalverwerking (NLP)
- Voorkomen van C2- en MDN-communicatie (Malware Delivery Network) op basis van functies die onderscheid maken tussen de verkeerspatronen van schadelijke en goedaardige websites
- Deep Brand Clustering: maakt gebruik van deep learning om phishingcampagnes met merkspoofing te voorkomen
GenAI security
Een GenAI-beveiligingsoplossing maakt de veilige adoptie van generatieve AI-applicaties in de onderneming mogelijk. Met behulp van baanbrekende AI-gestuurde data-analyse die conversatiegegevens nauwkeurig classificeert binnen prompts, leveren GenAI-beveiligingsoplossingen GenAI-applicatiedetectie, voorkomen ze datalekken en maken ze het mogelijk om aan regelgeving te voldoen. GenAI-beveiligingsoplossingen begrijpen datacontext om nauwkeurige zichtbaarheid en controle te bieden, terwijl het niet nodig is om omslachtige datatypen te definiëren.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee