Nieuwe tool laat kunstenaars AI-modellen 'vergiftigen' als hun kunst wordt meegenomen in trainingsdata
Met de komst van beeldgenererende AI, is ook een nieuw ethisch en juridisch probleem ontstaan: werk van kunstenaars wordt gebruikt als trainingsdata. En lang niet altijd met toestemming. Een nieuwe tool laat makers hun werk beschermen tegen scraping op het internet. Met onzichtbare pixels in hun kunst, wordt het AI-model als het ware vergiftigd.
Diverse kunstenaars spanden begin dit jaar een rechtszaak aan tegen vier bedrijven die Stable Diffusion gebruikten - een systeem dat beelden kan genereren, maar getraind is op miljarden beelden waar auteursrechten op rusten. En ook AI-bedrijven als OpenAI, Meta en Google hebben inmiddels te maken met rechtszaken van kunstenaars, die claimen dat hun met auteursrechten beschermde materiaal en persoonlijke informatie zonder toestemming is opgenomen in de trainingsdata van de AI-modellen.
Dat verzamelen van gegevens verloopt via het internet. Bedrijven scrapen talloze websites en stoppen de verzamelde data in hun trainingsmodellen. Je daartegen beschermen is lastig, Met een nieuwe tool genaamd Nightshade - naar een familie van veelal giftige planten - moet dit toch beter mogelijk worden.
Geen toestemming? Model kapot
Nightshade werd ontwikkeld door een team geleid door professor Ben Zhao van de Universiteit van Chicago, schrijft MIT Technology Review, dat de tool als eerste vast mocht bekijken. De tool zorgt voor onzichtbare veranderingen in de pixels van de gemaakte kunst. Die veranderingen kunnen er vervolgens voor zorgen dat een AI-model dat de kunst in zijn trainingset heeft zitten, op chaotische en onvoorspelbare manieren gaat werken. Geeft iemand bijvoorbeeld de opdracht om een plaatje van een hond te genereren, dan zouden ze bijvoorbeeld plots een afbeelding van een kat kunnen krijgen.
De kunst vergiftigd dus als het ware de trainingset voor het AI-model, mocht het daarin belanden. En daarmee kunnen AI-modellen die zonder toestemming of compensatie kunst van anderen gebruiken nutteloos gemaakt worden.
Nog volop in ontwikkeling
Het is niet de eerste keer dat professor Zhao met zijn team tools maakt om kunst te beschermen tegen scraping. Eerder ontwikkelde het team de tool Glaze, waarmee kunstenaars hun persoonlijke stijl kunnen "maskeren", zodat het niet gescraped kan worden door AI-bedrijven. Ook Glaze verandert pixels in afbeeldingen op zo'n subtiele manier dat je het eigenlijk niet ziet. Maar machinelearning-modellen interpreteren de afbeelding als iets heel anders dan wat er eigenlijk op staat. Daardoor is de eigen stijl te maskeren door een geheel andere stijl.
De bedoeling is dat Nightshade onderdeel wordt van Glaze. Kunstenaars kunnen dan zelf kiezen of ze alleen Glaze gebruiken of dat ze ook AI-modellen willen 'vergiftigen' met Nightshade.
Nightshade wordt daarnaast open source gemaakt, zodat anderen hun eigen versies kunnen maken en/of de tool kunnen verbeteren. Hoe meer de tool gebruikt wordt en hoe meer eigen versies er komen, hoe krachtiger Nightshade wordt, aldus Zhao. Want hoe meer vergiftigde afbeeldingen er in een trainingsset komen, hoe meer schade er wordt aangericht aan het AI-model.
Ethische vraagstukken
Een tool als Nightshade roept ook weer ethische vragen op. De tool kan immers ook misbruikt worden voor malafide doeleinden, erkennen ook de onderzoekers. En er zijn nog geen echte verdedigingsmiddelen tegen dit soort aanvallen op een AI-model.
De hoop van de wetenschappers is echter dat dit ervoor zorgt dat kunstenaars weer meer macht krijgen over hun werk, in plaats van de AI-bedrijven.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee"Er zijn nog geen echte verdedigingsmiddelen tegen dit soort aanvallen" - nou, dat is er wel, alleen was er nog geen behoefte aan. Maar hoe de verdediging tegen watermarking en steganografie werkt is inmiddels redelijk bekend, het is alleen duur om toe te voegen qua rekenkracht. Het enige wat deze tool gaat doen is er voor zorgen dat er nog veel meer energie wordt verbruikt door AI. Bedankt professor, dat hadden we echt nodig...