Artiesten zetten nieuwe middelen in tegen dataverzameling AI-modellen

Het is al langere tijd onrustig rondom generatieve AI. Met name op het gebied van auteursrecht zijn er veel vragen. Niet alleen blijft de vraag wie het auteursrecht heeft op gegenereerd werk nog steeds onbeantwoord, er duiken ook steeds meer rechtszaken op over het materiaal waarop deze modellen getraind zijn. Artiesten en uitgevers vinden namelijk dat het gebruik van hun werk om modellen te trainen in gaat tegen de wetten op auteursrecht. Programmeurs hebben nu twee middelen ontwikkeld die proactiever zijn - Glaze en Nightshade moeten voorkomen dat in de toekomst beeldmateriaal zonder toestemming gebruikt wordt voor het trainen van modellen.

Voorbeeld van AI-gegenereerde kunst

AI diensten die afbeeldingen genereren zijn namelijk getraind door letterlijk miljarden afbeeldingen van het internet te halen en deze te analyseren. Echter, hoewel deze afbeeldingen wel openbaar beschikbaar zijn, is het auteursrecht nog steeds van toepassing. In verschillende rechtszaken die onder andere tegen de OpenAI Foundation en Midjourney zijn aangespannen, wordt gesteld dat het feit dat hun werk zonder toestemming in de modellen is opgenomen inbreuk maakt op hun auteursrecht.

Hoewel deze rechtszaken nog lopen zijn er nu een aantal nieuwe middelen beschikbaar voor artiesten die ontworpen zijn om het moeilijker te maken voor deze modellen om geautomatiseerd afbeeldingen te verzamelen en verwerken in het model. Deze middelen zijn ontworpen aan de University of Chicago, en bieden artiesten de mogelijkheid om hun afbeeldingen af te schermen tegen gebruik om AI te trainen

Glaze

Het eerste middel heet Glaze, letterlijk vertaald: Glazuur. Het is een filter dat afbeeldingen subtiel aanpast. Deze aanpassingen zijn niet met het blote oog te zien, maar maken het moeilijker voor het AI-model om een specifieke stijl te identificeren. Hierdoor wordt het voor de modellen moeilijker gemaakt om een afbeelding te produceren in de stijl van specifieke artiesten. Dit punt, dat modellen als MidJourney gebruikt kunnen worden om de stijl van specifieke artiesten te kopiëren, is een van de belangrijkste punten die in verschillende rechtszaken wordt aangedragen als bewijs dat deze diensten het auteursrecht ondermijnen.

In december lekte uit dat MidJourney de illustraties van het ruilkaartenspel Magic: the Gathering had gebruikt om hun model te trainen. Dit spel heeft tienduizenden illustraties, die in verschillende online databases beschikbaar zijn. Hoe lukraak deze training was, blijkt uit het feit dat bijvoorbeeld ook speciale kaarten die uitgegeven zijn om geld in te zamelen voor een kinderziekenhuis zijn opgenomen in het model. Deze kaarten zijn geïllustreerd door kinderen, die nu ook als artiest zijn opgenomen in het AI-model van MidJourney.

Glaze kan zowel via een via de website van de universiteit te downloaden app worden gebruikt, als via de webpagina WebGlaze. Deze laatste optie is momenteel alleen op uitnodiging beschikbaar. Nadeel is wel dat voor het gebruik van Glaze een computer met een relatief hoge hoeveelheid grafische rekenkracht nodig is.

Nightshade

Waar Glaze vooral voor defensieve doeleinden wordt gebruikt is Nightshade venijniger. Dat blijkt al uit de naam. Nightshade betekent nachtschade, een type giftige planten. En dat is ook het doel van dit programma - AI-modellen vergiftigen. Dit wordt gedaan door afbeeldingen dusdanig aan te passen dat de programma's die afbeeldingen analyseren voor gebruik in generatieve AI incorrecte sleutelwoorden aan afbeeldingen koppelen.

Dit betekent bijvoorbeeld dat een afbeelding van een hond als kat in de database komt. Op het niveau van een enkelvoudige afbeelding zal dit geen gevolgen hebben. Als dit echter met grotere aantallen afbeeldingen gebeurt, raakt het systeem in de war. Gebruikers die vragen om afbeeldingen van honden krijgen niet langer de output die ze verwachten, omdat het systeem simpelweg niet langer een duidelijk beeld heeft bij het concept 'hond'. De hoop is dat modellen die op deze manier gedestabiliseerd zijn minder commercieel levensvatbaar zijn.

Als een model eenmaal 'vergiftigd' is door Nightshade is het zeer moeilijk om de schade ongedaan te maken. De enige manier waarop de foutieve associaties uit het model te halen zijn is door handmatig alle afbeeldingen waarop het getraind is af te gaan, de afbeeldingen die met Nightshade bewerkt zijn te identificeren, en vervolgens alle associaties die zijn opgebouwd op basis van deze specifieke afbeeldingen uit het model te halen.

Wapenwetloop

Het lijkt erop dat de strijd tussen artiesten die niet willen dat hun werk gebruikt wordt om AI-modellen te trainen en aanbieders van AI-modellen zich nu ook buiten de rechtszaal afspeelt. Dit zal ongetwijfeld leiden tot een wapenwetloop. De aanbieders van modellen zullen de software die informatie uit afbeeldingen haalt om hun modellen te trainen blijven aanpassen. Ondertussen zullen artiesten blijven zoeken naar manieren om de AI voor te blijven.

Ondertussen woedt de strijd over hoe generatieve AI getraind kan worden door, en niet alleen in verschillende rechtszaken. Ook wetgevers houden zich hier druk mee bezig, op verschillende niveaus. Zo zijn zowel de Europese Unie als het Amerikaanse congres bezig met wetgeving om AI te reguleren, ook generatieve AI. En totdat er duidelijke wetgeving is over wat er wel en niet mag, zullen artiesten blijven zoeken naar manieren om van zich af te bijten.