Wie de afgelopen jaren op social media zat ontkwam er bijna niet aan: Advertenties met BNers, vol vage opmerkingen over hun investeringen, vaak prikkelend geschreven. Uiteindelijk blijkt het overgrote merendeel slechts bedoeld voor oplichting met cryptovaluta. Met name Jort Kelder wordt het gezicht van deze praktijken, ook vanwege zijn jaren aan rechtszaken om dit te bestrijden. Vijf jaar later blijken deze nepadvertenties slechts het puntje van de ijsberg.

Dat komt door de toenemende toegankelijkheid van generatieve kunstmatige intelligentie (AI), bijvoorbeeld via het nieuwe videomodel van OpenAI. Sora 2 is hun nieuwe paradepaardje. Het model om video's te genereren is sinds 30 september beschikbaar. De techniek is niet nieuw - er zijn meerdere open source modellen die hetzelfde kunnen doen - maar is nu wel toegankelijker dan ooit. Iedereen met toegang tot de dienst, die momenteel alleen op uitnodiging beschikbaar is, heeft niets meer nodig dan een internetverbinding en wat fantasie. De drempels van technische kennis en toegang tot hardware worden weggenomen. De opbrengst voor OpenAI is vooral kritiek, met name door de manier waarop het model omgaat bet de beeltenis van bekende mensen, zowel dood als levend.

Nabestaanden van onder andere acteur Robin Williams en mensenrechtenactivist Martin Luther King spraken schande van de manier waarop Sora 2 gebruikt kon worden. Zelda Williams, dochter van, smeekte eerder gebruikers van Sora 2 om te stoppen met het maken van filmpjes van haar vader. Ze noemde het walgelijk. Ook de nabestaanden van Martin Luther King hebben geen goed woord over de manier waarop zijn beeltenis in Sora 2 gebruikt werd.

Levend

Maar ook levende acteurs zijn niet veilig. Via acteur Bryan Cranston kwam de zaak terecht bij SAG-AFTRA, de grootste vakbond voor acteurs in Amerika. Sean Astin, voorzitter van de vakbond, waarschuwde voor het toe-eigenen van de beeltenis, het stemgeluid en de identiteit van de acteurs. Ook grote talentenbureaus als United Talent Agency en Creative Artists Agency uitten hun zorgen.

En het gebruik van de beeltenis van bekende personen gaat verder dan wat gezien wordt als respectloos. Dat geldt ook voor bekende Nederlanders, blijkt uit een nepadvertentie die sinds kort rondgaat op onder andere Facebook, waarin André van Duin een medicijn tegen hoge bloeddruk aanprijst. Afgelopen maandag waarschuwde de komiek dat deze video nep is. Het is onderdeel van een breder patroon, waarbij eerder ook de beeltenis van bekende Nederlandse artsen werd gebruikt om dubieuze medicijnen en alternatieve geneesmiddelen aan te prijzen.

Van Duin of de Nederlandse artsen zijn waarschijnlijk niet bekend genoeg om in op de Amerikaanse markt gerichte modellen als Sora 2 terecht te komen. Sora 2 is echter niet de enige manier waarop AI-gegenereerde filmpjes gemaakt kunnen worden. In principe is van iedereen van wie voldoende beeld- en geluidsmateriaal te vinden is een deepfake te maken. En deze worden steeds meer gebruikt voor cybercriminaliteit. Niet alleen voor nepadvertenties, maar ook voor identiteits- en CEO-fraude.

Expliciet

Jort Kelder moest vijf jaar moest procederen tegen de nepadvertenties die zijn beeltenis gebruikten. Dat komt mede omdat de rechter in eerdere instanties de verantwoordelijkheid voor de advertenties niet bij verspreiders als Google en Meta legde, maar bij de producenten zelf. En die zijn vaak zeer moeilijk te achterhalen. Pas bij hoger beroep in 2024 stelde de rechter dat Google weldegelijk verantwoordelijk was, ook omdat Kelder het bedrijf al eerder gewaarschuwd had voor de frauduleuze advertenties.

Waar wet- en regelgeving over deepfakes wel meer vooruitgang maakt, is op het gebied van expliciet materiaal. Al in 2023 werd een man veroordeeld voor het maken en verspreiden van een expliciet filmpje van presentatrice Welmoed Sijtsma. Dit werd strafbaar geacht onder artikel 254ba van het Wetboek van Strafrecht, in de volksmond de wet tegen de wraakporno. Sinds April dit jaar heeft de Verenigde Staten een vergelijkbare wet, de TAKE IT DOWN Act.

Maar ook andere groepen roeren zich in de strijd tegen deepfakes. Eerder dit jaar haalde CivitAI, een groot platform voor open source generatieve AI, alle modellen die bedoeld waren om bestaande personen na te bootsen offline. Hoewel de regels van de website stelden dat deze modellen niet gebruikt mochten worden voor het publiceren van expliciet materiaal bevatten de modellen geen beveiliging hiertegen. En in tegenstelling tot Sora 2 konden de op CivitAI aangeboden modellen compleet lokaal gedraaid worden, waardoor controle onmogelijk was.

Uiteindelijk was het niet wetgeving dat een einde maakte aan deze modellen, maar geld. Een aantal grote verwerkers van online betalingen stelden een ultimatum aan de site: haal de modellen van bestaande personen offline, of we verwerken geen transacties voor de website meer. Dit drukmiddel bleek uiteindelijk effectief.

Trainen

Hoewel CivitAI de modellen van bestaande personen offline heeft gehaald, zijn deze elders nog steeds beschikbaar. En wie de juiste kennis en hardware heeft, kan bovendien zelf modellen trainen. Dit betekent in de praktijk dat van iedereen van wie genoeg beeld- en geluidsmateriaal openbaar beschikbaar is een model gemaakt kan worden dat gebruikt kan worden voor deepfakes. Wetgeving kan bepaalde vormen van deepfakes strafbaar maken, maar de middelen om deze te produceren blijven beschikbaar en worden bovendien steeds beter.

Uiteraard zit men ook bij de bestrijding van deze deepfakes niet stil. Zo kwam het Nederlands Forensisch Instituut (NFI) dit jaar met een nieuwe techniek om deepfakes te herkennen: een AI-algoritme dat zich richt op de subtiele manier waarop elke hartslag in het gezicht zichtbaar is. Dit is een mate van detail die met generatieve AI (nog) niet nagemaakt kan worden. Maar het algoritme van het NFI wordt niet gebruikt op nepadvertenties op social media, of bij videogesprekken waarbij een van de partijen een valse identiteit voert. Cybersecuritybedrijven en organisaties als Netwerk Mediawijsheid bieden voorlichtingspagina’s met informatie over het herkennen van nepvideo’s.

Gezond verstand blijft het belangrijkste middel bij het herkennen van deepfakes. Niet alleen in het herkennen van fouten in de video. Deze worden inmiddels steeds realistischer. De tijd van zes vingers aan elke hand en onregelmatig knipperende ogen is al lang voorbij. Het is vooral belangrijk om bewust te blijven van het feit dat als iets te mooi is om waar te zijn, het dat ook is.