Steeds meer mensen lijken taalmodellen (LLMs) als ChatGPT te gebruiken, zowel op hun werk als in hun dagelijks leven. Het is voor veel mensen een van de meest zichtbare vormen van kunstmatige intelligentie (AI). Een recente ontdekking van techjournalist Henk van Ess toont echter een keerzijde van het gebruik van LLMs, zeker in organisaties.

Het begon met een waarschijnlijk goedbedoelde functionaliteit van ChatGPT. Gebruikers kregen de mogelijkheid om hun gesprekken met het LLM te laten indexeren door Google. Kortgezegd betekent dit dat de zoekmachine de inhoud van de gesprekken inventariseert op een manier die ze doorzoekbaar maakt. Hierdoor werden de gesprekken echter ook openbaar zichtbaar. De functionaliteit is inmiddels weer uitgeschakeld, en Google heeft ervoor gezorgd dat de gesprekken niet langer te doorzoeken zijn. Ze blijken echter ook opgeslagen op de website Archive.org.

Het artikel van Van Ess toont aan wat de gevolgen kunnen zijn van onverantwoord gebruik van ChatGPT. Een korte zoektocht gaf onder andere vertrouwelijke bedrijfsinformatie, interne omzetcijfers en discussies over een mogelijke fusie. Ook werd informatie gevonden die schadelijk kan zijn voor de reputatie van een bedrijf. Het gaat dan bijvoorbeeld om een jurist die ChatGPT om advies vroeg bij het uitkopen van inheemse inwoners in de Amazone, zodat het bedrijf dat hij vertegenwoordigd een energiecentrale kan bouwen.

En bij deze voorbeelden gaat het nog om legale handelingen. De gesprekken op Archive.org bevatten ook pogingen tot fraude en andere illegale activiteiten. Hoewel ChatGPT hier in eerste instantie vaak niet aan meewerkt, zijn er veel voorbeelden waarbij door de verzoeken op de juiste manier te formuleren het LLM toch meewerkt.

Maar zelfs bij het meest oppervlakkige gebruik van ChatGPT kan een organisatie kwetsbaar zijn door dit lek. Het kan bijvoorbeeld leiden tot een datalek, waarbij ook klantgegevens beschermd onder de AVG openbaar worden gemaakt. Ook kunnen gesprekken die op deze manier geïndexeerd zijn gebruikt worden om de interne communicatiestijl van een organisatie te analyseren, iets dat bijvoorbeeld gebruikt kan worden voor spearphishing, een vorm van phishing waarbij het doelwit benaderd wordt met gepersonaliseerde berichten.

LLMs als ChatGPT kunnen bepaalde soorten werk heel efficiënt uitvoeren en veel tijd besparen. Het is echter belangrijk om altijd in de gaten te houden wie er mogelijk toegang heeft tot de data. Want bij een lek zoals dit kunnen de gevolgen groot zijn, van reputatieschade tot criminele vervolging. Het is daarom belangrijk om op een verantwoorde manier gebruik te maken van AI, en altijd bewust te blijven van wie er mogelijk meeleest met uw gesprekken.