Nieuw soort cyberaanval introduceert malware bij programmeren met LLMs

Een van de meest gebruikte functies van large language models (LLMs) is het ondersteunen bij programmeren. Dat is op zich ook niet zo gek. LLMs zijn een vorm van generatieve kunstmatige intelligentie (AI) die taal kunnen aanmaken, en dus ook programmeertaal. Deze programmeeraal is echter lang niet altijd perfect, en juist in deze imperfecties hebben kwaadwillenden een opening gevonden om malware te verspreiden.

Header bij nieuwsartikel over gevaar malware bij programmeren met LLM

Wie regelmatig met AI werkt is bekend met het probleem van hallucinaties - als het model ergens het antwoord niet op weet, dan kan het gebeuren dat het een antwoord verzint. Dit soort foutieve output wordt een hallucinatie genoemd. Kwaadwillenden hebben ontdekt dat een specifieke vorm van hallucineren gebruikt kan worden om mensen onbewust malware te laten installeren. Niet alleen op apparaten van mensen die met LLMs geschreven software uitvoeren, maar ook rechtstreeks op computers die door programmeurs gebruikt worden om de code te schrijven.

Programmeren maakt vaak gebruik van bibliotheken, in het Engels libraries. Dit zijn pakketten van standaardfuncties die aan een programma kunnen worden toegevoegd om bepaalde functionaliteiten aan de software mee te geven, zonder dat deze door de programmeur handmatig uitgeschreven moeten worden. Deze zijn op Windows PC's bijvoorbeeld te herkennen als .dll bestanden, waarbij de afkorting DLL voor dynamically linked library (dynamisch verbonden bibliotheek) staat.

Wanneer een LLM gebruikt wordt voor programmeren, dan kunnen hallucinaties ertoe leiden dat er verwezen wordt naar bibliotheken die niet daadwerkelijk bestaan. Dat is normaal vervelend - het zou bij het uitvoeren van de code leiden tot foutmeldingen - maar cybercriminelen hebben ontdekt dat populaire LLMs vaak herhaaldelijk naar dezelfde niet bestaande bibliotheken verwijst. En deze terugkerende vorm van hallucineren wordt nu gebruikt voor een nieuw soort cyberaanval - slopsquatting.

Slopsquatting

De naam is afgeleid van typosquatting - een vorm van oplichting waarbij men domeinnamen gebruikt die lijken op die van legitieme websites. Criminelen kunnen deze veel gebruikte typefouten gebruiken voor bijvoorbeeld phishing, doordat nietsvermoedende gebruikers hun inloggegevens op deze nepsites gebruiken. De meeste browsers waarschuwen tegenwoordig wanneer de gebruiker een typefout maakt in een veelgebruikte URL, om de kans op succes van deze vorm van phishing terug te voeren.

Bij slopsquatting stellen kwaadwillenden software-bibliotheken samen met malware, en geven deze namen die veel gebruikt worden door LLMs. Ze worden vervolgens toegevoegd aan bestaande software-databases. Wie dan met LLMs programmeert kan zo dus ongewenst schadelijke code binnen halen, zowel voor de programmeur als de gebruiker van de met de hulp van AI-geschreven software. Deze malware-bibliotheken kunnen, zeker na compilatie van de software, vaak moeilijk teruggevonden worden.

En het herkennen van de schadelijke softwarepakketten kan lastig zijn, zeker voor onervaren programmeurs. De malware zit vaak diep in de code verstopt, en de bibliotheken worden geüpload met documentatie die dusdanig geschreven is dat deze niet van die van legitieme bibliotheken te onderscheiden is. En wie aan de LLM vraagt of een bepaalde bibliotheek malware bevat is ook niet verzekerd van het gewenste resultaat - de LLM zit er vaak naast bij het analyseren van de code, of citeert het bijgevoegde readme bestand, waarin natuurlijk niet gedocumenteerd staat dat het om malware gaat.

Al eerder berichtten we over het gevaar van onwenselijk materiaal in datasets, en de verschillende manieren waarop het gebruik van LLMs kan leiden tot datalekken. Slopsquatting is echter nog ernstiger dan dit, omdat het meer dan de andere twee voorbeelden kan leiden tot schade, voor zowel uw organisatie als uw klanten. Het is daarom belangrijk om altijd voorzichtig te blijven bij het gebruik van generatieve AI in uw bedrijfsvoering. Het kan de productiviteit verhogen, maar zet ook de deur open voor allerlei ongewenste risico's.