Met de huidige hype rond kunstmatige intelligentie (AI) willen steeds meer aanbieders van social media de door hun gebruikers geplaatste content gebruiken om hun modellen te trainen. Sinds maandag 3 november doet ook LinkedIn dit. Het is echter de vraag of dit wenselijk is, zeker gezien de aard van LinkedIn als social media platform.
In tegenstelling tot de meeste social media websites is LinkedIn niet gericht op algemene gebruikers, maar op bedrijven, overheidsorganisaties en professionals. LinkedIn wil nu de content die gebruikers plaatsen om een eigen AI te trainen. Volgens de pagina Veelgestelde vragen gaat het onder andere om profielgegevens, gegevens omtrent de afhandeling van vacatures en bijdrages als artikelen en reacties op post. Het gaat echter niet om privégegevens zoals privéberichten, salarisgegevens en inloggegevens. LinkedIn wil alle beschikbare content gebruiken die op de site gepost is sinds deze in 2003 openbaar ging.
Het is maar zeer de vraag of het wenselijk is dat (bedrijfs)gegevens in een AI-model terechtkomen. Zo wordt generatieve AI steeds meer gebruikt voor verschillende vormen van fraude en cybercriminaliteit. Een AI model met toegang tot een grote hoeveelheid bedrijfsgegevens kan bijvoorbeeld gebruikt worden voor CEO- of factuurfraude. Ook kunnen gegevens van individuele gebruikers worden gebruikt bij spearphishing, een vorm van cybercriminaliteit waarbij steeds meer AI gebruikt wordt.
Momenteel staat de toestemming om uw content te gebruiken om AI te trainen standaard aan. Dit is vergelijkbaar met hoe dit gedaan wordt op X, het voormalige Twitter. Onder de Europese Regels is LinkedIn echter verplicht om een opt out aan te bieden. De Autoriteit Persoonsgegevens (AP) plaatste al eerder een oproep om hier gebruik van te maken, niet alleen vanwege het gevaar voor cybercriminaliteit maar ook vanwege het belang van de privacy van individuele gebruikers.
Wij zien in de aangekondigde plannen grote risico’s. LinkedIn wil gegevens gebruiken die teruggaan tot 2003, terwijl mensen die informatie destijds hebben gedeeld zonder te voorzien dat ze voor AI-training zouden worden ingezet. Als die gegevens eenmaal in een AI-model zitten, verlies je de controle: ze zijn er niet zomaar meer uit te halen en de gevolgen zijn niet goed te overzien.
Monique Verdier, vicevoorzitter van de AP
Onder de accountinstellingen kunt u de optie Gegevensprivacy vinden. Binnen dit menu, onder 'Hoe LinkedIn uw gegevens gebruikt', staat de optie 'Gegevens voor verbetering van AI'. Deze staat standaard aan. Als u deze uitzet, dan heeft LinkedIn niet langer de toestemming om de gegevens van uw account te gebruiken bij het trainen van kunstmatige intelligentie.
Zo ziet het opt-out menu voor gebruik van uw gegevens bij AI training eruit.
Steeds meer bedrijven die digitale diensten aanbieden, willen de gegevens van hun gebruikers inzetten om AI te trainen, of deze data doorverkopen aan derde partijen die dat doen. Het is dus belangrijk om op de hoogte te blijven van de gebruikersvoorwaarden van diensten die u of uw organisatie gebruikt. Niet alleen uit overwegingen omtrent auteursrecht en privacy, maar ook met het oog op de cyberveiligheid van uw organisatie.