Ook in de industrie voeren medewerkers te vaak gevoelige gegevens in via GenAI-prompt

21 januari 2025

Onderzoekers hebben vastgesteld dat een breed spectrum aan gegevens wordt gedeeld door medewerkers via generatieve AI (GenAI)-tools, wat de aarzeling van veel organisaties om volledig over te stappen op AI-praktijken legitimeert. Ook in de industrie blijkt dit regelmatig voor te komen.

Elke keer dat een gebruiker gegevens invoert in een prompt voor ChatGPT of een vergelijkbare tool, worden deze gegevens opgenomen in de dataset van de LLM-service en gebruikt als bronmateriaal om de volgende generatie van het algoritme te trainen. De zorg is dat deze informatie op een later tijdstip kan worden opgehaald via slimme prompts, een kwetsbaarheid of een hack, als er geen juiste databeveiliging aanwezig is voor de service.

Dit blijkt uit onderzoek van Harmonic Security, dat duizenden prompts analyseerden die door gebruikers waren ingevoerd in GenAI-platforms zoals Microsoft, Copilot, OpenAI ChatGPT, Google Gemini, Anthropic's Clause en Perplexity.

In hun onderzoek ontdekten ze dat, hoewel het gedrag van medewerkers bij het gebruik van deze tools in veel gevallen eenvoudig was, zoals het samenvatten van een tekst of het bewerken van een blog, er een subset aanvragen was die veel compromitterender was. In totaal bevatte 8,5% van de geanalyseerde GenAI-prompts gevoelige gegevens.

Veel gevoelige gegevens

De gevoelige gegevens die medewerkers delen, vallen vaak in een van vijf categorieën:

  • klantgegevens
  • gegevens over medewerkers
  • juridische en financiële gegevens
  • beveiligingsgegevens
  • en gevoelige software-code

Klantgegevens vormen het grootste aandeel van gevoelige gegevensprompts, namelijk 45,77%, volgens de onderzoekers. Medewerkersgegevens maken 27% van de gevoelige prompts uit in de studie van Harmonic, wat aangeeft dat GenAI-tools steeds vaker worden gebruikt voor interne processen. Dit kan betekenen dat prestatiebeoordelingen, inhuuringsbeslissingen en zelfs beslissingen over jaarlijkse bonussen worden gemaakt. Andere informatie die potentieel kan worden blootgesteld, omvat werkgelegenheidsrecords, persoonlijk identificeerbare informatie (PII) en salarisgegevens.

Juridische en financiële informatie wordt minder vaak blootgesteld, namelijk 14,88%, maar als dit wel gebeurt, kan het grote bedrijfsrisico's met zich meebrengen, volgens de onderzoekers. Helaas, wanneer GenAI in deze velden wordt gebruikt, is het voor eenvoudige taken zoals spellingscontroles, vertalingen of het samenvatten van juridische teksten. Voor iets zo kleins, zijn de gevolgen erg hoog, met risico's voor diverse gegevens zoals verkooppijplijn details, fusie- en overname-informatie en financiële gegevens.

Beveiligingsinformatie en beveiligingscode vormen elk het kleinste deel van de gelekte gevoelige gegevens, respectievelijk 6,88% en 5,64%. Hoewel deze twee groepen kleiner zijn dan de eerder genoemde, zijn ze volgens de onderzoekers een van de snelst groeiende en meest bezorgwekkende. Beveiligingsgegevens die in GenAI worden ingevoerd, omvatten resultaten van penetration tests, netwerkconfiguraties, back-upplannen en meer, waardoor exacte richtlijnen en blauwdrukken worden verschaft hoe kwaadwillenden kwetsbaarheden kunnen uitbuiten en hun slachtoffers kunnen misbruiken. Code die in deze tools wordt ingevoerd, kan technologiebedrijven in een concurrentienadeel brengen, kwetsbaarheden blootleggen en concurrenten in staat stellen om unieke functionaliteiten te repliceren.

Het balanceren van cyberrisico's en voordelen

Als het onderzoek aantoont dat GenAI hoge risico's met zich meebrengt, moeten bedrijven dan doorgaan met het gebruik ervan? Deskundigen zeggen dat ze misschien geen keuze hebben.

"Organisaties lopen het risico hun concurrentievoordeel te verliezen als ze gevoelige gegevens blootstellen", zeiden de onderzoekers in het rapport. "Maar tegelijkertijd lopen ze ook het risico achterop te raken als ze GenAI niet adopteren." Anderen zijn echter van mening dat GenAI niet perse noodzakelijk is of dat een organisatie uberhaupt kunstmatige intelligentie nodig heeft.

Tips voor AI in de industrie

Als industriële ondernemingen GenAI-tools willen gaan gebruiken, maar de hoge risico's die eraan verbonden zijn willen mitigeren, hebben de onderzoekers van Harmonic aanbevelingen hoe dit het beste kan worden aangepakt. De eerste stap is om een effectief AI-beheer te implementeren, waaronder het inzetten van systemen om invoer in GenAI-tools in real-time te volgen, te identificeren welke accounts in gebruik zijn en ervoor te zorgen dat medewerkers betaalde plannen gebruiken voor hun werk en niet plannen die ingevoerde gegevens gebruiken om systemen te trainen, volledige zichtbaarheid te verkrijgen over deze tools, gevoelige gegevensclassificatie, het creëren en afdwingen van workflows, en het trainen van medewerkers in beste praktijken en risico's van verantwoord GenAI-gebruik.

Hier zijn enkele tips voor een veilig gebruik:

  1. Implementeer effectief AI-beheer: Zet systemen in om invoer in GenAI-tools in real-time te volgen en zorg ervoor dat medewerkers betaalde plannen gebruiken die geen ingevoerde gegevens gebruiken om systemen te trainen.
  2. Classificatie van gevoelige gegevens: Classificeer gevoelige gegevens en zorg ervoor dat medewerkers op de hoogte zijn van welke gegevens niet mogen worden ingevoerd in GenAI-tools.
  3. Creëer en verplicht specifieke workflows: Ontwikkel duidelijke workflows voor het gebruik van GenAI-tools en dwing deze af om ervoor te zorgen dat medewerkers deze volgen.
  4. Train medewerkers: Train medewerkers in best practices en risico's van verantwoord GenAI-gebruik om bewustzijn en kennis te vergroten.
  5. Zorg voor zichtbaarheid: Verkrijg volledige zichtbaarheid over de gebruikte GenAI-tools en de gegevens die worden ingevoerd om potentiële risico's snel te identificeren en op te lossen.

Door deze maatregelen te nemen, kunnen industriële bedrijven de risico's van gevoelige gegevensinvoer in GenAI-tools aanzienlijk verminderen en tegelijkertijd de voordelen van deze technologie benutten.

Altijd op de hoogte blijven?