Inleiding
In december 2025 meldt de gemeente Eindhoven een datalek waarbij persoonsgegevens van burgers zijn betrokken.[1] Medewerkers maakte in hun dagelijkse werkzaamheden gebruik van openbare AI-tools, zoals ChatGPT. Door het uploaden van duizenden bestanden met persoonsgegevens van zowel inwoners als collega’s naar publieke AI-websites ontstond een ernstig datalek. De gemeente heeft het incident bij de Autoriteit Persoonsgegevens gemeld en heeft de toegang tot openbare AI-tools geblokkeerd. Ook heeft de gemeente aangekondigd het beleid rondom het gebruik van AI naar aanleiding van dit incident aan te scherpen.
Het gebruik van AI-tools binnen organisaties groeit snel. Medewerkers zetten tools zoals ChatGPT en Copilot steeds vaker in om werk te versnellen of repetitieve taken te automatiseren. Tegelijkertijd brengt dit verschillende risico’s met zich mee, met name op het gebied van privacy en databeveiliging. In dit artikel gaan we dieper in op het gebruik van AI op de werkvloer, met als doel inzicht te geven in de kansen, risico’s en goede praktijken voor veilig en verantwoord gebruik van AI binnen organisaties.
[1] Datalek openbare AI in Eindhoven | Gemeente Eindhoven
Risico’s en aandachtspunten
Hoewel het gebruik van AI-tools veel voordelen met zich meebrengt, zijn er ook belangrijke risico’s en aandachtspunten waar organisaties rekening mee moeten houden. Met name wanneer medewerkers persoonsgegevens, bedrijfsgeheimen of andere gevoelige informatie invoeren in openbare AI-tools, komt deze informatie onbedoeld buiten de organisatie terecht. Dit kan niet alleen leiden tot de schending van de AVG, maar ook tot datalekken en reputatieschade of juridische consequenties voor de organisatie. Daarnaast dient men rekening te houden met het feit dat AI-tools gegevens opslaan en actief leren van (eerdere) input. Zelfs wanneer er geen directe persoonsgegevens of bedrijfsgeheimen worden ingevoerd, kunnen interne informatie, klantgegevens of strategische overwegingen door middel van context of voorbeelden indirect worden gelekt. Hierdoor kan vertrouwelijke informatie alsnog onbedoeld beschikbaar komen voor derden.
Kortom, zonder duidelijke richtlijnen en bewustwording kunnen AI-tools een bedreiging vormen voor de bescherming van persoonsgegevens en bedrijfsinformatie. Ongeremd gebruik van AI brengt dan ook sneller risico’s dan kansen met zich mee. Hierdoor is het van belang om het gebruik van AI door medewerkers bewust te reguleren en te structureren, zodat voordelen veilig kunnen worden benut.
Verantwoord gebruik van AI stimuleren
Het gebruik van AI-tools kan veel voordelen bieden, maar alleen als het op een bewuste en gecontroleerde manier gebeurt. Daarom is het belangrijk om interne strategieën en richtlijnen te ontwikkelen die het verantwoord gebruik van AI stimuleren, door middel van beleid, training en AI-geletterdheid onder medewerkers te bevorderen. Hieronder vind je een aantal praktische handvatten om verantwoord gebruik van AI binnen de organisatie te stimuleren.
1. Richtlijnen en beleid
Om AI-tools veilig en effectief in de workflow te integreren, is het belangrijk dat organisaties duidelijke richtlijnen en beleid opstellen. Dit geeft medewerkers heldere kaders waarbinnen zij AI kunnen gebruiken, zodat het meteen duidelijk is wat wel en niet is toegestaan. Praktische maatregelen die hierin kunnen worden opgenomen zijn bijvoorbeeld het blokkeren van bepaalde openbare AI-websites, het gebruik van uitsluitend goedgekeurde bedrijfsaccounts en het monitoren van AI-gebruik binnen de organisatie. Op deze manier ontstaat een gecontroleerde en overzichtelijke omgeving waarin AI op een verantwoorde manier kan worden ingezet.
2. Training en bewustwording van medewerkers
Het opstellen en implementeren van richtlijnen en beleid alleen is onvoldoende. Medewerkers moeten zich ook bewust zijn van de risico’s en weten hoe ze AI-tools op een veilige manier kunnen gebruiken. Regelmatige training en heldere communicatie zijn cruciaal om de richtlijnen daadwerkelijk tot leven te laten komen binnen de organisatie. Door medewerkers actief te trainen, wordt niet alleen hun kennis rondom AI vergroot, maar neemt ook de bewustwording van verantwoordelijk gebruik toe. Dit helpt om risico’s zoals datalekken, onjuiste output of ongeoorloofd gebruik te beperken en bevordert een bewuste omgang met AI.
3. AI-geletterdheid
Het beschikken over kennis en inzicht in AI-tools is essentieel voor het ontwikkelen van de juiste vaardigheden en het verantwoord gebruik van AI. Hierbij is AI-geletterdheid van belang, wat in sommige gevallen een verplichting is onder de Europese AI Verordening. Dit betekent dat medewerkers voldoende kennis en vaardigheden moeten hebben om AI-tools op een verantwoorde manier in te zetten.[1] AI-geletterdheid gaat verder dan enkel technische kennis, het omvat ook inzicht in de sociale, ethische en praktische gevolgen van AI-gebruik. Door AI-geletterdheid te bevorderen, kunnen organisaties borgen dat medewerkers niet alleen weten hoe ze AI kunnen gebruiken, maar ook begrijpen welke impact hun gebruik kan hebben op collega’s, klanten en de organisatie als geheel.[2]
Slot
AI-tools bieden organisaties kansen om werkzaamheden sneller en efficiënter uit te voeren. Tegelijkertijd brengen ze aanzienlijke risico’s met zich mee, vooral op het gebied van privacy en databeveiliging. Het datalek van de gemeente Eindhoven illustreert hoe snel onzorgvuldig gebruik kan leiden tot ernstige gevolgen. Door het gebruik van AI bewust te reguleren, duidelijke richtlijnen en beleid op te stellen, medewerkers te trainen en AI-geletterdheid te bevorderen, kunnen organisaties de voordelen van AI veilig benutten en de risico’s minimaliseren. Verantwoord gebruik van AI is daarmee niet alleen een praktische noodzaak, maar ook een strategische keuze voor elke organisatie die AI-tools op de werkvloer inzet.
Wil je meer weten over hoe je het verantwoord gebruik van AI-tools binnen je organisatie kunt stimuleren, of heb je andere privacygerelateerde vragen? Met onze praktijkgerichte privacy-opleidingen en -trainingen helpen wij jouw organisatie om AI-bewust te werken. Neem vrijblijvend contact op met een van onze juristen of stuur een bericht naar hallo@privacy.nl.
[1] AI-geletterdheid | Autoriteit Persoonsgegevens
[2] Aan de slag met AI-geletterdheid | Autoriteit Persoonsgegevens
Geschreven door Emmy Zhang, Privacy & IT-jurist.
12 februari 2026
Wil je jouw organisatie privacy-volwassen maken of heb je vragen over gegevensbescherming?
Neem vrijblijvend contact met ons op en ontdek hoe Privacy1 je kan helpen.
Neem contact met ons op