Op 12 augustus 2025 sloeg de Informatiebeveiligingsdienst (IBD) van de Vereniging van Nederlandse Gemeenten de alarmbel: Microsoft 365 Copilot is op dit moment te riskant om te gebruiken voor het verwerken van persoonsgegevens in gemeentelijke organisaties. De waarschuwing, gebaseerd op een uitgebreid Data Protection Impact Assessment (DPIA) opdrachtgever SLM Rijk, komt niet uit het niets. Het is het resultaat van maandenlang overleg, en het is duidelijk: de technologie is nog niet veilig genoeg. De IBD adviseert gemeenten expliciet om Copilot te laten liggen bij elke taak die persoonsgegevens raakt — tot Microsoft concrete, meetbare verbeteringen heeft doorgevoerd. En dat is geen klein verzoek.
Waarom is Copilot zo riskant?
De DPIA identificeerde vier hoge risico’s die elk afzonderlijk al genoeg zijn om een gemeente tot stilstand te dwingen. Het eerste: incomplete inzage. Beheerders denken dat ze via Microsoft Purview alles kunnen zien — maar Copilot houdt diagnostische gegevens achter. Het is alsof je een document opvraagt en de helft van de pagina’s wordt automatisch geschrapt. Dat maakt controle onmogelijk. Het tweede risico is nog engere: AI die leugens genereert. Copilot kan foutieve, zelfs gevaarlijke persoonsgegevens verzinnen — een naam, een adres, een sociale zekerheidscijfer — en het doet dat zo overtuigend dat medewerkers het voor waar aannemen. De IBD noemt dit ‘overreliance on AI’: mensen vertrouwen de machine meer dan hun eigen bronnen. En dat terwijl veel gemeenten nog steeds verouderde, onvolledige gegevens in hun systemen hebben. Het derde risico is een zwart gat: de opslag van interacties. Wanneer een medewerker een prompt typt — bijvoorbeeld ‘geef me de gegevens van deze inwoner’ — dan slaat Copilot die prompt op, samen met het antwoord. Maar hoe lang? Waar? En voor welk doel? Microsoft geeft geen duidelijk antwoord. Dat is een schending van de GDPR-principe van doelbinding. Het vierde en misschien meest fundamentele risico: geen transparantie over wat er wordt verzameld. Gemeenten kunnen niet controleren welke gegevens Copilot gebruikt, wat ze niet kunnen voldoen aan hun wettelijke plichten. De IBD benadrukt: Microsoft plaatst wel waarschuwingen onder antwoorden, maar die zijn te subtiel. ‘Te weinig frictie’, zegt de dienst. Het is alsof je een auto hebt met een rood lampje dat knippert, maar geen geluid maakt — en je weet niet of het de remmen of de benzinetank betreft.Amsterdam stopt de pilot — en andere gemeenten volgen
De gemeente Amsterdam is de eerste grote stad die actie heeft ondernomen. In een openbare verklaring kondigde de stad aan: ‘De uitkomsten van de DPIA bevestigen onze zorgen. De risico’s maken dat deze technologie op dit moment niet veilig en juridisch verantwoord kan worden toegepast.’ De pilot is stopgezet. Geen testfase, geen proefperiode — gewoon stop. Dat is een krachtig signaal. Andere gemeenten, zoals Utrecht en Eindhoven, zijn nu in de evaluatiefase. Ze kijken niet naar wat Copilot kan, maar naar wat het kan verpesten.
Wat kunnen gemeenten nu doen?
De IBD geeft geen vage raad — ze geven concrete stappen. Ten eerste: sluit Bing uit. Copilot haalt informatie uit Bing, wat betekent dat het antwoorden geeft op basis van openbare webdata — vaak verouderd of onbetrouwbaar. Door Bing uit te schakelen, verminder je de kans op fouten — maar je verliest ook kwaliteit. Een lastige afweging. Ten tweede: blokkeer de consumentenversie. Microsoft geeft standaard toegang tot Copilot, zelfs als je Enterprise Data Protection hebt ingeschakeld. Dat betekent dat medewerkers per ongeluk persoonsgegevens kunnen uploaden naar een commercieel platform. Beheerders kunnen dit centraal uitschakelen — en moeten dat ook doen. Ten derde: gebruik Copilot nooit met bijzondere persoonsgegevens. Dat betekent: gezondheidsdata, religieuze overtuigingen, politieke voorkeuren, seksuele geaardheid — alles wat onder de strengere GDPR-regels valt. Geen uitzonderingen. Ten vierde: ontwikkel een gemeentelijk AI-beleid. Niet als document op een schijf, maar als levensregel. Wie mag wat invoeren? Hoe wordt gecontroleerd? Wat gebeurt er bij een fout? En ten vijfde: train je medewerkers. AI-geletterdheid is geen bonus, het is een basisvaardigheid. Medewerkers moeten leren dat AI geen expert is — maar een hulpmiddel met hoge risico’s.
Wat gebeurt er nu?
De gesprekken tussen SLM Rijk en Microsoft lopen nog steeds. Microsoft zegt dat het ‘aan de slag’ is met verbeteringen, maar tot nu toe is er geen enkele technische update gepubliceerd. De IBD benadrukt: deze notitie is geen officieel standpunt van de VNG — het is een technisch advies, gebaseerd op onderzoek. Maar het voelt als een waarschuwing van een ouder die zegt: ‘Niet doen, totdat ik zeg dat het veilig is.’ Voor gemeenten betekent dit: geen haast. Geen druk van boven. Geen ‘we moeten moderniseren’-argumenten die de privacy over het hoofd zien. De kosten van een fout — een gegevenslek, een rechtszaak, een publieke schandaal — zijn veel hoger dan de voordelen van een snellere brief of een automatisch rapport. Het is niet de AI die de fout maakt. Het is de mens die vergeten is om te vragen: ‘Is dit veilig?’Frequently Asked Questions
Waarom mag een gemeente Copilot niet gebruiken voor persoonsgegevens?
Omdat Microsoft Copilot vier hoge privacyrisico’s heeft: onvolledige inzage van gegevens, het genereren van onjuiste persoonsgegevens, onduidelijke opslag van interacties en gebrek aan transparantie over wat er wordt verzameld. Deze risico’s maken het onmogelijk voor gemeenten om aan de GDPR te voldoen. Zonder dat Microsoft concrete technische oplossingen biedt, is het gebruik onwettig.
Wat is het verschil tussen de consumenten- en enterprise-versie van Copilot?
De consumentenversie verwerkt gegevens in commerciële Microsoft-servers en kan ze gebruiken voor verbetering van AI-modellen. De enterprise-versie is bedoeld voor zakelijk gebruik, maar standaard is de toegang tot de consumentenversie nog steeds open — tenzij beheerders dat centraal blokkeren. Dat is een groot risico: medewerkers kunnen per ongeluk persoonsgegevens uploaden naar een platform waar ze niet moeten zijn.
Hebben andere landen ook waarschuwingen uitgebracht?
Ja. De Franse gegevensbeschermingsautoriteit CNIL heeft in juni 2025 een vergelijkbaar advies uitgebracht voor overheidsdiensten. Ook de Duitse Bundesbeauftragte für den Datenschutz en die Informationsfreiheit (BfDI) waarschuwt voor het gebruik van AI-tools met persoonsgegevens. Nederland is hiermee niet alleen, maar wel een van de eerste die een concreet, gedetailleerd technisch advies publiceerden.
Wat gebeurt er als een gemeente Copilot toch gebruikt?
Als een gemeente persoonsgegevens verwerkt via Copilot zonder de vereiste maatregelen, loopt ze het risico op een boete van de Autoriteit Persoonsgegevens — tot 4% van de jaaromzet of 20 miljoen euro, wat het hoogste is. Bovendien kan een foutieve AI-uitvoer leiden tot schade aan burgers — bijvoorbeeld een verkeerde uitkering of een verkeerd adres — wat juridische en reputatieschade kan veroorzaken.
Wanneer kunnen gemeenten Copilot weer gebruiken?
Niet voordat Microsoft concrete, geverifieerde technische aanpassingen heeft doorgevoerd — zoals volledige inzage van alle opgeslagen interacties, een duidelijk bewaarbeleid, en een mechanisme om foutieve gegevens te herkennen en te blokkeren. De IBD zegt dat gesprekken lopen, maar er is nog geen datum. Gemeenten moeten geduld hebben: veiligheid gaat voor snelheid.
Is er een alternatief voor Copilot dat veilig is?
Er zijn geen commerciële AI-tools die nu volledig veilig zijn voor persoonsgegevens in de openbare sector. Sommige gemeenten experimenteren met lokale, on-premise AI-systemen of open-source modellen die volledig binnen de eigen infrastructuur draaien. Dat is duur en technisch complex, maar het is de enige manier om controle te behouden. Totdat Microsoft of een ander bedrijf een echt GDPR-proof product levert, is het beste alternatief: geen AI bij gevoelige data.