Hoe je met Copilot extra risico loopt op een datalek

AI-assistenten zoals Microsoft 365 Copilot zijn handig. Ze geven samenvattingen van je e-mails, helpen bij het schrijven van documenten en halen snel informatie op. Maar wist je dat ze ook gevoelige informatie kunnen tonen zonder dat je dat doorhebt? Denk aan wachtwoorden, HR-gegevens of andere vertrouwelijke documenten. Dat maakt het risico op een datalek een stuk groter – zeker als je rechten en datatoegang in je organisatie niet strak geregeld zijn. In deze blog laten we zien wat er mis kan gaan met Microsoft Copilot beveiliging, wat we tegenkwamen tijdens pentests en wat jij kunt doen om dit risico te beperken.


Wat Copilot precies doet
Microsoft Copilot maakt gebruik van jouw toegangsrechten in Microsoft 365. Dat betekent dat Copilot toegang heeft tot alle documenten, e-mails en chats die jij ook kunt zien. Als data niet goed is afgeschermd, of als bepaalde mappen ‘per ongeluk’ voor iedereen toegankelijk zijn, dan kan Copilot die informatie gewoon tonen.


Een simpele vraag aan Copilot zoals “welke wachtwoorden heb ik ooit opgeslagen?” kan ervoor zorgen dat het AI-model een overzicht geeft van documenten waarin die wachtwoorden staan. Hetzelfde geldt voor zinnen als “wat verdienen de medewerkers op afdeling X?”. Copilot zoekt gewoon door alles wat voor jou toegankelijk is – ook als die data eigenlijk vertrouwelijk is.
Wat we tegenkwamen tijdens pentesten


Tijdens pentests van Den Ouden Informatiebeveiliging zagen we dat Copilot informatie toont waarvan organisaties niet wisten dat die toegankelijk was. In een test konden we via een standaardgebruikersaccount wachtwoorden vinden, gewoon door ernaar te vragen. In een ander geval kwam personeelsinformatie naar voren uit een intern Teams-kanaal dat iedereen kon inzien.
Dat laat zien hoe makkelijk het is om onbedoeld gevoelige informatie op te vragen. En vooral: hoe belangrijk het is om te testen of je omgeving écht goed is ingericht. Want je wilt natuurlijk niet dat medewerkers dingen te zien krijgen die voor HR of directie bedoeld waren.


Waarom een pentest meer is dan een scan
We hebben hier eerder een blog over geschreven: Pentesten versus scans. Een scan kijkt vooral naar bekende technische kwetsbaarheden. Een pentest kijkt verder. Wanneer we pentesten, proberen we situaties uit, stellen we vragen en kijken ook naar menselijke fouten, verkeerde rechten en tools zoals Copilot. Juist dat handmatige werk maakt het verschil: je ontdekt risico’s die je met een scan gewoon mist.


De situaties met Copilot kwamen alleen naar voren doordat we actief gingen testen wat de AI kon opvragen – iets wat een tool niet automatisch doet.

Microsoft Copilot Beveiliging – Wat kun je doen om dit te voorkomen?

Er zijn gelukkig verschillende maatregelen om Microsoft Copilot beveiliging te upgraden die je meteen kunt nemen:

  • Beperk rechten tot wat nodig is: Laat mensen alleen bij de data komen die ze nodig hebben. Loop regelmatig rechten na, vooral op SharePoint, Teams en OneDrive.
  • Gebruik dataclassificatie: Geef gevoelige documenten labels zoals “Vertrouwelijk” of “Alleen HR”. Met Microsoft Purview kun je data beveiligen met encryptie en toegangsregels.
  • Zorg voor bewustwording: Vertel medewerkers hoe Copilot werkt. Laat zien dat ze via Copilot meer kunnen zien dan ze denken, en leg uit waarom voorzichtigheid belangrijk is.
  • Monitor gebruik: Gebruik auditlogs en monitoringtools om te zien welke prompts gebruikers invoeren en welke data via Copilot wordt getoond. Stel meldingen in bij afwijkend gedrag. Dit kan via Microsoft Purview.

Checklist Copilot-beveiliging
Hieronder een handige checklist die je kunt gebruiken:

1. Zijn rechten per functie of afdeling goed ingesteld?
2. Is gevoelige data gelabeld en afgeschermd?
3. Weten medewerkers wat Copilot wel/niet mag doen?
4. Wordt het Copilot-gebruik gemonitord?
5. Zijn testcases gedraaid waarin Copilot vragen beantwoordt over gevoelige onderwerpen?

Samengevat
Copilot kan veel, maar juist daardoor kan het ook informatie laten zien die je niet met anderen had willen delen. Door goed na te denken over je rechtenstructuur, dataclassificatie en bewustwording, kun je dit risico flink verkleinen.
Wil je weten of jouw omgeving goed is ingericht? Of ben je benieuwd of Copilot in jouw organisatie gevoelige info prijsgeeft? Laat ons een pentest uitvoeren. We kijken gericht naar dit soort situaties en geven je duidelijke inzichten en oplossingen. Neem contact met ons op en plan een pentest in.