Ga naar de inhoud

Wat als onze informatie in publieke AI-tools terechtkomt? Hoe Microsoft Purview dat voorkomt

Auteur: Marco Krijgsman, communicatiespecialist

Wat als onze informatie in publieke AI-tools terechtkomt? Hoe Microsoft Purview dat voorkomt

Je kent het vast wel. Een collega gebruikt Copilot voor een presentatie, maar besluit daarna toch even snel die vertrouwelijke cijfers in ChatGPT te gooien “omdat dat handiger werkt.” Een andere collega uploadt een document met klantgegevens naar een online AI-tool zonder er bij stil te staan wat er met die data gebeurt.

Als IT-verantwoordelijke weet je dat AI-tools steeds belangrijker worden bij het werk van je collega’s. Tegelijkertijd hou je je hart vast bij de gedachte aan gevoelige bedrijfsdata die ongecontroleerd naar externe platforms verdwijnt.

In mijn gesprekken met relaties merk ik dat veel ondernemers enthousiast zijn over AI-mogelijkheden, maar tegelijkertijd onzeker over hoe ze controle houden over hun data. De vraag “Wat als onze informatie in publieke AI-tools terecht komt?” komt steeds vaker voorbij.

Voor dit artikel sprak ik met collega Tomas Hoogendoorn. We beantwoorden de vraag: “Hoe gebruik je Microsoft Purview om te bepalen welke data wel of niet gebruikt mag worden voor AI-platforms?”

Na het lezen van dit artikel weet je hoe je met Microsoft Purview en datalabels een veiligheidsnet opzet rond AI-gebruik. Je leert hoe je medewerkers bewust maakt van datarisico’s zonder hun productiviteit te belemmeren en hoe je controle houdt over welke informatie wel of niet naar externe AI-tools mag.

De keerzijde van AI-enthousiasme

Je ziet het overal op LinkedIn en in vakbladen: “Kijk wat AI allemaal kan!” De focus ligt op potentie en mogelijkheden. Maar heeft jouw organisatie ook nagedacht over de risico’s?

In mijn gesprekken met relaties merk ik dat veel ondernemers vol enthousiasme AI-tools willen inzetten, maar vaak de vraag “Wat is ons AI-beleid eigenlijk?” nog niet hebben gesteld. Die vraag komt meestal pas nadat er iets misgaat.

Tomas vertelt: “Het is een mooi stuk gereedschap en er wordt heel veel gefocust op de potentie, maar alles heeft een keerzijde.” Die keerzijde gaat verder dan alleen datalekken. Het gaat ook om compliance, aansprakelijkheid, en de vraag hoe je als organisatie verantwoord omgaat met AI-tools.

Tomas Hoogendoorn, AI-consultant bij Symbis

Waarom AI datacontrole zo belangrijk is

AI-tools worden steeds krachtiger, maar ook steeds hongeriger naar data. Wat veel bedrijven onderschatten is dat elk document dat naar een externe AI-tool gaat, ergens opgeslagen kan worden voor training of analyse.

Zelfs als je medewerkers geen kwaad in de zin hebben, kunnen ze onbedoeld concurrentiegevoelige informatie, klantgegevens of strategische plannen blootleggen. Met Purview bouw je een vangnet dat dit soort situaties voorkomt voordat ze probleem worden.

Wat is Microsoft Purview en hoe beheert het je AI-datarisico’s

Microsoft Purview is een soort digitale beveiligingsmedewerker die constant meekijkt welke data waar naartoe gaat. Door documenten en bestanden te voorzien van labels, denk aan “vertrouwelijk”, “intern gebruik” of “publiek”, weet het systeem precies wat er met welke informatie mag gebeuren.

Het slimme aan deze aanpak is dat Purview niet alleen let op wat er in Microsoft’s eigen Copilot gebeurt. Het houdt ook in de gaten wanneer iemand probeert een gelabeld bestand te uploaden naar bijvoorbeeld ChatGPT, Claude of andere externe AI-platforms.

Tomas legt uit: “Op het moment dat jij een bestand, waarop een vertrouwelijk label zit, uploadt naar ChatGPT, dan krijg je een melding dat dat niet is toegestaan.”

Datalabels: jouw eerste verdedigingslinie

Je stelt eenvoudig beleidsregels in die bepalen welke gelabelde content wel of niet naar externe platforms mag. Microsoft ondersteunt momenteel een groot aantal verschillende en prominente AI-modellen in deze controle van bekende platforms zoals ChatGPT tot meer gespecialiseerde tools.

Het werkt zo:

  • Classificeer je documenten met passende labels
  • Stel beleidsregels in voor elk label
  • Purview controleert automatisch bij uploads naar AI-platforms
  • Medewerkers krijgen een duidelijke melding als iets niet mag

Automatische labeling en licentievereisten

Niet alle functionaliteiten van Microsoft Purview zitten standaard in je huidige licentie. Voor de volledige AI-controle heb je specifieke Purview-licenties nodig. Maar die investering loont: met de juiste licentie kan Microsoft zelf bestanden herkennen en voorzien van labels, gebaseerd door jou ingestelde voorwaarden.

Stel je voor: alle facturen krijgen automatisch het label “financieel vertrouwelijk”, zonder dat iemand daar handmatig aan hoeft te denken. Zo bouw je een systeem dat zichzelf onderhoudt.

Awareness creëren met Microsoft Purview

Je voorkomt niet dat iemand stiekem toch iets kopieert en handmatig in ChatGPT plakt. Maar je zorgt wel voor bewustwording. Elke keer dat een collega een pop-up ziet met “dit bestand is niet bedoeld voor gebruik buiten de organisatie”, denkt hij of zij twee keer na.

Er is namelijk veel onwetendheid, we horen regelmatig: “Ik wist niet dat dit risico bestond.” Die alertheid alleen al is waardevol. Het gaat niet om het volledig blokkeren van alles, maar om ervoor zorgen dat mensen bewust kiezen.

Praktische implementatie van AI dataclassificatie

De kracht zit in de eenvoud. Je hoeft niet elke computer apart te configureren, het werkt via je bestaande Microsoft-omgeving. Alle werkstations die binnen jouw organisatie worden gebruikt, volgen automatisch dezelfde beleidsregels.

Een belangrijk detail: voor deze functionaliteit heb je een browser plugin nodig. Die rol je eenvoudig uit via Intune naar alle werkstations in je organisatie. Eenmaal geïnstalleerd werkt alles automatisch op de achtergrond.

Een praktijkvoorbeeld: stel dat je verkoopteam regelmatig met klantgegevens werkt. Met de juiste labels en beleid kan je team nog steeds Copilot gebruiken voor het analyseren van trends, maar wordt voorkomen dat dezelfde data naar ChatGPT of andere externe tools gaat.

De balans tussen innovatie en AI datacontrole

AI-tools bieden ongelooflijke kansen voor productiviteit en innovatie. Met Microsoft Purview zorg je ervoor dat je die kansen kunt benutten zonder je data te compromitteren. Door slimme classificatie en beleid creëer je een omgeving waarin je team veilig kan experimenteren en groeien.

Het gaat niet om het blokkeren van vooruitgang, maar om bewuste keuzes maken. Purview geeft je de controle die je nodig hebt als IT-verantwoordelijke, zonder de vrijheid van je collega’s te beperken.

Denk je nu hier wil ik meer van weten? We helpen je met een praktische roadmap die past bij jouw organisatie. Plan een strategisch adviesgesprek in en we bespreken de mogelijkheden voor jouw situatie.

Lees ook ons artikel over AI-automatisering met Microsoft Azure AI Foundry: Van Microsoft 365 Copilot naar je eigen AI-model

Veelgestelde vragen

Purview integreert het beste binnen het Microsoft-ecosysteem, maar kan ook data in andere cloudomgevingen monitoren en classificeren.

Volledige controle is onmogelijk, maar Purview creëert bewustwording en barrières die het overgrote deel van de onbedoelde datalekken voorkomt.

Dat hangt af van de complexiteit van je data-landschap, maar vaak zie je binnen enkele weken de eerste resultaten.

De basisfunctionaliteit zit in verschillende Microsoft 365-licenties, maar voor geavanceerde features zoals automatische labeling heb je specifieke Purview-licenties nodig. We helpen je graag uitzoeken welke licenties het beste passen bij jouw situatie.

Stel je vraag

Heb je een vraag naar aanleiding van dit artikel? Laat het ons weten en we nemen snel contact met je op.

"*" geeft vereiste velden aan