Wat als onze informatie in publieke AI-tools terechtkomt? Hoe Microsoft Purview dat voorkomt
Auteur: Marco Krijgsman, communicatiespecialist
Wat als onze informatie in publieke AI-tools terechtkomt? Hoe Microsoft Purview dat voorkomt
Je kent het vast wel. Een collega gebruikt Copilot voor een presentatie, maar besluit daarna toch even snel die vertrouwelijke cijfers in ChatGPT te gooien “omdat dat handiger werkt.” Een andere collega uploadt een document met klantgegevens naar een online AI-tool zonder er bij stil te staan wat er met die data gebeurt.
Als IT-verantwoordelijke weet je dat AI-tools steeds belangrijker worden bij het werk van je collega’s. Tegelijkertijd hou je je hart vast bij de gedachte aan gevoelige bedrijfsdata die ongecontroleerd naar externe platforms verdwijnt.
In mijn gesprekken met relaties merk ik dat veel ondernemers enthousiast zijn over AI-mogelijkheden, maar tegelijkertijd onzeker over hoe ze controle houden over hun data. De vraag “Wat als onze informatie in publieke AI-tools terecht komt?” komt steeds vaker voorbij.
Voor dit artikel sprak ik met collega Tomas Hoogendoorn. We beantwoorden de vraag: “Hoe gebruik je Microsoft Purview om te bepalen welke data wel of niet gebruikt mag worden voor AI-platforms?”
Na het lezen van dit artikel weet je hoe je met Microsoft Purview en datalabels een veiligheidsnet opzet rond AI-gebruik. Je leert hoe je medewerkers bewust maakt van datarisico’s zonder hun productiviteit te belemmeren en hoe je controle houdt over welke informatie wel of niet naar externe AI-tools mag.
