AI 7 min leestijd

Shadow AI: de risico's van onzichtbaar AI-gebruik.

Medewerkers gebruiken AI-tools zonder dat IT het weet. Wat zijn de risico's en hoe maak je er beleid voor?

Jasper Koers ·

In het kort

  • Shadow AI is het ongeautoriseerd gebruik van AI-tools door medewerkers — en het komt in vrijwel elke organisatie voor
  • De grootste risico's zijn datalekken, AVG-schendingen en het ontbreken van een audittrail
  • Verbieden werkt niet: medewerkers gebruiken AI omdat het hen productiever maakt
  • De oplossing is beleid: inventariseer, classificeer en bied goedgekeurde alternatieven aan
  • Organisaties die AI omarmen met duidelijke kaders profiteren het meest — veilig én productief

Wat is shadow AI?

Shadow AI is het gebruik van AI-tools door medewerkers zonder dat de organisatie ervan weet of het heeft goedgekeurd. Denk aan een marketeer die blogposts laat schrijven door ChatGPT, een accountant die financiële data door Claude haalt of een HR-medewerker die sollicitatiebrieven laat beoordelen door Gemini. Volgens onderzoek van Gartner gebruikt 68% van de medewerkers AI-tools zonder goedkeuring van IT.

Het is de opvolger van shadow IT — maar met een belangrijk verschil. Bij shadow IT ging het om Dropbox-accounts en persoonlijke laptops. Bij shadow AI gaat het om tools die actief bedrijfsdata verwerken. Elke prompt die een medewerker invoert, is potentieel een datalek.

Waarom gebruiken medewerkers het?

De reden is simpel: het werkt. AI-tools maken medewerkers sneller en productiever. Uit onderzoek van UpGuard blijkt dat 75% van de werknemers al AI inzet op het werk, waarvan 78% dit doet met eigen tools. Ze hoeven niet te wachten op IT voor een goedgekeurd tool. Ze openen een browser, typen een prompt en hebben binnen seconden een resultaat.

  • Lage drempel — ChatGPT en vergelijkbare tools zijn gratis of goedkoop beschikbaar en vereisen geen technische kennis
  • Directe waarde — Samenvattingen, vertalingen, analyses en conceptteksten zijn binnen seconden klaar
  • Geen wachttijd — Geen ticket bij IT, geen goedkeuringsproces, geen implementatietraject
  • Sociale norm — Collega's gebruiken het ook, dus het voelt normaal

Het probleem is niet dat medewerkers AI willen gebruiken. Het probleem is dat ze het doen zonder kaders.

De risico's

Shadow AI introduceert risico's die de meeste organisaties onderschatten — juist omdat het gebruik onzichtbaar is. Volgens een rapport van Reco rapporteert 98% van de organisaties ongeautoriseerd AI-gebruik, en verwacht 49% binnen twaalf maanden een shadow AI-incident.

Datalekken via prompts

Elke prompt die een medewerker invoert in een AI-chatinterface wordt verwerkt door een externe partij. Klantgegevens, financiële data, strategische plannen, contracten — alles wat in een prompt staat, verlaat je organisatie. Uit het Cloud and Threat Report van Netskope blijkt dat bijna 47% van de generatieve AI-gebruikers tools benadert via persoonlijke accounts, volledig buiten de enterprise-controles om. Bij chatinterfaces kunnen deze gegevens zelfs worden gebruikt voor het trainen van het model, tenzij je expliciet opt-out regelt.

AVG-schendingen

Het verwerken van persoonsgegevens via AI-tools zonder verwerkersovereenkomst is een overtreding van de AVG. Als een medewerker klantdata invoert in ChatGPT, is er sprake van een dataverwerking door een derde partij zonder juridische grondslag. De boetes kunnen oplopen tot vier procent van de jaaromzet.

Geen audittrail

Bij geautoriseerde software weet je wie wat wanneer heeft gedaan. Bij shadow AI is er geen logging, geen versiebeheer en geen traceerbaarheid. Als er een fout wordt gemaakt op basis van AI-output, is niet te achterhalen hoe die output tot stand is gekomen.

Onbetrouwbare output

AI-modellen hallucineren. Ze genereren overtuigende maar feitelijk onjuiste informatie. Zonder review-proces worden deze fouten niet onderschept. Een offerte met verkeerde prijzen, een juridisch advies gebaseerd op verzonnen jurisprudentie, een rapport met gefabriceerde statistieken — het gebeurt dagelijks.

Vendor lock-in en kostenverspilling

Wanneer elk team zijn eigen AI-abonnementen afsluit, betaal je als organisatie meerdere keren voor overlappende functionaliteit. Daarnaast bouw je afhankelijkheden op van tools waar de organisatie geen controle over heeft.

Hoe groot is het probleem?

Groter dan de meeste organisaties denken. Volgens onderzoek van BlackFog geeft 60% van de medewerkers aan bereid te zijn risico's te nemen met AI-tools om deadlines te halen. IBM rapporteert dat 20% van de organisaties in 2025 al te maken heeft gehad met beveiligingsincidenten gerelateerd aan shadow AI, met gemiddeld 670.000 dollar aan extra kosten per incident.

Het probleem is bovendien onzichtbaar op de balans. Shadow AI-kosten worden betaald met persoonlijke creditcards of zitten verstopt in bestaande budgetten. Volgens Zylo gebruikt meer dan een derde van de medewerkers gratis versies van AI-tools die geen enterprise-beveiliging bieden. De daadwerkelijke AI-uitgaven van een organisatie zijn vaak twee tot drie keer hoger dan wat IT rapporteert.

Shadow AI verdwijnt niet door het te negeren. Hoe langer je wacht met beleid, hoe groter het risico dat bedrijfsdata al op plekken staat waar je het niet wilt.

Van verbieden naar beheersen

De reflexreactie is vaak een verbod: "AI-tools zijn niet toegestaan." Dat werkt niet. Medewerkers die productiever zijn met AI gaan het toch gebruiken — alleen nu nog meer verborgen. Gartner voorspelt dat tegen 2030 meer dan 40% van de bedrijven te maken krijgt met beveiligings- of compliance-incidenten door shadow AI. Een verbod drijft het probleem ondergronds in plaats van het op te lossen.

De effectieve aanpak is het tegenovergestelde: erken dat AI waarde toevoegt, en bied een veilig alternatief.

  • Geautoriseerde tools — Bied goedgekeurde AI-tools aan met een verwerkersovereenkomst, EU-dataopslag en opt-out voor training. Denk aan zakelijke ChatGPT- of Claude-abonnementen, of API-integraties in je eigen software.
  • Duidelijke richtlijnen — Definieer wat medewerkers wel en niet in een AI-tool mogen invoeren. Klantdata? Nee. Een brainstorm over een marketingcampagne? Ja.
  • API-integraties — Bouw AI-functionaliteit in je eigen systemen zodat medewerkers niet naar externe tools hoeven uit te wijken. Data blijft binnen je eigen infrastructuur.

Praktisch AI-beleid in vier stappen

1. Inventariseer

Breng in kaart welke AI-tools in je organisatie worden gebruikt. Niet als controle, maar als nulmeting. Maak het bespreekbaar: vraag teams welke tools ze gebruiken en waarom. Je zult verrast zijn door de creativiteit.

2. Classificeer

Niet alle AI-gebruik is even risicovol. Maak onderscheid tussen categorieën:

  • Laag risico — Brainstormen, vertalingen, tekstsuggesties zonder bedrijfsdata
  • Gemiddeld risico — Analyses op geanonimiseerde data, interne samenvattingen
  • Hoog risico — Persoonsgegevens, financiële data, strategische informatie, juridische documenten

3. Bied alternatieven

Voor elke categorie een passende oplossing. Laag risico kan via goedgekeurde chattools. Gemiddeld en hoog risico vraagt om API-integraties binnen je eigen infrastructuur, waar data niet naar externe partijen wordt gestuurd.

4. Monitor en evalueer

AI-beleid is geen eenmalig document. Evalueer periodiek welke tools worden gebruikt, of het beleid wordt nageleefd en of er nieuwe risico's zijn ontstaan. Volgens ISACA heeft slechts 37% van de organisaties een AI-governance beleid — wat betekent dat de meerderheid kwetsbaar is. Betrek zowel IT als de business bij deze evaluatie.

Conclusie

Shadow AI is geen probleem dat je oplost met een verbod. Het is een signaal dat medewerkers behoefte hebben aan AI-tooling die de organisatie nog niet biedt. De organisaties die het snelst handelen — door beleid op te stellen, goedgekeurde tools aan te bieden en AI veilig te integreren in hun processen — profiteren het meest. Veilig én productief.

Wil je weten hoe je shadow AI in jouw organisatie aanpakt? We helpen bij het opstellen van AI-beleid en het bouwen van veilige AI-integraties binnen je bestaande software.

Veelgestelde vragen

Shadow AI is het gebruik van AI-tools zoals ChatGPT, Copilot of Gemini door medewerkers zonder medeweten of goedkeuring van de IT-afdeling. Het is de AI-variant van shadow IT: technologie die buiten het zicht van de organisatie wordt ingezet.
Niet per se. Medewerkers die AI inzetten zijn vaak productiever. Het probleem ontstaat wanneer bedrijfsdata in externe AI-tools terechtkomt, er geen afspraken zijn over betrouwbaarheid van de output en de organisatie geen zicht heeft op welke tools worden gebruikt.
Door het bespreekbaar te maken, niet door te controleren. Voer een anonieme inventarisatie uit, vraag teams welke tools ze gebruiken en waarom. Daarnaast kun je op netwerkniveau zien welke AI-diensten worden benaderd, maar het gesprek is effectiever dan monitoring.
Gerelateerde expertise AI Integratie
Bekijk

Hulp nodig?

Vragen over dit onderwerp? Laten we het erover hebben.

Neem contact op