In het tijdperk van generatieve AI ontwikkelt Shadow AI zich overal en brengt het bedrijven grote risico’s met zich mee. Hier vindt u de laatste informatie over dit onderwerp.
De term “Shadow AI” verwijst naar het gebruik van ChatGPT of andere generatieve AI-tools in een professionele context zonder voorafgaande goedkeuring van de hiërarchie. In 2023 deed al 30% van de werknemers dit. Vandaag treft deze praktijk 68% van de Franse bedrijven volgens een recent onderzoek. Dit brengt ernstige beveiligingsproblemen met zich mee: door deze tools te gebruiken geven werknemers onbedoeld mogelijk gevoelige gegevens door aan derden.
Contacteer marktonderzoeksbureau IntoTheMinds
Belangrijkste punten in 30 seconden
- Shadow AI is het ongeoorloofd gebruik van kunstmatige intelligentie-tools door werknemers
- 68% van de Franse werknemers gebruikt AI-oplossingen zonder hun leidinggevende te informeren of voorafgaande goedkeuring te vragen
- Risico’s zijn onder meer datalekken, niet-naleving van de GDPR en blootstelling aan cyberdreigingen
- 71% van de Fransen kent generatieve AI’s zoals ChatGPT van OpenAI en Bing van Microsoft
- 44% van de respondenten gebruikt deze AI’s zowel privé als professioneel
- 50% van de Amerikaanse bedrijven zegt hun interne reglement te actualiseren om het gebruik van ChatGPT te reguleren en een einde te maken aan Shadow GPT
- 70% van de ondervraagden in een ander Microsoft-onderzoek zegt graag repetitieve taken aan AI te delegeren
- 45% van de 18- tot 24-jarigen zegt AI te gebruiken, tegenover slechts 18% van de personen ouder dan 35 jaar
- 72% van de Fransen vindt dat ze onvoldoende kennis hebben om generatieve AI’s te gebruiken
Wat is Shadow AI precies?
Shadow AI (of “spook-AI”) is de natuurlijke evolutie van de Shadow IT die we al jaren kennen. Concreet gaat het om het gebruik van kunstmatige intelligentie-tools en -applicaties door werknemers zonder goedkeuring of toezicht van de IT-afdeling van het bedrijf.
Deze praktijk neemt verschillende vormen aan binnen organisaties. Een verkoper die ChatGPT gebruikt om commerciële voorstellen te schrijven, een HR-manager die een tekstgenerator inzet om vacatures op te stellen, of een analist die niet-gevalideerde machine-learningmodellen gebruikt om gevoelige gegevens te verwerken – al deze voorbeelden illustreren dit groeiende fenomeen perfect.
Het fundamentele verschil met legitieme AI ligt in de toestemming en controle. Officiële oplossingen worden geïntegreerd in het veiligheids- en compliancebeleid van het bedrijf, terwijl Shadow AI volledig aan dit toezicht ontsnapt. Dit gebrek aan kader stelt de organisatie bloot aan aanzienlijke risico’s, met name op het vlak van gegevensbescherming en wettelijke naleving.
De cijfers spreken voor zich: volgens het INRIA-Datacraft-onderzoek van 2024 gebruikt bijna 7 op de 10 Franse werknemers generatieve AI-tools in hun professionele omgeving zonder hun hiërarchie te informeren. Een cijfer dat de omvang van de uitdaging voor bedrijven duidelijk maakt.
De verborgen risico’s achter dit ongecontroleerde gebruik
Shadow AI stelt bedrijven bloot aan een veelheid van gevaren die serieus genomen moeten worden. Het eerste grote risico is blootstelling aan cyberdreigingen. Generatieve AI-modellen zoals GPT of DALL-E kunnen kwetsbaar zijn voor data-poisoning-aanvallen of kwaadaardige prompt-injecties. Cybercriminelen maken misbruik van deze zwaktes om resultaten te manipuleren en de beveiliging van systemen in gevaar te brengen.
Vervolgens zijn er datalekken. Wanneer werknemers gevoelige informatie doorsturen via onbeveiligde platforms om AI-modellen te trainen of te bevragen, brengen ze mogelijk vertrouwelijke gegevens in gevaar. We hebben de risico’s van ChatGPT al aangehaald. Maar Statoil liep al in 2017 tegen de lamp met DeepL (dat uw gegevens gebruikt om zijn algoritmes te trainen – zie onderaan), en in 2023 was het Samsung dat door ChatGPT werd gepakt. Medewerkers gebruikten ChatGPT drie keer en gaven daarbij per ongeluk strikt vertrouwelijke gegevens door aan OpenAI, waaronder de broncode van hun elektronische chips.
Het derde gevaar is de reproductie van bias. Generatieve AI kan onbedoeld bestaande vooroordelen versterken als de trainingsdata bevooroordeeld zijn. Dit probleem wordt bijzonder kritiek in gevoelige sectoren zoals financiën, human resources of justitie, waar geautomatiseerde beslissingen grote gevolgen kunnen hebben voor individuen. Ook hier niets nieuws: deze trainingsbias-vraagstukken staan al jaren centraal bij ontwikkelaars van aanbevelingsalgoritmes.
Tot slot vormt niet-naleving van de regelgeving een aanzienlijk financieel risico. Ongecontroleerd gebruik van AI-tools kan leiden tot schendingen van de GDPR of andere gegevensbeschermingsnormen. Boetes kunnen oplopen tot 20 miljoen euro of 4% van de wereldwijde jaaromzet van het bedrijf. Dat kan een dure rekening worden!
Hoe dit risico omzetten in een kans?
In plaats van de politieagent uit te hangen, doen bedrijven er beter aan een constructieve aanpak te kiezen om Shadow AI te reguleren. De eerste stap is duidelijke governancestructuren opstellen: een ethisch charter opstellen om het gebruik van AI te sturen en speciale verantwoordelijken aanstellen, zoals Chief AI Officers (CAIO), die de naleving van de regelgeving bewaken.
De gegevensbeveiliging moet ook worden versterkt. CIO’s en CISO’s moeten ervoor zorgen dat de gebruikte platforms voldoen aan de strengste normen op het gebied van versleuteling en gegevensopslag. De ideale oplossing? Voorkeur geven aan hybride of on-premise cloudoplossingen en beveiligde AI-platforms aanbieden voor het automatiseren van routinetaken.
Het trainen van teams is een cruciale investering. Een grondig begrip van AI-technologieën en hun risico’s voorkomt verkeerde configuraties of onbedoelde blootstelling van gevoelige gegevens. Werknemers moeten de uitdagingen begrijpen om verantwoordelijke actoren van deze transformatie te worden.
Tot slot zijn regelmatige audits en evaluaties van systemen essentieel. Periodieke beveiligingscontroles maken het mogelijk potentiële kwetsbaarheden op te sporen en te corrigeren en zich aan te passen aan nieuwe dreigingen. Deze proactieve aanpak voorkomt veel ellende.
Ondanks de positieve vooruitzichten hebben de risico’s ertoe geleid dat sommige bedrijven het gebruik van ChatGPT volledig verbieden – te beginnen met Samsung (dat een interne tool uitrolt), maar ook JPMorgan Chase, Amazon, Verizon en Accenture. Het gemeenschappelijke kenmerk van al deze bedrijven is dat ze met grote hoeveelheden eigen data werken waaruit ze concurrentievoordeel halen. Het gebruik van ChatGPT – en in het algemeen van alle algoritmische tools die een gratis versie aanbieden – betekent het overdragen van gebruikersdata voor trainingsdoeleinden. Hoewel de ruil begrijpelijk is (gratis dienst in ruil voor data), zijn weinig gebruikers zich bewust van deze overdracht. In het geval van ChatGPT leidde het ontbreken van toestemming er zelfs toe dat de Italiaanse overheid ChatGPT van het grondgebied verbood. De beslissing was hard en plotseling, maar had het voordeel alle tekortkomingen van OpenAI aan het licht te brengen.
Statistieken en concrete voorbeelden van Shadow AI
Om de omvang van het fenomeen beter te begrijpen, hier enkele onthullende cijfers. Volgens het INRIA-Datacraft-onderzoek gebruikt 68% van de Franse werknemers AI-tools zonder hun leidinggevende te informeren. Dit percentage stijgt tot 75% bij kaderleden en bereikt 82% in de technologiesector.
De meest voorkomende toepassingen zijn contentcreatie (45% van de gevallen), data-analyse (32%), automatische vertaling (28%) en beeldgeneratie (18%). Deze cijfers tonen aan dat Shadow AI alle functies en beroepen binnen het bedrijf treft.
Wat risico’s betreft, incidenten zijn er in overvloed. In 2024 hebben verschillende bedrijven datalekken gemeld die verband houden met het ongecontroleerde gebruik van AI-tools. Een opvallend geval betrof een adviesbureau dat vertrouwelijke klantinformatie zag uitlekken nadat een consultant een publieke chatbot had gebruikt om gevoelige documenten te analyseren.
In de banksector ontdekte een financiële instelling dat haar analisten niet-gevalideerde machine-learningmodellen gebruikten om kredietrisico’s te beoordelen, waardoor de instelling werd blootgesteld aan mogelijk bevooroordeelde beslissingen en regelgevende sancties.
Beste praktijken om Shadow AI onder controle te krijgen
Tegenover deze uitdagingen blijken verschillende strategieën effectief. Eerst en vooral maakt een “sandbox”-aanpak het mogelijk dat werknemers experimenteren met AI-tools in een beveiligde, gecontroleerde omgeving. Deze methode voldoet aan hun behoefte aan innovatie terwijl de beveiliging van het bedrijf behouden blijft.
Het opstellen van een catalogus van goedgekeurde AI-tools is ook een uitstekende praktijk. Door veilige alternatieven aan te bieden voor publieke oplossingen leidt het bedrijf het gebruik naar gecontroleerde platforms. Dit gaat natuurlijk gepaard met een duidelijk gebruiksbeleid dat definieert wat wel en niet is toegestaan.
Het betrekken van de business bij AI-governance is cruciaal. In plaats van regels van bovenaf op te leggen, is het beter om beleid samen met de eindgebruikers op te stellen. Deze samenwerkingsaanpak bevordert draagvlak en begrip van de uitdagingen.
Tot slot maakt continue sensibilisering van teams het verschil. Regelmatige trainingssessies, het delen van ervaringen en het communiceren van beste praktijken helpen een echte AI-beveiligingscultuur binnen de organisatie te creëren.
De toekomst van Shadow AI: naar een gecontroleerde co-existentie
Shadow AI is geen voorbijgaande mode maar een blijvende realiteit in onze professionele omgeving. De uitdaging voor bedrijven bestaat er dus in deze beperking om te zetten in een kans voor gecontroleerde innovatie.
De meest geavanceerde organisaties ontwikkelen al hybride AI-strategieën die officiële oplossingen combineren met begeleide experimenten. Deze aanpak maakt gebruik van de wendbaarheid van Shadow AI terwijl een aanvaardbaar beveiligingsniveau behouden blijft.
Organisaties die generatieve AI omarmen hebben ook begrepen dat de generatiekloof overbrugd moet worden. De adoptie van AI hangt namelijk af van leeftijd: in 2024 gebruikte 45% van de 18- tot 24-jarigen het, tegenover slechts 18% van de 35-plussers. Het is dan ook niet verwonderlijk dat 72% van de Fransen vindt dat ze onvoldoende kennis hebben om deze technologieën te gebruiken.
Deze kloof moet bedrijven doen beseffen dat de risico’s niet gelijk verdeeld zijn over alle werknemers. Sommigen lopen meer risico dan anderen, en sensibiliseringsinspanningen zullen daarom gedifferentieerd moeten zijn naargelang het doelpubliek.
De regelgevende evolutie, met name de Europese AI Act, zal dit domein verder structureren. Bedrijven die deze veranderingen anticiperen, krijgen een voorsprong op hun concurrenten.
Uiteindelijk vraagt het beheersen van Shadow AI om een delicaat evenwicht tussen innovatie en beveiliging, tussen experimenteervrijheid en risicobeheersing. De bedrijven die deze overgang succesvol doorlopen, zullen diegene zijn die erin slagen hun werknemers om te vormen tot verantwoordelijke partners in deze digitale transformatie.
Veelgestelde vragen over Shadow AI
Hoe kan ik Shadow AI in mijn bedrijf opsporen?
Verschillende signalen kunnen u alarmeren. Houd ongewone facturatie op bedrijfskaarten in de gaten, analyseer het netwerkverkeer naar publieke AI-platforms en voer vooral anonieme interne enquêtes uit. Een eenvoudige enquête legt vaak de omvang van het verborgen gebruik bloot. Aarzel niet om een vertrouwensklimaat te creëren zodat uw werknemers zich zonder angst uitspreken.
Moet ik het gebruik van externe AI-tools volledig verbieden?
Een totaalverbod dreigt contraproductief te zijn. Uw teams zullen deze tools waarschijnlijk blijven gebruiken, maar nog discreter. Beter is een geleidelijke aanpak: begin met het identificeren van de toepassingen, beoordeel de risico’s en bied vervolgens veilige alternatieven aan. Het doel is begeleiden, niet straffen.
Wat zijn de sancties bij niet-naleving van de GDPR door Shadow AI?
De boetes kunnen bijzonder hoog zijn! De GDPR voorziet in sancties tot 20 miljoen euro of 4% van de wereldwijde jaaromzet. Maar denk ook aan de reputatieschade. Een datalek van klanten door Shadow AI kan het vertrouwen van uw partners en klanten blijvend schaden.
Hoe train ik mijn teams over de risico’s van Shadow AI?
De opleiding moet concreet en interactief zijn. Organiseer praktische workshops die de reële risico’s tonen, deel veilige gebruiksvoorbeelden en maak eenvoudige handleidingen. Het idee is duidelijk te maken dat AI-beveiliging geen rem is maar een versneller van verantwoorde innovatie. Train ook uw managers zodat zij effectieve relais worden. Experimenteren is essentieel om het nut te begrijpen, en zoals MIT-onderzoeker Ethan Mollick uitlegt, zijn minstens 4 uur werken met deze tools nodig om ze te beginnen begrijpen.
Bestaan er tools om het gebruik van AI in het bedrijf te monitoren?
Absoluut! Er komen verschillende oplossingen op de markt. U kunt netwerkmonitoringtools gebruiken om verbindingen met AI-platforms op te sporen, DLP-oplossingen (Data Loss Prevention) aangepast aan AI, of gespecialiseerde AI-governanceplatformen. Belangrijk is tools te kiezen die de privacy van uw werknemers respecteren en tegelijk de beveiliging van het bedrijf garanderen.







![Illustratie van onze post "Digitalisering: voedingsbedrijven lopen achter [Studie]"](https://5cc2b83c.delivery.rocketcdn.me/app/uploads/marche-alimentation-bio-long-120x90.jpg)




![Illustratie van onze post "Contentcreatie: welke toekomst met ChatGPT? [podcast]"](https://5cc2b83c.delivery.rocketcdn.me/app/uploads/prediction-future-banner-120x90.jpg)