Blog / Shadow AI : le risque silencieux que vos équipes cachent à la DSI
Stratégie

Shadow AI : le risque silencieux que vos équipes cachent à la DSI

60 % des salariés utilisent des outils IA non approuvés au bureau. Comprendre le Shadow AI, ses risques réels (RGPD, fuite de données, conformité) et comment y répondre sans bloquer l'innovation.

Better People Better People
· 10 janvier 2025 · 9 min de lecture

Le Shadow AI est le nouvel angle mort des DSI. À l’image du Shadow IT des années 2010 (Dropbox, WhatsApp, Google Docs utilisés sans validation IT), les collaborateurs adoptent massivement des outils d’IA sans passer par les canaux officiels. La différence avec le Shadow IT classique ? Les implications sont bien plus graves : les données saisies dans un chatbot IA grand public peuvent alimenter l’entraînement de modèles, violer le secret professionnel, ou exposer des informations confidentielles.


L’ampleur du phénomène en chiffres

Plusieurs études menées entre 2024 et 2025 dressent un tableau préoccupant :

  • 60 à 75 % des salariés de bureau utilisent des outils IA non approuvés par leur employeur (Microsoft Work Trend Index, 2024)
  • 40 % n’informent jamais leur manager de cet usage (Salesforce AI Adoption Report, 2024)
  • 1 salarié sur 3 a déjà copié-collé des données clients ou des informations confidentielles dans un outil IA public
  • Les secteurs les plus touchés : conseil (78 %), finance (72 %), RH (68 %), juridique (65 %)

La réalité terrain : dans une ETI de 500 personnes, il n’est pas rare de trouver 20 à 30 outils IA différents utilisés de façon non déclarée — ChatGPT, Claude.ai, Perplexity, Midjourney, ElevenLabs, Notion AI, Grammarly, etc.


Pourquoi vos équipes contournent les règles

Comprendre le Shadow AI, c’est d’abord comprendre pourquoi il émerge. Quatre facteurs principaux :

1. Le fossé de productivité est réel

Un commercial qui rédige des propositions commerciales avec ChatGPT gagne 2 à 3 heures par semaine. Si l’entreprise ne lui fournit pas d’alternative, il choisira entre perdre ces 3 heures ou utiliser l’outil non approuvé. Le choix est évident.

2. Les processus de validation IT sont trop lents

Demander l’approbation d’un nouveau logiciel peut prendre 3 à 6 mois dans une grande entreprise. À cette vitesse, l’outil est déjà obsolète quand il est approuvé.

3. Le manque de formation crée un sentiment de débrouillardise

Quand la direction déploie Microsoft Copilot mais ne forme pas les équipes, celles-ci se tournent vers des outils qu’elles savent utiliser — souvent ceux qu’elles ont découverts dans leur vie personnelle.

4. La culture du “ne pas dire” persiste

Dans certaines organisations, avouer qu’on utilise l’IA est perçu comme reconnaître qu’on “triche” ou qu’on est “remplaçable”. Le Shadow AI prospère dans le silence.


Les risques réels : ce qui peut vraiment arriver

Risque RGPD et fuite de données

Lorsqu’un collaborateur copie une liste de clients avec emails et données personnelles dans ChatGPT pour demander une segmentation marketing, deux violations potentielles se produisent simultanément :

  1. Transfert de données hors UE sans base légale valide (OpenAI a ses serveurs aux États-Unis)
  2. Violation de la minimisation des données : les données traitées dépassent ce qui est nécessaire

Sanction potentielle CNIL : jusqu’à 4 % du CA mondial ou 20 millions d’euros.

Risque de propriété intellectuelle

Si un développeur soumet du code propriétaire dans GitHub Copilot ou Claude pour obtenir de l’aide, ce code peut potentiellement alimenter des modèles futurs selon les conditions d’utilisation en vigueur. La propriété intellectuelle de l’entreprise est exposée.

Risque de secret professionnel

Dans les secteurs réglementés (droit, finance, santé), partager des informations confidentielles avec un outil IA public peut constituer une violation du secret professionnel, avec des conséquences disciplinaires ou pénales.

Risque de qualité et de fiabilité

Sans supervision, des collaborateurs peuvent prendre des décisions basées sur des sorties d’IA non vérifiées. Les hallucinations des LLMs peuvent entraîner des erreurs coûteuses — données financières incorrectes, conseils juridiques erronés, etc.


Le bon cadre de réponse : ni l’interdiction, ni le laisser-faire

L’erreur classique des DSI est de choisir entre deux mauvaises options :

L’interdiction totale : inefficace (contournée), génère de la frustration, et prive l’entreprise d’un avantage compétitif réel.

Le laisser-faire : expose l’entreprise à des risques légaux, de sécurité et de conformité non maîtrisés.

La voie du milieu : l’IA governance framework


Construire un cadre de gouvernance IA pratique

Étape 1 : Cartographier l’existant (sans punir)

Menez une enquête anonyme pour comprendre quels outils sont utilisés, pour quelles tâches, et par qui. L’objectif n’est pas de sanctionner mais de comprendre les besoins réels.

Étape 2 : Créer une liste blanche d’outils approuvés

Évaluez et approuvez rapidement les outils les plus utilisés. Définissez des critères clairs : conformité RGPD, localisation des données, conditions d’entraînement, niveau de sécurité.

Liste blanche typique pour une ETI française :

  • ✅ Microsoft Copilot (données dans Azure EU)
  • ✅ Claude for Work / Claude Teams (données non utilisées pour l’entraînement)
  • ✅ GitHub Copilot Business (politique entreprise activée)
  • ✅ Mistral Le Chat Enterprise (hébergement EU possible)
  • ⚠️ ChatGPT Free / Claude.ai gratuit (à proscrire pour données sensibles)

Étape 3 : Publier une politique d’utilisation IA claire

Un document d’une page, compréhensible par tous, répondant à : “Puis-je utiliser X pour faire Y ?” Évitez le jargon juridique — optez pour des exemples concrets.

Structure recommandée :

  • Ce que vous POUVEZ faire avec l’IA approuvée
  • Ce que vous NE DEVEZ PAS mettre dans un outil IA (liste de données sensibles)
  • Comment signaler un incident
  • À qui s’adresser si vous avez un doute

Étape 4 : Former, pas juste informer

Une politique sans formation est inefficace. Les collaborateurs doivent comprendre pourquoi ces règles existent — pas seulement quelles sont les règles.

Étape 5 : Mettre en place un shadow AI monitoring

Des outils comme Microsoft Defender for Cloud Apps, Zscaler ou Netskope permettent de détecter l’usage d’outils SaaS non approuvés, y compris les outils IA. Ce monitoring doit être transparent et déclaré aux représentants du personnel (obligation légale en France).


Le Shadow AI et l’AI Act

À partir d’août 2026, l’Article 4 de l’AI Act impose aux organisations de s’assurer que les personnes responsables d’opérer des systèmes IA disposent d’une alphabétisation IA suffisante. Un collaborateur utilisant des outils IA non formalisés est une zone grise de conformité.

Plus important encore : si un outil IA utilisé en Shadow AI cause un préjudice (décision discriminatoire, fuite de données, erreur médicale), la responsabilité de l’entreprise peut être engagée — même si l’usage n’était pas autorisé.


Questions fréquentes

Peut-on techniquement bloquer l’accès à ChatGPT au bureau ? Techniquement oui, via le proxy ou le filtrage DNS. Pratiquement, c’est facilement contournable (4G du téléphone). Et cela envoie un signal négatif aux équipes. Mieux vaut fournir une alternative satisfaisante.

Faut-il déclarer le monitoring du Shadow AI au CSE ? Oui. En France, tout système de surveillance des outils utilisés par les salariés doit faire l’objet d’une information/consultation du CSE et d’une mention dans le registre des traitements RGPD.

Quelle différence entre Shadow AI et BYOD AI ? Le BYOD AI désigne l’utilisation d’outils personnels (abonnements ChatGPT payants personnels, par exemple) sur du matériel professionnel. C’est une sous-catégorie du Shadow AI avec des implications légales potentiellement plus complexes (qui est propriétaire des outputs ?).


Conclusion

Le Shadow AI n’est pas un problème technologique — c’est un problème de gouvernance et de culture. Les entreprises qui s’en sortent le mieux ne sont pas celles qui ont les meilleurs pare-feux, mais celles qui ont su créer un environnement où les collaborateurs utilisent l’IA de façon productive, sécurisée, et sans avoir à se cacher.

BetterPeople accompagne les organisations dans la construction de leur politique IA et la formation des équipes à un usage responsable. De la cartographie initiale à la formation en alphabétisation IA (AI Act Art. 4), nous couvrons l’ensemble du spectre. Contactez-nous pour un audit gratuit.

#shadow AI #gouvernance IA #sécurité #RGPD #DSI #gestion des risques

Prêt à transformer votre organisation avec l'IA ?

Réservez un diagnostic gratuit de 30 minutes avec notre équipe.

Réserver un RDV