Question de la semaine : Le shadow IA, un levier de performance ou un risque incontrôlé ?
La Presse — Depuis le lancement de ChatGpt, la première IA à avoir démocratisé les IA génératives, seniors, jeunes et moins jeunes y recourent en un simple clic pour obtenir instantanément des informations de natures diverses : médicales, juridiques, techniques ou technologiques.
De l’usage personnel à l’usage professionnel, l’IA générative s’est immiscée partout, investissant tous les domaines, y compris les environnements de travail.
Facile d’accès et d’une redoutable efficacité, elle est devenue l’alliée numéro un d’un nombre croissant d’employés. Rédaction d’e-mails, traduction, synthèse de documents, apprentissage, exécution de tâches répétitives, codage… multitâche, elle s’impose comme un assistant incontournable du quotidien. Sauf que ce recours massif peut poser de vrais problèmes dans le cadre professionnel, surtout quand il s’agit d’un usage non encadré, c’est-à-dire à l’insu des DSI (Directeur des systèmes informatiques).
C’est ce que les experts appellent le « Shadow AI », ou « IA fantôme », un terme désignant l’utilisation d’outils d’intelligence artificielle par les employés sans validation ni supervision du département informatique. Selon les spécialistes IT, l’alimentation de ces outils avec des données internes peut entraîner des fuites et exposer l’entreprise à de multiples menaces.
Certes, le Shadow AI répond souvent à des objectifs légitimes: amélioration de la productivité, accélération de l’innovation, automatisation des tâches. Il traduit un réflexe pragmatique des collaborateurs, dicté par des contraintes de temps et d’efficacité opérationnelle. Mais, à en croire les experts, les risques sont bien réels. L’absence de supervision peut favoriser les fuites de données et mettre en danger le business de l’entreprise, notamment si des informations sensibles sont partagées par inadvertance.
A cela s’ajoutent d’autres menaces : introduction de logiciels malveillants dans le système d’information, prise de décisions fondées sur des résultats non traçables, ou encore multiplication des erreurs. Le risque d’« hallucinations » (des informations erronées ou inventées générées par l’IA) demeure également préoccupant.
Le récent fiasco impliquant un cabinet d’expertise de renommée internationale, ayant produit pour le gouvernement australien un rapport truffé d’erreurs et de citations fictives, en est une illustration frappante. Il rappelle à quel point un usage non encadré de l’IA générative peut nuire à l’entreprise, faisant de cette technologie une véritable arme à double tranchant. Faut-il pour autant interdire son utilisation ?
Les experts sont unanimes : absolument pas. D’une part, une telle interdiction serait difficilement applicable. D’autre part, les usages persistent, parfois via des comptes personnels ou des appareils non contrôlés, comme l’a révélé une récente enquête menée en France. La gestion efficace du Shadow AI repose plutôt sur une approche combinant règles, visibilité, sécurité et formation.
Pour les DSI, il est essentiel de définir un cadre clair, en distinguant les outils autorisés de ceux qui ne le sont pas. Cette classification permet d’encadrer les usages tout en préservant un espace d’expérimentation sécurisé. La protection des données doit rester au cœur de cette stratégie. Instaurer une culture de transparence, où les collaborateurs déclarent les outils qu’ils utilisent au lieu de les dissimuler, constitue un levier clé.
Une meilleure visibilité sur les usages réels de l’IA permet ainsi de mieux anticiper et contenir les risques. Enfin, la formation continue apparaît indispensable. Adaptée aux métiers, pratique et régulière, elle doit démontrer qu’un usage responsable de l’IA peut à la fois renforcer la productivité et garantir la sécurité des systèmes d’information.



