Les chats intelligents se sont invités au bureau. Dans de nombreux cas, c’est pour le meilleur, mais gare au pire. Les capacités époustouflantes de ChatGPT et consorts sont des machines à gagner du temps. Mais ces outils d’IA cachent aussi des risques nouveaux et potentiellement critiques pour les PME, notamment sur le plan de la cybersécurité. Panorama…
Quand on parle des outils d’IA générative, comme ChatGPT, de nombreux dangers remontent à la surface: perte d’autonomie intellectuelle, désinformation, renforcement des biais, opacité des algorithmes ou destruction d’emplois. Dans l’angle mort de ces débats, leur usage dans un environnement professionnel, généralement sans l’accord de la hiérarchie et encore moins souvent de forme encadrée. Or, cette utilisation «fantôme» fait peser des risques multiples sur les PME.
1. Le shadowGPT hante votre cybersécurité
L’affaire a fait grand bruit: malgré leurs bonnes intentions, des employés de Samsung ont saisi du code source et des contenus de réunions confidentielles dans ChatGPT, et mis en danger les secrets du géant. Un cas isolé? Certainement pas, ces pratiques sont devenues le pain quotidien. Plans stratégiques, données clients, informations financières, règles internes, tout passe dans la machine et reste «à jamais» dans les entrailles des algorithmes. Ces fuites «volontaires» de données potentiellement sensibles sont un fléau d’un nouveau genre, qui échappent au contrôle des dirigeants et exigent une attention maximale.
2. Les plateformes IA sont des passoires techniques
Là encore, il suffit d’ouvrir les journaux pour constater que les chatbots souffrent de bugs réguliers, qui exposent les données de millions d’utilisateurs. Ces failles révèlent la fragilité des plateformes et, en cascade, la vulnérabilité des entreprises. Comme avec la panne qui a frappé Microsoft, un seul incident «extérieur» peut compromettre la confiance des clients, partenaires, etc. Sans parler du risque de cyberattaques… Dans tous ces cas, quand une PME perd le contrôle sur ses outils, elle s’expose au pire!
3. Le piège éthique et juridique
Un listing de clients, des informations de facturation ou du contenu confidentiel rentré dans ChatGPT, Meta AI ou Grok, c’est loin d’être un acte anodin. Au sens du RGPD, cela peut poser des questions éthiques, mais aussi des problèmes de sécurité, de consentement, de collecte ou de traitement des données. Or, les entreprises portent une responsabilité juridique et sont tenues d’être transparentes en la matière; mais comment l’être si les collaborateurs agissent hors de tout cadre?
4. La propriété intellectuelle en péril
Une fois que ChatGPT, Claude ou GitHub Copilot se saisit des données, elles sont «mémorisées» et peuvent ressurgir dans les réponses fournies à d’autres utilisateurs. Ces outils ont même le pouvoir de référencer les conversations «utiles», peut-être les vôtres, sur Google. Or, si certains secrets d’innovation sont bien gardés face aux risques traditionnels, nombre de personnes ne voient pas encore le «danger» de les communiquer à leur chatbot préféré. Pourtant, le risque de dilution ou de divulgation de la propriété intellectuelle est réel!
Des solutions à portée des PME
L’IA générative transforme la productivité, mais expose les PME à des risques de sécurité inédits et encore sous-estimés. L’urgence? Encadrer les usages, notamment via la formation du personnel, la création de guidelines ou le recours à des outils de contrôle adaptés. L’IA générative n’est pas l’ennemi, mais elle exige de nouvelles mesures.