Cyberattaques dopées à l’IA : comment protéger les collaborateurs ?
L’essor de l’IA générative a profondément transformé la nature des cyber-menaces. Des attaques plus crédibles, personnalisées et automatisées ciblent aujourd’hui les collaborateurs, bien au-delà des services techniques. Phishing contextualisé, usurpation de voix, falsification de visuels… les scénarios malveillants s’ancrent désormais dans les usages quotidiens des outils professionnels.
Face à cela, plusieurs pistes concrètes émergent du terrain. Xavier Paquin, CEO de Kamaé, partage 5 manières de renforcer la capacité des équipes à réagir.
Aiguiser la capacité à détecter les signaux faibles générés par l’IA
Les messages frauduleux créés par des IA sont souvent exempts de fautes, imitent parfaitement les codes visuels et le ton hiérarchique. C’est précisément cette apparence « trop parfaite » qui doit alerter.
Les formations les plus efficaces sont celles qui confrontent les apprenants à des exemples réalistes, parfois ambigus, dans lesquels ils doivent exercer leur sens critique. Apprendre à déceler une anomalie de contexte, un ton trop neutre ou une logique floue devient essentiel.
Utiliser la mise en situation comme levier de mémorisation
La mémorisation des réflexes de cybersécurité passe par l’expérience. L’exposition à des scénarios crédibles (faux mails RH, demandes de virement, deepfakes vocaux ou visuels) permet de tester les réflexes dans un environnement sécurisé.
Les formations actives (jeux de rôle, simulations, exercices de groupe) facilitent l’ancrage mémoriel et révèlent les automatismes à corriger.
Encadrer les usages des outils d’IA générative en entreprise
L’utilisation croissante d’outils comme ChatGPT, Copilot ou Gemini par les équipes soulève de nouveaux enjeux. La plupart des collaborateurs n’ont pas conscience des risques induits par un prompt mal formulé ou par la copie d’informations sensibles dans un outil tiers.
Poser un cadre clair d’usage et former les utilisateurs à sécuriser leurs pratiques constituent un premier rempart. Loin d’interdire, il s’agit ici de permettre un usage éclairé.
Renforcer la diffusion de bonnes pratiques via des relais internes
Dans de nombreuses organisations, la cybersécurité reste perçue comme une affaire technique, réservée à la Direction des Systèmes d’Information (DSI). Or, l’adoption réelle des bons réflexes repose sur la capacité à parler le langage de chaque métier.
Former des collaborateurs volontaires et issus de différents services à devenir référents ou ambassadeurs « cyber » permet une circulation fluide de l’information, des rappels réguliers contextualisés et un ancrage durable.
Favoriser une culture de l’alerte et de la vigilance bienveillante
Beaucoup d’incidents ne sont pas signalés par crainte de sanction ou de jugement. Or, dans le cas d’attaques générées par IA, la vitesse de propagation est un facteur critique. Une culture interne ouverte, qui valorise le doute, le droit à l’erreur et la remontée d’incident, s’avère plus efficace qu’une approche strictement descendante.
Cela suppose aussi des formats pédagogiques (quiz, auto-évaluations anonymes, baromètres de vigilance) qui ne renforcent pas la culpabilité, mais encouragent la progression.
« Les cyber-menaces dopées à l’IA ne relèvent pas de la science-fiction. Elles sont déjà là, actives, invisibles et redoutablement convaincantes. Face à elles, la meilleure protection reste humaine : l’intelligence collective, les réflexes forgés par l’expérience, la capacité à poser les bonnes questions au bon moment. Former les équipes de manière ludique, immersive et pragmatique n’est plus une option, c’est un enjeu de résilience », précise Xavier Paquin, CEO de Kamae.