Que retenir de la première Cyberattaque massive pilotée par une intelligence artificielle
Anthropic est une des start-up les plus en vue dans le monde de l’IA. Fondée par des anciens d’OpenAI en 2021, elle a levé 13 milliards pour développer Claude, une IA extremement performante et largement utilisée de part le monde, dont le nom vient du célèbre mathématicien américain Claude Shannon. Le 14 novembre 2025, la société a publié un article important détaillant la façon dont un groupe de pirates, très probablement chinois, ont utilisé leur célèbre solution LLM pour mener une attaque massive, mondiale et automatisée. Nous détaillions dans un article de mi-2025 comment l’IA était déjà utilisée comme outil quotidien par les cyberassaillants. C’est désormais le cas sur des offensives à grande échelle, préparons-nous.
Les faits
- En septembre 2025, Anthropic a détecté une opération de cyberespionnage sophistiquée utilisant Claude, menée par un groupe probablement parrainé par un État, désigné GTG‑1002, et basé en Chine.
- L’opération visait environ 30 entités (entreprises technologiques majeures, institutions gouvernementales et financières, fabricants chimiques, etc.) et quelques unes d’entre elles auraient été effectivement compromises.
- Ce qui rend la cyberattaque particulièrement notable : l’usage d’un système d’IA (notamment le modèle Claude Code) pour piloter l’attaque à grande échelle, avec 80 à 90 % des actions exécutées directement par l’IA et non par des humains.
Mode opératoire et étapes de l’attaque : l’IA utilisée de façon autonome
Le rapport décrit une architecture et un cycle d’attaque en plusieurs phases, où l’IA est de plus en plus autonome à chaque étape.
- Initialisation de la campagne et sélection des cibles
- Reconnaissance & cartographie de la surface d’attaque
- Découverte et validation de vulnérabilités
- Collecte de crédentiels & mouvement latéral
- Collecte et extraction de données
- GTG‑1002 n’a pas utilisé le développement de malware sophistiqué : l’opération s’appuyait sur des outils classiques open-source de pentesting (scanners, frameworks d’exploit, etc.) mais orchestrés par l’IA.
- Cela suggère que la barrière à l’entrée pour des attaques sophistiquées est désormais beaucoup plus basse lorsqu’on combine automation, IA et orchestration, et fait craindre à l’avenir de nouvelles attaques bien plus puissantes sur le même principe.
- Une limite : Claude fait des erreurs, comme toutes les IA, et orienté vers des accès ou des résultats qui se sont avérés incorrects (par exemple des identifiants invalides, des découvertes déjà publiques)
Comment a réagi Anthropic ?
- Dès la détection, Anthropic détaille dans son rapport comment ils ont bloqué les comptes identifiés, informé les entités impactées, et comment ils se sont coordonnés avec les autorités et leurs partenaires technologiques.
- Anthropic annonce également avoir renforcé leurs capacités de détection (nouveaux classificateurs orientés cyber), prototypé des systèmes pour détecter les attaques autonomes, et intégré ce modèle comportemental dans leurs nouveaux contrôles de sécurité.
Conclusions et implications pour la cybersécurité & l’IA
- Cette campagne marque un tournant : l’IA n’est plus seulement un outil d’assistance pour les cyberassaillants, mais joue désormais un rôle de maitre d’oeuvre dans des intrusions ciblées.
- Les équipes de sécurité doivent donc anticiper que des acteurs relativement peu dotés en ressources peuvent désormais orchestrer des attaques de grande ampleur grâce à l’IA. Ce n’est que le début car des outils bien plus sophistiqués seront utilisés à l’avenir.
- Anthropic pointe le fait qu’il devient désormais essentiel que la communauté cybersécurité exploite elle-même l’IA pour la cyberdéfense (automatisation SOC, détection, réponse aux incidents) et que des efforts continuent pour encadrer les usages de l’IA, prévenir les abus, et bien entendu partager les renseignements concernant les cyberattaques.
- Ce partage de renseignement est rendu obligatoire pour certaines entités, notamment dans la finance, via le reglement européen DORA depuis début 2025. Le reflexe de rendre compte à l’ANSSI des incidents de sécurité est désormais bien ancré. Mais la grande vitesse d’execution des cyberattaques pilotées par l’IA va désormais obliger tous les acteurs à automatiser ce partage car la réactivité ne suffira plus face aux attaques automatisées.
Sources :
Rapport Anthropic : https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf
Incident Database : https://incidentdatabase.ai/cite/1263