Tous les articles

2026 : L'année des attaques assistées par l'IA

Patrick Smyth, ingénieur principal chargé des relations avec les développeurs

Le 4 décembre 2025, un jeune homme de 17 ans a été arrêté à Osaka en vertu de la loi japonaise sur l'interdiction de l'accès non autorisé. Le jeune homme avait exécuté un code malveillant pour extraire les données personnelles de plus de 7 millions d'utilisateurs de Kaikatsu Club, la plus grande chaîne de cybercafés du Japon. Interrogé, le jeune homme a expliqué les raisons de son piratage : il voulait acheter des cartes Pokémon.

D'une certaine manière, il s'agit d'une histoire assez classique. Depuis les années 1990, nous avons lu des articles sur des prodiges de l'informatique tels que Kevin Mitnick, dont les capacités techniques dépassaient leur jugement et qui ont été entraînés dans des cybercrimes très médiatisés à la recherche d'un statut, d'un profit ou d'une excitation. Mais cette histoire est différente : le jeune homme en question n'était pas un technicien.

L'essor des attaques assistées par l'IA

En 2025, les systèmes de chat et d'agents soutenus par les LLM ont franchi un seuil, passant d'assistants de codage utiles mais sujets aux erreurs à des puissances de codage de bout en bout. Tout au long de l'année, plusieurs mesures de la fréquence et de la gravité de la cybercriminalité ont approximativement doublé. Les cas de paquets malveillants découverts dans des dépôts publics ont augmenté de 75 %, les intrusions dans les nuages ont augmenté de 35 % et le phishing généré par l'IA a commencé à surpasser entièrement les équipes rouges humaines. Une différence plus qualitative, cependant, a été observée dans les profils des auteurs des attaques.

En février 2025, trois adolescents (âgés de 14, 15 et 16 ans) n'ayant aucune formation en codage ont utilisé ChatGPT pour construire un outil qui a frappé le système de Rakuten Mobile environ 220 000 fois, dépensant leurs gains sur des consoles de jeux et des jeux d'argent en ligne. En juillet 2025, un seul acteur utilisant Claude Code, une plateforme de codage agentique plus sophistiquée, a mené une campagne d'extorsion ciblant 17 organisations au cours d'un mois, utilisant l'IA agentique pour développer des codes malveillants, organiser les fichiers volés, analyser les dossiers financiers pour calibrer les demandes, et rédiger des courriels d'extorsion. En décembre 2025, un autre individu a utilisé Claude Code et ChatGPT pour pénétrer dans le gouvernement mexicain, ciblant plus de 10 agences et dérobant plus de 195 millions de dossiers de contribuables.

Si ces attaques étaient possibles avant 2025, nous assistons aujourd'hui à des attaques menées par un seul acteur, qui auraient été caractéristiques d'équipes organisées, et à des attaques à plus petite échelle menées par des individus non techniques, qui auraient été plus caractéristiques d'attaques menées par un pirate ou un ingénieur talentueux avant l'ère de l'IA. En 2025, la barrière à l'entrée pour mener une attaque techniquement sophistiquée a été considérablement abaissée.

Les mauvais chiffres augmentent

Tout au long de l'année 2025, les mesures de l'activité des robots, des logiciels malveillants, des compromissions ciblées et de l'hameçonnage ont connu des augmentations spectaculaires. Dans le même temps, les mesures de la capacité des LLM sur des critères de référence techniques ont fait un bond en avant.

En 2022, il y avait 55 000 paquets malveillants dans les dépôts publics, selon Sonatype. En 2025, ce nombre était passé à 454 600. Des bonds notables ont été enregistrés en 2023 (année de la publication du GPT-4) et en 2025 (année phare pour le codage agentique).

Une autre mesure pratique de la capacité des attaquants dans le monde réel, le temps d'exploitation, est presque méconnaissable par rapport à l'ère pré-AI. Le délai d'exploitation mesure le temps qui s'écoule entre le moment où une vulnérabilité est rendue publique et celui où une exploitation de cette vulnérabilité est découverte dans la nature.

Ce nombre est passé de plus de 700 jours en 2020 à seulement 44 jours en 2025. Cela signifie que les attaquants développent des exploits pour des vulnérabilités connues en moins de deux mois, plutôt qu'en près de deux ans. En fait, le rapport M-Trends 2026 de Mandiant a révélé que le délai d'exploitation est devenu négatif - les exploits arrivent désormais régulièrement avant les correctifs, 28,3 % des CVE étant exploités dans les 24 heures suivant leur divulgation.

Tout au long des années 2024, 2025 et début 2026, les performances des modèles pionniers tels que ChatGPT, Claude et Gemini sur des benchmarks tels que SWE-bench, un test de capacité de développement logiciel, sont montées en flèche. En août 2024, les meilleurs modèles pourront résoudre 33 % des problèmes GitHub réels sur le banc d'essai. En décembre 2025, ce chiffre était passé à près de 81 %.

À la fin de 2024 et surtout en 2025, le codage assisté par l'IA a atteint un point d'inflexion. La suralimentation du codage a toutefois également suralimenté les capacités offensives, et l'environnement en 2026 reflète ces changements, avec des attaques plus fréquentes, plus graves et avec un impact plus important.

La douleur ne peut pas s'estomper

L'IA accélère le rythme des défenseurs et des attaquants. Malheureusement, sur la base des données de 2025 et 2026, la course aux armements favorise les attaquants. Selon le rapport Edgescan 2025 Vulnerability Statistics Report, le délai moyen pour remédier à une vulnérabilité connue de niveau élevé ou critique est désormais de 74 jours. En outre, 45 % des vulnérabilités des systèmes gérés par les grandes entreprises (plus de 1 000 employés) ne sont jamais corrigées.

Les organisations ont également ressenti la pression exercée par l'augmentation des logiciels malveillants trouvés dans les dépôts de paquets publics. En septembre 2025, l'attaque Shai-Hulud visant l'écosystème npm a compromis plus de 500 paquets. Plus de 487 organisations ont vu leurs secrets compromis, et 8,5 millions de dollars ont été volés à Trust Wallet après que des attaquants aient utilisé des informations d'identification exposées pour empoisonner son extension Chrome. De nombreuses organisations ont gelé leur code à la suite de l'attaque.

Le problème de la détection ne fait qu'aggraver la situation. En 2025, des paquets npm malveillants se faisant passer pour des bibliothèques populaires telles que chalk et debug incluaient de la documentation, des tests unitaires et du code structuré pour apparaître comme des modules de télémétrie légitimes. L'analyse statique et les scanners de signatures les ont complètement manqués - parce que le code, probablement généré par l'intelligence artificielle, ressemblait à un vrai logiciel. Comme l'a fait remarquer Dan Lorenc, PDG de Chainguard, "la complexité et l'ampleur de la gestion des vulnérabilités ont dépassé les capacités de la plupart des organisations à les gérer elles-mêmes".

Supprimer des catégories d'attaques

La leçon de 2025 est qu'il est impossible d'échapper à ces attaques. La fenêtre d'exploitation se rétrécit plus rapidement que les cycles de correctifs ne peuvent se comprimer, et les logiciels malveillants générés par l'IA échappent aux outils de détection sur lesquels les organisations s'appuient depuis des dizaines d'années. Le diagramme de Venn entre "la volonté de commettre des attaques" et "la capacité technique de commettre des attaques" ne représentait qu'une infime partie, mais il s'agrandit de mois en mois. Dans le même temps, nous construisons plus de logiciels, plus rapidement. Et si les attaques contre la chaîne d'approvisionnement sont rapides en 2026, à quoi ressemblera 2027 avec des capacités de modèle augmentées à 10 ?

Dans l'environnement actuel, les équipes ne pourront pas aller plus loin en pensant en termes de vitesse et en déjouant les attaques. Il est plutôt judicieux de supprimer des catégories entières de vulnérabilité, ce qui permet aux équipes de se concentrer sur les domaines restants. C'est l'approche qui sous-tend Chainguard Libraries, qui reconstruit chaque bibliothèque open source à partir d'un code source vérifié et attribuable. L'idée derrière Libraries est de rendre des catégories entières d'attaques structurellement impossibles, en protégeant les utilisateurs contre la prise de contrôle CI/CD, la confusion des dépendances, le vol de jetons à longue durée de vie, ou les attaques de distribution de paquets. Lors des tests effectués sur 8 783 paquets npm malveillants, Libraries en a bloqué 99,7 %. Contre environ 3 000 paquets Python malveillants, il a bloqué environ 98 %.

454 600 paquets malveillants l'année dernière. 394 877 en un seul trimestre. Un amateur algérien a créé un ransomware qui a atteint 85 cibles au cours de son premier mois. Un jeune homme de 17 ans a exfiltré 7 millions d'enregistrements pour acheter des cartes Pokémon. Les outils qui ont permis ces attaques sont de moins en moins chers, de plus en plus rapides et de plus en plus accessibles. Au lieu de vous précipiter lorsque le prochain Axios ou Shai-Hulud arrivera la semaine ou le mois prochain, vous pourriez simplement en prendre connaissance en buvant votre café pendant que votre organisation alimente les systèmes de production, les gestionnaires d'artefacts et les postes de travail des développeurs à partir des bibliothèques Chainguard.

Share this article

Articles connexes

Vous souhaitez en savoir plus sur Chainguard?

Contactez-nous