Exploits de contrats intelligents par l’IA : un expert avertit que les agents pourraient provoquer des pertes annuelles de 10 à 20 milliards de dollars dans le secteur DeFi

Une étude récente menée par MATS et les boursiers d’Anthropic confirme que les agents d’IA peuvent exploiter de manière rentable des vulnérabilités de smart contracts, établissant ainsi une « borne inférieure concrète » pour les préjudices économiques.

Nouvelles méthodes d’exploitation et réduction alarmante des coûts

L’accélération de l’automatisation des tâches humaines par les agents d’Intelligence Artificielle (IA) se heurte désormais à un inconvénient significatif et quantifiable : ces agents peuvent exploiter de manière rentable des vulnérabilités dans les smart contracts. Une étude récente menée par MATS et les boursiers d’Anthropic a utilisé le benchmark Smart CONtracts Exploitation (SCONE-bench) pour mesurer ce risque.

L’étude a déployé avec succès des modèles tels que Claude Opus 4.5, Claude Sonnet 4.5 et GPT-5 pour développer des exploits simulés d’une valeur de 4,6 millions de dollars. Le SCONE-bench se compose de 405 smart contracts ayant été effectivement exploités entre 2020 et 2025. Dans leur rapport du 1er décembre, l’équipe indique que le succès des agents d’IA dans le développement d’exploits testés sur le simulateur blockchain établit « une borne inférieure concrète pour le préjudice économique que ces capacités pourraient engendrer ».

Les chercheurs sont allés plus loin en testant Sonnet 4.5 et GPT-5 sur 2 849 contrats récemment déployés sans vulnérabilités connues. Les agents ont prouvé qu’ils pouvaient générer des exploits rentables même dans cet environnement inédit : les deux agents ont découvert deux nouvelles vulnérabilités zero-day et produit des exploits d’une valeur de 3 694 $. GPT-5 a accompli cela avec un coût API de seulement 3 476 $.

À lire aussi : De la DeFi à Defcon : TRM alerte sur l’offensive cybernétique des États-nations

Ce résultat constitue une preuve de faisabilité technique de l’exploitation autonome rentable dans le monde réel, soulignant l’urgence de mettre en place des mécanismes de défense proactifs pilotés par l’IA.

La découverte la plus alarmante est sans doute l’augmentation spectaculaire de l’efficacité : un attaquant peut désormais réaliser environ 3,4 fois plus d’exploits réussis avec le même budget de calcul qu’il y a six mois. De plus, le coût en tokens pour les exploits réussis a chuté de 70 %, rendant ces agents puissants nettement moins coûteux à utiliser.

Rôle des boucles agentiques et amélioration des modèles

Jean Rausis, cofondateur de SMARDEX, attribue principalement cette forte baisse des coûts aux boucles agentiques. Celles-ci permettent des workflows multi-étapes auto-corrigeants qui réduisent le gaspillage de tokens lors de l’analyse des contrats. Rausis souligne également le rôle de l’amélioration de l’architecture des modèles :

« Les fenêtres de contexte élargies et les outils de mémoire dans des modèles comme Claude Opus 4.5 et GPT-5 permettent des simulations soutenues sans répétition, augmentant l’efficacité de 15 à 100 % sur les tâches longues. »

Il note que ces gains d’optimisation dépassent l’amélioration brute de la détection des vulnérabilités (qui n’a fait passer le succès sur SCONE-bench que de 2 % à 51 %), car ils optimisent le temps d’exécution plutôt que la simple détection des failles.

Si l’étude établit un coût simulé de 4,6 millions de dollars, des experts craignent que le coût économique réel ne soit bien plus élevé. Rausis estime que les risques réels pourraient être 10 à 100 fois supérieurs, atteignant potentiellement $50 million à $500 million ou plus par exploit majeur. Il avertit qu’avec la montée en puissance de l’IA, l’exposition totale du secteur – en tenant compte des effets de levier non modélisés et des défaillances d’oracle – pourrait atteindre 10 à 20 milliards de dollars par an.

L’article de MATS et des boursiers d’Anthropic se conclut par un avertissement : si les smart contracts sont la première cible de cette vague d’attaques automatisées, les logiciels propriétaires seront probablement les prochains à mesure que les agents s’améliorent en rétro-ingénierie.

Fait crucial, l’article rappelle également que les mêmes agents d’IA peuvent être utilisés pour défendre et corriger les vulnérabilités. Pour atténuer la menace financière systémique des attaques DeFi facilement automatisées, Rausis propose un plan d’action en trois étapes pour les décideurs et régulateurs : supervision de l’IA, nouvelles normes d’audit et coordination internationale.

FAQ ❓

  • Qu’a révélé l’étude sur les agents d’IA ? Des modèles d’IA comme GPT‑5 et Claude ont exploité des smart contracts d’une valeur de 4,6 M$ en simulation.
  • Pourquoi ce risque s’accroît-il à l’échelle mondiale ? Le coût en tokens des exploits a chuté de 70 %, rendant les attaques moins chères et plus facilement extensibles à l’international.
  • L’impact financier pourrait-il dépasser la DeFi ? Les experts avertissent que les pertes réelles pourraient atteindre 50 M$–$500M par exploit, avec une exposition globale allant jusqu’à $20B par an.
  • Comment régulateurs et développeurs peuvent-ils réagir ? Les chercheurs préconisent une supervision de l’IA, des normes d’audit renforcées, et une coordination transfrontalière pour protéger les systèmes.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)