L'audit AI entre dans la pratique, OpenAI publie EVMbench, renforçant l'évaluation de la sécurité des contrats intelligents

ETH0,11%
WELL-0,3%

OpenAI s’associe à Paradigm pour lancer EVMbench, une évaluation pratique des capacités de défense et d’attaque des agents IA dans les contrats EVM, révélant des faiblesses en défense face à une forte attaque.

Focus sur l’évaluation dans un contexte économique réel, OpenAI et Paradigm renforcent la notation de sécurité en chaîne

Le leader en intelligence artificielle, OpenAI, annonce une collaboration avec la société de capital-risque en cryptomonnaie Paradigm et la société de sécurité OtterSec pour lancer EVMbench, un outil de référence conçu pour évaluer la performance des agents IA (AI Agents) dans la sécurité des contrats intelligents sur la machine virtuelle Ethereum (EVM).

Avec l’intégration profonde de l’IA et des technologies cryptographiques, les contrats intelligents sont devenus l’infrastructure centrale pour gérer plus de 1000 milliards d’actifs cryptographiques open source. La sortie de cet outil marque le début d’une reconnaissance par l’industrie de la capacité pratique de l’IA dans un environnement « économiquement significatif ».

L’équipe d’OpenAI souligne qu’avec les progrès des agents IA dans la rédaction et la planification de code, ces modèles joueront un rôle transformateur dans les attaques et défenses blockchain à l’avenir. Il est donc crucial d’établir une architecture d’évaluation standardisée pour suivre leur évolution.

Trois modes d’évaluation approfondie, 120 vulnérabilités d’audit réelles comme pierre de touche pour l’IA

Le cœur de conception d’EVMbench repose sur 120 vulnérabilités à haut risque extraites de 40 rapports d’audit spécialisés, provenant notamment de compétitions d’audit publiques renommées comme Code4rena, garantissant que les scénarios de test reflètent la complexité du monde réel. Cet outil de référence évalue les agents IA selon trois modes de fonctionnement différents :

Source : OpenAI La conception centrale d’EVMbench consiste à évaluer l’agent IA dans trois modes de fonctionnement différents

  • Le premier est le « mode détection (Detect) », où l’IA doit auditer le code des contrats et identifier les vulnérabilités connues, en leur attribuant une note selon leur gravité ;
  • Le second est le « mode correction (Patch) », où l’IA doit supprimer les vulnérabilités exploitables tout en conservant la fonctionnalité d’origine, puis réparer le code ;
  • Enfin, le mode « exploitation (Exploit) » très controversé, où l’IA doit exécuter une attaque complète de vol de fonds dans un environnement blockchain sandboxé.

Pour garantir la rigueur et la reproductibilité des tests, l’équipe a développé une architecture de test basée sur le langage Rust, utilisant une technique de replay transaction déterministe pour vérifier si l’attaque ou la correction de l’IA ont réussi.

Tendance à l’attaque accrue face à la défense, GPT-5.3-Codex montre une croissance impressionnante en capacité d’attaque

Dans les premiers résultats de test, on observe une différence notable de performance entre différentes tâches. La dernière génération, GPT-5.3-Codex, excelle en mode exploitation (Exploit Mode), avec un score de 72,2 %, contre seulement 31,9 % pour le modèle GPT-5 publié il y a six mois. Cela témoigne d’une croissance spectaculaire des capacités.

Source : OpenAI Résumé des scores des différents modèles IA dans les trois modes

Cela indique qu’en ciblant clairement « vider les fonds », l’IA possède une capacité puissante de planification et d’exécution itérative. Cependant, ses performances en défense restent faibles : en mode détection, l’IA s’arrête souvent après avoir trouvé une seule erreur, et lors de la correction de logiques complexes, elle a du mal à réparer parfaitement sans affecter le fonctionnement normal du contrat. Les experts en sécurité expriment leur inquiétude, estimant que l’IA pourrait réduire considérablement le temps entre la découverte d’une vulnérabilité et le développement d’une attaque, ce qui impose des exigences accrues pour la défense des projets DeFi.

Recrutement de talents et subventions pour la défense, OpenAI construit un écosystème sécurisé pour les agents IA

Au-delà du développement d’outils, OpenAI multiplie les actions en matière de recrutement et de défense de l’écosystème. Récemment, ils ont embauché Peter Steinberger, fondateur du projet open source d’agents IA OpenClaw, pour diriger le développement de la prochaine génération d’agents personnalisés, en transformant ce projet en une fondation soutenue par OpenAI.

Pour faire face aux risques de cybersécurité liés à l’IA, OpenAI s’engage à allouer 10 millions de dollars via son programme de subventions en sécurité réseau, pour soutenir la recherche sur des outils de défense open source et des infrastructures critiques. Cette initiative intervient notamment après l’incident récent du protocole Moonwell, où une erreur dans le code partagé par l’IA a entraîné une perte d’environ 1,78 million de dollars.

Lectures complémentaires
Refus de l’offre de Meta de plusieurs milliards, le créateur d’OpenClaw rejoint OpenAI dans la guerre des talents, tout est une erreur de Vibe Coding ? Moonwell prédit une panne, qui paiera pour la perte de 1,78 million ?

À l’avenir, avec l’intégration croissante d’agents de paiement stables alimentés par IA et de portefeuilles automatisés dans l’écosystème, la capacité à distinguer les modèles capables uniquement de décrire des vulnérabilités de ceux capables de fournir des solutions de défense fiables grâce à des outils comme EVMbench deviendra un tournant clé pour la sécurité blockchain.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

La page des relevés de transactions de BTTC Bridge passe à la version supérieure : filtres et suivi améliorés

BTTC Bridge a mis à niveau sa page des relevés de transactions afin d'améliorer le suivi des actifs pour les utilisateurs transfrontaliers. La nouvelle interface propose deux modes d'affichage, des filtres améliorés et des marqueurs d'identification clairs, dans le but de simplifier la gestion des transactions. D'autres améliorations sont prévues.

GateNewsIl y a 1h

La Corée du Sud lance un pilote de token de dépôt blockchain pour les dépenses gouvernementales au T4 2026

La Corée du Sud prévoit de lancer un pilote de token de dépôt basé sur la blockchain dans la ville de Sejong au T4 2026, en remplacement des méthodes traditionnelles de paiement du gouvernement. Cette initiative vise à simplifier les transactions et à réduire les coûts pour les petites entreprises.

GateNewsIl y a 3h

Cobo lance une couche de dédouanement pour l’adoption (ACL) pour des incitations de paiement multi-chaîne

Cobo a introduit la couche de compensation pour l’adoption (ACL), une plateforme de règlement des incitations pour les blockchains et les institutions de paiement. Elle propose l’acheminement de paiements multi-chaînes, permettant aux utilisateurs de gagner des remises et de stimuler les volumes de transactions dans l’écosystème.

GateNewsIl y a 3h

Le jeton WLFI sera-t-il bloqué jusqu’à la chute de Trump ? Sun Yuchen s’est fait avoir, sévère critique de « la tyrannie mondiale »

Le projet crypto de la famille Trump WLFI lance une nouvelle proposition de gouvernance, prolongeant la période de verrouillage des jetons des investisseurs précoces jusqu’à quatre ans, ce qui a suscité une vive opposition de la part d’investisseurs comme Justin Sun. Sun a qualifié cette proposition de « menace » et a estimé qu’il s’agissait d’une intimidation envers les investisseurs. De son côté, WLFI a déclaré que cette proposition permettait d’assurer la santé du marché et fait face à des contestations juridiques de la part du public.

ChainNewsAbmediaIl y a 4h

Aave Labs lance Aave Checkpoint, un système de sécurité de gouvernance piloté par l’IA

Aave Labs a lancé Aave Checkpoint, un système de sécurité de gouvernance piloté par l’IA visant à renforcer l’organisation autonome décentralisée d’Aave en garantissant un examen rigoureux des propositions grâce à une analyse automatisée et à une vérification humaine obligatoire.

GateNewsIl y a 4h

Aave Labs lance Aave Checkpoint, une révision manuelle pour prévenir les risques de gouvernance DAO

Aave Labs a publié Aave Checkpoint le 15 avril, en combinant une analyse automatique par IA et une validation manuelle obligatoire, et exigeant qu’au moins deux auditeurs vérifient les propositions de gouvernance. Ce système est en fonctionnement depuis mars 2026 et couvre des risques DeFi tels que la manipulation des oracles. En parallèle, Aave V4 introduit un module de réinvestissement qui configure dynamiquement la liquidité inactive afin de maintenir une liquidité disponible en temps réel.

MarketWhisperIl y a 5h
Commentaire
0/400
Aucun commentaire