MATS 和 Anthropic Fellows 的一项最新研究证实,AI 智能体能够有利可图地利用智能合约漏洞,从而确立了经济危害的“具体下限”。
随着人类任务自动化的步伐不断加快,人工智能(AI)智能体面临着一个显著且可量化的负面因素:这些智能体能够有利可图地利用智能合约漏洞。MATS 和 Anthropic Fellows 的最新研究利用智能合约攻击基准(SCONE-bench)来衡量这一风险。
该研究成功部署了 Claude Opus 4.5、Claude Sonnet 4.5 和 GPT-5 等模型,开发出了模拟价值达 460 万美元的攻击。SCONE-bench 包含了 2020 至 2025 年间实际被攻击的 405 份智能合约。在 12 月 1 日发布的研究报告中,团队表示,AI 智能体在区块链模拟器上开发攻击的成功,确立了“这些能力可能造成的经济损失的具体下限”。
研究还进一步测试了 Sonnet 4.5 和 GPT-5 在 2,849 份最近部署且无已知漏洞的合约上的表现。结果显示,这些智能体即使在全新环境中也能生成有利可图的攻击:两个智能体共发现了两处新型零日漏洞,并制造出价值 3,694 美元的攻击。GPT-5 完成此成就的 API 成本仅为 3,476 美元。
阅读更多: 从 DeFi 到 Defcon:TRM 警告国家级网络攻击浪潮
这一结果为盈利性、现实世界的自主攻击的技术可行性提供了概念验证,突显了迫切需要主动 AI 驱动的防御机制。
或许最令人警惕的发现是效率的显著提升:攻击者现在用同样的算力预算,能够实现约 3.4 倍于六个月前的攻击成功次数。此外,成功攻击的 Token 成本下降了惊人的 70%,使得这些强大的智能体运行成本大幅降低。
SMARDEX 联合创始人 Jean Rausis 将成本骤降主要归因于智能体循环。这些循环实现了多步、自我纠正的工作流,在合约分析过程中减少了 Token 浪费。Rausis 同时强调了模型架构改进的作用:
“像 Claude Opus 4.5 和 GPT-5 这样的大上下文窗口和记忆工具,允许长时间不重复地持续模拟,使长任务效率提升 15-100%。”
他指出,这些优化带来的收益超越了单纯漏洞检测的提升((漏洞检测在 SCONE-bench 上的成功率仅从 2% 提升到 51%)),因为它们关注于优化运行时而非仅仅发现缺陷。
尽管研究模拟的成本为 460 万美元,但专家担心实际的经济损失可能会远高于此。Rausis 估计,实际风险可能高出 10-100 倍,每次重大攻击的损失可能达到$50 百万至$500 百万甚至更多。他警告称,随着 AI 的扩展,考虑到未建模的杠杆和预言机故障,整个行业的总风险敞口每年可能高达 100-200 亿美元。
MATS 和 Anthropic Fellows 的论文最后警告:虽然智能合约可能是这波自动化攻击的首要目标,但随着智能体反向工程能力的提升,专有软件很可能成为下一个受害者。
至关重要的是,论文还提醒读者,同样的 AI 智能体也可以用于防御和修补漏洞。为了缓解易被自动化 DeFi 攻击带来的系统性金融威胁,Rausis 向政策制定者和监管者提出了三步行动计划:AI 监管、新审计标准以及全球协调。