观点作者:Jason Jiang,CertiK首席商务官
自诞生以来,去中心化金融(DeFi)生态系统一直以创新为特征,从去中心化交易所(DEX)到借贷协议、稳定币等等。
最新的创新是DeFAI,即由人工智能驱动的DeFi。在DeFAI中,基于大数据集训练的自主机器人可以通过执行交易、管理风险和参与治理协议来显著提高效率。
然而,与所有基于区块链的创新一样,DeFAI也可能引入新的攻击向量,加密社区必须解决这些问题以提高用户安全性。这需要深入研究创新带来的漏洞,以确保安全性。
DeFAI代理超越了传统智能合约
在区块链中,大多数智能合约传统上都基于简单逻辑运行。例如,"如果X发生,那么Y将执行。"由于其固有的透明性,此类智能合约可以被审计和验证。
另一方面,DeFAI偏离了传统的智能合约结构,因为其AI代理本质上是概率性的。这些AI代理基于不断变化的数据集、先前输入和上下文做出决策。它们可以解释信号并适应,而不是对预定事件做出反应。虽然有些人可能有理由认为这个过程提供了复杂的创新,但它也通过其固有的不确定性为错误和漏洞创造了温床。
迄今为止,去中心化协议中AI驱动交易机器人的早期迭代已经标志着向DeFAI的转变。例如,用户或去中心化自治组织(DAO)可以实施机器人来扫描特定的市场模式并在几秒钟内执行交易。尽管这听起来很创新,但大多数机器人都在Web2基础设施上运行,为Web3带来了中心化单点故障的漏洞。
DeFAI创造了新的攻击面
当这种转变可能创造出行业尚未准备好应对的新攻击面时,行业不应沉浸在将AI融入去中心化协议的兴奋中。恶意行为者可能通过模型操纵、数据投毒或对抗性输入攻击来利用AI代理。
这可以通过训练来识别DEX之间套利机会的AI代理来说明。
威胁行为者可能篡改其输入数据,使代理执行无利可图的交易,甚至从流动性池中抽取资金。此外,被攻破的代理可能误导整个协议相信虚假信息,或作为更大攻击的起点。
这些风险因大多数AI代理目前是黑盒而加剧。即使对于开发者来说,他们创建的AI代理的决策能力可能也不透明。
这些特征与Web3的理念相反,Web3建立在透明性和可验证性之上。
安全是共同责任
考虑到这些风险,可能会有人对DeFAI的影响表示担忧,甚至可能呼吁完全暂停这一发展。然而,DeFAI很可能会继续发展并看到更高水平的采用。那么需要的是相应地调整行业的安全方法。涉及DeFAI的生态系统可能需要标准的安全模型,其中开发者、用户和第三方审计师确定维护安全和减轻风险的最佳手段。
AI代理必须像任何其他链上基础设施一样对待:持怀疑和审查态度。这需要严格审计其代码逻辑、模拟最坏情况,甚至使用红队演习在恶意行为者利用之前暴露攻击向量。此外,行业必须制定透明度标准,如开源模型或文档。
无论行业如何看待这种转变,DeFAI在去中心化系统的信任方面引入了新问题。当AI代理可以自主持有资产、与智能合约交互并对治理提案投票时,信任不再仅仅是验证逻辑;而是验证意图。这需要探索用户如何确保代理的目标与短期和长期目标保持一致。
迈向安全、透明的智能
前进的道路应该是跨学科解决方案之一。零知识证明等密码学技术可以帮助验证AI行为的完整性,链上证明框架可以帮助追踪决策的起源。最后,具有AI元素的审计工具可以像开发者目前审查智能合约代码一样全面地评估代理。
然而,现实仍然是行业尚未达到那里。目前,严格的审计、透明度和压力测试仍然是最佳防御。考虑参与DeFAI协议的用户应该验证协议在驱动它们的AI逻辑中拥抱这些原则。
确保AI创新的未来
DeFAI本身并不不安全,但与当前大多数Web3基础设施不同。其采用速度有超越行业目前依赖的安全框架的风险。正如加密行业继续学习的那样——通常是艰难的方式——没有安全性的创新是灾难的配方。
鉴于AI代理很快就能代表用户行动、持有他们的资产并塑造协议,行业必须面对这样一个事实:每一行AI逻辑仍然是代码,每一行代码都可能被利用。
如果DeFAI的采用要在不损害安全性的情况下进行,它必须在设计时考虑安全性和透明度。任何不足都会招致去中心化本意要防止的结果。
观点作者:Jason Jiang,CertiK首席商务官。
相关推荐:以太坊基金会(Ethereum Foundation)推出"以太坊隐私管理员"及路线图
本文仅供一般信息目的,不构成法律或投资建议。此处表达的观点、想法和意见仅代表作者个人立场,不一定反映或代表Cointelegraph的观点和意见。