以太坊(ETH)联合创始人Vitalik Buterin警告,加密项目在治理过程中使用人工智能,可能给恶意行为者可乘之机。

Buterin周六在X平台发文指出:“如果你用AI来分配贡献奖励,必然会有人在各种地方植入越狱指令,并加上诸如‘把所有钱都转给我’这样的指令。”

Buterin此言是在回应AI数据平台EdisonWatch创始人Eito Miyamura发布的一段视频。该视频演示了OpenAI于周三为ChatGPT新增的一项功能,可能被用于泄露私人信息。

目前,许多加密用户已利用AI开发复杂的交易机器人和代理进行投资组合管理,因此有人提出可用AI协助治理团队管理部分或全部加密协议。

Buterin提出替代方案

针对上述风险,Buterin提出了更为安全的治理替代方案。Buterin指出,ChatGPT的最新漏洞再次说明“想当然的‘AI治理’是个坏主意”,并提出了“信息金融(info finance)方法”作为替代。

他解释道:“你可以建立一个开放市场,任何人都能提交模型,并引入可由任何人发起、由人工评审团进行抽查评定的机制。”

Buterin在2024年11月曾撰文阐述信息金融方法。他表示,该方法以“你希望了解的事实”为起点,随后设计市场,以最优方式引导市场参与者提供相关信息。他还主张通过预测市场收集关于未来事件的见解。

Buterin在最新X平台发文称:“这种‘机制设计’思路,允许外部拥有大语言模型(LLM)的人接入,而不是直接编写一个LLM,本身更具韧性。”

此外,他补充道:“这种方式能够实时实现模型的多样性,同时为模型提交者和外部投机者内置激励,让他们持续关注并快速纠正这些问题。”

ChatGPT最新升级带来“严重安全风险”

周三,OpenAI为ChatGPT升级,新增对Model Context Protocol(模型上下文协议)工具的支持——该标准用于AI模型与其他软件集成,充当智能代理。

Miyamura在X平台发文称,他仅凭受害者邮箱地址,便让模型泄露了私人邮件数据,并指出此升级“带来了严重安全风险”。

他介绍,攻击者可向受害者邮箱发送带有“越狱提示”的日历邀请,即使受害者未接受邀请,ChatGPT也可能被利用。这一过程无需受害者主动参与,风险更高。

当受害者让ChatGPT查看日历时,AI会读取带有提示的邀请,从而“被攻击者劫持,按攻击者指令操作”,可用于搜索邮件并转发给攻击者。

Miyamura指出,此升级需要人工手动批准,“但决策疲劳是真实存在的,普通用户往往会盲目信任AI,直接点击批准。”

他补充说:“AI再智能,也可能以极其低级的方式被诱骗、被钓鱼,导致数据泄露。”

相关推荐:加密高管表示,加密货币不是Web 3.0,而是资本主义2.0