以太坊联合创始人 Vitalik Buterin 表示,暂时中断全球可访问的计算资源,可能是“为人类争取更多时间”的一种方式,以应对潜在的危险超智能 AI。

在 2023 年 11 月提出“防御性加速主义”(d/acc)概念的博文之后,Buterin 1月5日更新博文并指出,超智能 AI 可能距离我们只有五年之遥,且无法预测其结果是否会带来积极影响。

Buterin 表示,如果这种情况发生,对工业规模计算硬件实施“软暂停”可能是减缓 AI 发展的可行方案,即在一到两年内将全球计算能力减少最多 99%,以“为人类争取更多准备时间”。

来源: Vitalik Buterin

超智能 AI 是一种理论上的人工智能模型,通常被定义为在各个领域的专业知识上,比最聪明的人类更加智能。

众多科技高管和研究人员对 AI 表示担忧,超过 2,600 人在 2023 年 3 月的公开信中呼吁暂停 AI 开发,因其可能对“社会和人类带来深远风险”。

Buterin 表示,他在介绍防御性加速主义(d/acc )的博文中只是“模糊地呼吁不要构建危险的超智能形式”,而现在他希望分享的是如何应对“AI 风险较高”这一情境的想法。

不过,Buterin 表示,只有在“确信我们需要比责任规则更强硬的措施”时,他才会推动硬件的“软暂停”。这意味着,使用、部署或开发 AI 的人可能会因模型导致的损害而面临诉讼。

他提到,关于硬件暂停的提议包括追踪 AI 芯片的位置并要求其进行注册。Buterin 提议,工业规模的 AI 硬件可以配备一个芯片,只有在每周获得三个主要国际机构的签名后,才能继续运行。

相关推荐: 随着 AGI 的出现,人工智能在2024年取得了突破性进展

Buterin 写道:“签名将独立于设备(如果需要,我们甚至可以要求提供零知识证明,证明它们已在区块链上发布),因此这将是全有或全无的。”他补充道:“在不授权所有其他设备的情况下,授权单一设备继续运行是不现实的。”

Buterin 支持的 d/acc 理念提倡谨慎的技术开发方法,与有效加速主义(e/acc)形成鲜明对比,后者主张不受限制、毫无节制的技术变革。

AI 洞察:围绕 AI 创造的 迷因币 “宗教”,一个奇异的崇拜群体正在崛起