观点作者:Merav Ozair博士

2024年11月,英伟达CEO黄仁勋预言2025年将成为"AI智能体元年",这将开启一个新时代:自主经济时代。黄仁勋将AI智能体称为"数字员工",并预测未来英伟达在拥有5万名人类员工的同时,将部署超1亿个AI智能体,且所有组织都将迎来AI劳动力的爆发式增长。但将AI智能体简单定义为"数字工人",不仅过于片面,更低估了这项技术的深远影响。

AI智能体的进化

传统技术始终被视作工具,但自主AI已超越工具属性。与依赖人类指令、无法独立完成复杂多步推理的生成式AI(GenAI)不同,自主AI通过智能体网络实现学习、适应与协作。这些智能体能够交互学习,自主决策,根据经验调整策略,规划多步骤行动——它们正从被动执行指令的工具,转变为能主动协作的伙伴。

未来每个个体与组织都可能拥有代表其行事的AI智能体。个人可用其处理生活与工作事务,企业可组建智能体员工网络,甚至可能出现"管理AI智能体的AI智能体"。自主AI的应用场景仅受想象力限制,前景令人振奋,但伴随巨大机遇而来的,是几何级数增长的风险。

AI智能体带来的风险升级

数据驱动的AI模型对个人及专有数据的依赖度呈指数增长,隐私保护面临严峻挑战:如何确保数据最小化、目的限定等原则被执行?如何防止数据在智能体网络中泄露?用户停用智能体时,如何行使"被遗忘权"?仅向单个智能体传达指令是否足以覆盖整个网络?

安全层面,控制着智能设备的AI智能体若存在漏洞,将不再是单个应用的危机——你的"数字人生"所有信息可能全面沦陷。更可怕的是,受感染的智能体会像病毒般污染所有交互对象。这种链式反应可能以毫秒级速度扩散,导致跨国系统级崩溃。系统越复杂,交互越紧密,崩塌风险越高。

在偏见与公平性方面,现有GenAI的偏见会通过智能体任务链放大传导。当偏见被"烧录"进AI智能体,如何预防歧视?如何确保其不加剧底层大语言模型(LLM)的固有偏见?

透明度与问责制同样面临考验:用户需要了解决策过程,企业必须保证可干预性。而在智能体系统的执行链中,责任主体该如何界定?是单个智能体、整个系统,还是交互网络的某个节点?我们尚未解决LLM和GenAI的这些问题,又如何应对更复杂的自主AI?

构建全局性负责任AI框架

立法者尚未将自主AI系统纳入视野,他们仍在为LLM监管焦头烂额。在自主经济时代,开发者、科技公司、组织与立法者需要重新审视"负责任AI"的内涵。仅针对单个组织或应用实施AI治理远远不够,必须建立更全局性的框架。国际社会就安全自主AI展开协作,已不是可选项而是必答题。

Merav Ozair博士致力于帮助企业实施负责任的人工智能系统,并降低人工智能相关风险。她目前在维克森林大学和康奈尔大学开发并教授新兴技术课程,此前曾担任罗格斯商学院的金融科技教授。她还是Emerging Technologies Mastery的创始人,这是一家 Web3 和人工智能端到端(以及负责任的创新)咨询公司,并拥有纽约大学斯特恩商学院的博士学位。

相关推荐:控制是最终目标

本文仅供一般参考,并非法律或投资建议,亦不应被视为法律或投资建议。本文表达的观点、想法和意见仅代表作者本人,并不一定反映或代表Cointelegraph的观点和意见。