人工智能公司Anthropic指控三家AI公司非法利用其大语言模型Claude,通过一种称为“蒸馏”的技术提升自身模型水平。
据Anthropic周日博客文章称,该公司已识别出DeepSeek、Moonshot和MiniMax发起的这些“攻击”,具体做法是用能力较弱的模型训练强大模型的输出结果。
Anthropic指控,这三家公司与Claude AI 总共生成了“超过1600万次交流”,涉及“大约24000个虚假账户”。
Anthropic写道:“蒸馏是一种广泛采用且合法的训练方式。例如,前沿AI实验室通常会蒸馏自家模型,为客户制作更小、更便宜的版本。” 并补充道:
但蒸馏也可能被用于非法用途:竞争者能借此在极短时间内、以极低成本,从其他实验室获取强大能力,而无需独立开发。
Anthropic表示,这些攻击主要是针对Claude的多种应用场景进行抓取,包括自主性推理、编程与数据分析、基于评分标准的任务,以及计算机视觉。
这家数十亿美元AI公司指出:“每一轮行动都锁定Claude最具差异化的能力:自主推理、工具使用和编程。”

Anthropic称,通过“IP地址关联、请求元数据、基础设施指标,以及某些情况下来自业内合作伙伴的佐证——这些合作伙伴在其平台上观察到了相同的行为和攻击者”,成功锁定了这三家公司。
DeepSeek、Moonshot和MiniMax均为中国AI公司,估值均在数十亿美元级别,其中DeepSeek的国际知名度最高。
除知识产权之外,Anthropic还表示,来自外国竞争者的蒸馏攻击构成真实的地缘政治风险。
该公司称:“外国实验室若蒸馏美国模型的能力,就能将其无防护地融入军事、情报和监控系统——使威权政府能够将前沿AI用于网络攻击、虚假信息行动和大规模监控。”
展望未来,Anthropic表示将通过升级检测系统以识别可疑流量、共享威胁情报、加强访问控制等方式进行自我保护。
公司还呼吁本土行业参与者及立法者加强协作,共同阻止外国AI公司对美国企业的攻击。
“没有哪家企业能独自解决这个问题。如上所述,如此大规模的蒸馏攻击需要AI产业、云服务商、政策制定者协同应对。我们公布这些证据,是希望每个利益相关方都能了解事态进展。”

