2026-02-27 16:26:16
loading...
Anthropic 72小时生死劫:五角大楼最后通牒与安全承诺崩塌
摘要
Anthropic面临五角大楼72小时最后通牒,要求开放Claude军事使用权限。同日其核心安全承诺被删除,引发行业震动。真相究竟是安全守护者还是商业妥协者?
2月24日,华盛顿五角大楼内一场非公开会面悄然酝酿风暴。Anthropic CEO Dario Amodei与国防部长Pete Hegseth对坐,气氛表面平静,实则暗流汹涌。五角大楼开出条件:周五下午5:01前,必须允许Claude用于所有合法军事用途,包括自主武器瞄准和国内监控;否则,将取消2亿美元合同,启动《国防生产法》强制征用,并将其列为“供应链风险”实体,等同于纳入敌对国家名单。
这一压力并非孤立事件。同一天,Anthropic发布第三版《负责任扩展政策》(RSP 3.0),悄然删去了自成立以来最核心的承诺——若无法保障安全措施,便暂停训练更强大模型。这一举动被业内视为品牌信誉的重大转折。
就在外界聚焦于政府施压之际,另一条线索浮出水面:Elon Musk在X平台发文称,Anthropic大规模盗用训练数据,且为此支付了15亿美元和解金。该消息随后由社区笔记补充,指向其使用未经授权的书籍进行模型训练的事实。
这起事件构成多重悖论:一边指控中国公司对Claude实施“蒸馏攻击”,一边自身却因数据来源问题被指侵权;一边高调宣称安全为先,一边又主动放弃关键安全机制。这种矛盾,正是当前人工智能产业深层张力的缩影。
H2 五角大楼的“要么服从,要么滚”
Anthropic是首家获得美国国防部机密访问权限的AI公司,去年夏末签下上限2亿美元的合同。尽管如此,该公司仍坚持两条红线:不支持全自主武器系统,也不接受对美国公民的大规模监控。其理由在于,当前人工智能的可靠性不足以承担此类责任,且法律框架尚未建立。
但白宫方面态度明确。此前,白宫AI顾问David Sacks曾公开批评Anthropic“以恐惧为武器,搞监管俘获”。相比之下,OpenAI、Google、xAI均已同意军方全面使用其模型,而Musk的Grok也已获批进入机密系统。如今,Anthropic成为唯一未妥协者。
一位匿名前司法部联络员向CNN质疑:“你如何既能认定一家公司是供应链风险,又强迫它为你服务?”此问直指逻辑矛盾,但显然不在五角大楼的考量范围内。他们关心的是,若不妥协,将采取强制手段或彻底抛弃。
H2 “蒸馏攻击”:一场精心策划的叙事反击?
2月23日,Anthropic发布一篇措辞激烈的博客,指控DeepSeek、Moonshot AI、MiniMax三家中国公司对其展开“工业级蒸馏攻击”。据称,对方通过2.4万个伪造账户,发起超过1600万次交互,定向提取Claude在智能体推理、工具调用与编程方面的核心能力。
Anthropic将此举定性为国家安全威胁,警告蒸馏后的模型可能被威权政权用于网络攻击、虚假信息传播及大规模监控。
然而,时间点极为敏感——恰逢特朗普政府放宽对华芯片出口管制之后。此举被广泛解读为为后续游说争取政治资本。更讽刺的是,就在同一时期,有报道指出Anthropic因使用盗版书籍训练模型,已支付15亿美元和解金。
AI基础设施公司IO.Net联合创始人Tory Green指出:“你们用全网数据训练模型,然后别人用你的公共API学习你,就叫‘攻击’?这在业内已是常态。”事实上,OpenAI、Google、Anthropic自己都曾采用类似方法压缩模型。区别只在于,这一次被蒸馏的是自己。
南洋理工大学教授Erik Cambria表示:“合法使用与恶意利用之间的边界本就模糊。”当一家公司既主张数据主权,又依赖开放接口获取反馈时,其立场难以自洽。
H2 安全承诺的拆除:从理想主义到现实妥协
RSP 3.0的出台,标志着Anthropic从“理想主义守门人”转向“现实主义运营者”。原版本中“若能力超越安全控制,则暂停训练”的硬性条款已被移除。取而代之的是一个分阶段的风险评估框架:每3至6个月发布一次报告,邀请外部专家评审。
首席科学家Jared Kaplan解释:“在竞争对手全速推进、行业共识迟迟未建的情况下,单方面承诺已无意义。”
但批评声音随之而来。非营利组织METR审查员Chris Painter认为:“这说明他们已意识到风险评估速度跟不上模型发展,社会准备不足。”
TIME报道指出,此次政策修订历时近一年,董事会全票通过。官方说法是,全球治理框架未能如期落地,联邦立法长期停滞,使得单边承诺失去效力。然而,一位匿名研究员直言:“RSP是Anthropic最值钱的品牌资产。删掉暂停训练承诺,就像有机食品公司撕下‘有机’标签,却告诉你检测更透明。”
H2 3800亿估值下的身份撕裂
2026年初,Anthropic完成一轮300亿美元融资,估值达3800亿美元,亚马逊为锚定投资者。自成立以来,年收入已达140亿美元,过去三年年均增长超10倍。
但与此同时,危机四伏:五角大楼威胁列入黑名单,马斯克公开指控数据窃取,核心安全承诺被废,安全负责人辞职后发帖称“世界正处于危险之中”。
这家由前OpenAI高管创立的公司,初衷是应对安全过快的问题。但他们自己却在快速构建更强模型的同时,不断强调危险。其商业模式可概括为:我们比任何人都更害怕AI,所以你应该出钱让我们来造AI。
这一叙事曾在2023至2024年奏效。但在2026年,风向逆转。“woke AI”成为攻击标签,州级监管法案遭阻击,尽管加州SB 53成法,联邦层面依旧空白。曾经的“安全优势”正演变为“政治负资产”。
H2 安全叙事,还值多少钱?
把三件事并置:指控中国公司蒸馏模型以强化游说,为保竞争力删除安全承诺,拒绝军方要求以维持道德外衣——每一步都有逻辑,但彼此冲突。
你不能一边说蒸馏会危害国家安全,一边又放弃防止自己模型失控的机制。若真如此危险,为何不更谨慎?除非你像Anthropic一样,正处在价值重构的关键节点。
在人工智能领域,身份由资产负债表定义,而非口号。所谓的“安全”,本质上是一种品牌溢价。早期,这种溢价能换取高估值、政府信任与客户青睐。
但2026年,溢价正在蒸发。面对五角大楼、市场、投资者与公众的多重期待,Anthropic不再只是选择“是否妥协”,而是必须决定“向谁妥协”:向政府让步,品牌受损;向竞争者看齐,承诺失效;向资本低头,两头失守。
周五下午5:01,答案即将揭晓。无论结果如何,有一个事实已然清晰:那个曾以“我们不同于OpenAI”立足的Anthropic,正在变得和所有人一样。
身份危机的终点,往往是身份的消失。
声明:文章不代表比特之家观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险自担!转载请注明出处!侵权必究!