中东战争下,美国这对AI宿敌彻底撕破了脸?
日期:2026-03-08 17:44:50 / 人气:10
本就动荡的中东地区重燃战火,这很可能是AI时代的第一次全面战争。不久前,美国和以色列对伊朗发起了代号为“史诗之怒”的联合军事行动,对德黑兰政府高层、核设施、导弹基地、防空系统以及海军舰艇进行了全方位轰炸袭击。作为回击,伊朗也向设有美军基地的周边9个国家发起导弹与无人机轰炸。

近日,美国战争部与AI行业领头羊OpenAI签署了一份将人工智能部署于军事用途的合作协议。这两件事或许只是时间上的巧合,但巧合背后,或许藏着具有历史意义的深层逻辑。而OpenAI之所以会接下这个项目,核心原因在于他们的直接竞争对手Anthropic拒绝了美国战争部的最后通牒——拒绝向美军全面开放AI使用,拒绝将AI用于监控美国民众以及自主武器系统,最终被美国政府全面拉黑。
就在不久前,媒体曝光了Anthropic一份1600字的内部备忘录,让外界得以全面了解这场AI公司与美国政府首次里程碑式的对峙,也揭示了这场冲突背后远比技术分歧更复杂的政治逻辑。Anthropic CEO达里奥·阿莫迪(Dario Amodei)在备忘录中嘲讽,自己与美国政府关系恶劣,根源在于没有像同行那样给白宫捐款、没有向白宫吹捧恭维;他进一步指责同行,OpenAI与战争部合作协议背后的所谓安全防范,不过是逢场作戏。
一、美军指定AI服务商:Anthropic的不可替代性
为什么是Anthropic成为美军的核心AI服务商?尽管Anthropic并非AI行业的最大巨头,消费端用户基数与OpenAI及谷歌存在明显差距,但在企业市场,它却是当之无愧的领头羊。在企业级LLM市场,Anthropic的市场份额高达32%,稳居第一;而在编程与智能工作这个最具价值的细分市场,Anthropic的Claude更是占据着70%市场份额的压倒性优势。
目前,Anthropic的年化收入已达到190亿美元,其中80%来自企业客户。就在上个月,Anthropic完成了由GIC领投的300亿美元G轮融资,估值飙升至3800亿美元。投资者普遍认为,其在“治理合规”和“机构信任”方面构建的护城河,是谷歌和OpenAI难以逾越的。
尽管OpenAI、谷歌和xAI都拿到了美国战争部的2亿美元合同,但Anthropic的Claude却是唯一一个被允许部署在美军最高级别涉密网络上的大模型。它与大数据服务商Palantir、亚马逊AWS云服务,共同构成了美军的AI铁三角,支撑着美军的核心情报与作战决策。
据事后披露,美军曾利用Claude的逻辑推理能力,在Palantir的平台上快速处理截获的各类情报与卫星图像,交叉比对旅行记录和财务数据,最终精准确认马杜罗的实时位置。此次行动中,美军将马杜罗强掳至纽约,导致数十名古巴和委内瑞拉士兵死亡,而美军自身则无人阵亡,Claude的实战价值可见一斑。
此次美国与以色列对伊朗发起的大规模袭击,同样沿用了Claude与Palantir的组合,将其用于情报评估、目标识别和战场场景模拟。颇具讽刺意味的是,美国政府周五刚下令封禁Claude,周六攻击伊朗时,使用的依然是这款被其拉黑的AI工具。
这对五角大楼而言,无疑是一个棘手的难题。直到最近,Claude仍是唯一被允许进入军方机密系统的AI工具。政府官员坦言,Claude在某些方面的表现优于其他替代方案,更承认如果要将Anthropic的工具从现有系统中移除,将会是一个极为混乱且耗时的过程。
二、两条底线:Anthropic与美国政府的核心分歧
既然Claude已被用于美军对外作战且效果显著,Anthropic为何会与美国战争部彻底闹翻?核心症结在于两条AI技术使用底线的分歧。
Anthropic在与战争部的谈判中,始终坚持在合同中写入两项明确的禁止条款:一是禁止将其AI用于对美国公民的大规模国内监控,二是禁止将其AI用于完全自主的致命武器系统。但这两项要求,均被美国战争部拒绝以明文形式写入合同——战争部的立场是,AI可用于“任何合法目的”,模糊了AI使用的边界。
阿莫迪在备忘录中详细提及,战争部曾提出最后一个要求:删掉合同中关于“批量获取数据分析”的限制性表述。而这正是“合同中与我们最担忧的场景完美对应的那一行”——一旦删除,AI就可能利用大规模汇集的美国公民通信数据进行训练,进而实现对国内民众的大规模监控。对此,Anthropic拒绝作出任何让步。
双方僵持不下,在设定的最后期限过后,美国战争部随即宣布Anthropic为“国家安全供应链风险”。特朗普总统更是公开将Anthropic称为“激进左翼、政治正确公司”。而仅仅数小时之后,OpenAI便迅速补位,宣布签署了那份被Anthropic拒绝的合同,无缝衔接成为美军新的AI服务商。
事件发酵后,支持Anthropic的科技行业团体迅速行动——英伟达、谷歌等Anthropic的投资方组成行业联盟,向美国战争部发函,对将一家美国本土公司认定为供应链风险表示强烈关切。要知道,这一认定通常仅针对与外国对手有关联的企业。对此,Anthropic明确表示,将在法庭上挑战这一不合理认定。
对Anthropic而言,这一认定的影响极为深远。考虑到其八成收入来自企业客户,被列入美国政府的“供应链风险”黑名单后,诸多持有政府合同的企业客户将被迫放弃Anthropic的产品,这不仅可能让这家AI初创公司遭受惨重的经济损失,更会给其今年预定的首次公开募股(IPO)带来重大不确定性。
三、宿怨爆发:OpenAI的“两面性”与阿莫迪的愤怒
颇具戏剧性的是,尽管OpenAI CEO山姆·奥特曼(Sam Altman)在当天还公开表态,支持Anthropic坚守自身的安全底线,赞赏其对AI安全的重视,但转身就迅速接过了Anthropic放弃的战争部合同。这种无缝衔接的“假惺惺”表态,显然彻底激怒了阿莫迪。
事实上,Anthropic与OpenAI之间本就有着深厚的历史渊源与宿怨。Anthropic的创始团队主要来自OpenAI,当年正是因为对奥特曼的产品与商业方向不满,才选择离开并自立门户。此前,因OpenAI推出广告计划,Anthropic甚至斥资千万美元在超级碗投放广告嘲讽对手,引发奥特曼的愤怒回击,双方的矛盾早已公开化。
更为尴尬的是,在上个月的印度AI峰会上,奥特曼与阿莫迪被主办方安排并肩站立,但两人全程互相无视,即便在印度总理莫迪的示意下,也没有进行礼节性的握手,现场气氛十分僵硬,足见双方的积怨之深。
此次战争部合同事件,更是让阿莫迪的愤怒达到了顶点。他在内部备忘录中直言,OpenAI与战争部的交易不过是一场“安全剧场”,奥特曼“把自己呈现为和平缔造者和交易撮合者”,但这都是“彻底的谎言”。
这里需要解释一下,“安全剧场”一词最早由计算机安全专家布鲁斯·施奈尔(Bruce Schneier)在其著作《超越恐惧》中创造,专门用来描述那些看似能带来“更安全的感觉”、但实际上对安全几乎没有实质改善的表面措施。阿莫迪的言外之意是,OpenAI与战争部签订的AI合同,虽然列出了几条听起来负责任的“红线”(不用于国内监控、不用于自主战争武器),但这些条款全都依赖美国政府自行解释什么是“合法”,没有任何可独立核实、强制执行的机制,与Anthropic真正坚守底线的做法有着本质区别。
阿莫迪更是直言不讳地指出了背后的核心原因:“我们之所以被战争部和特朗普政府针对,真正的原因是:我们没有给特朗普捐款(而OpenAI和其高管们却捐了很多),没有像他们那样对总统大加赞美,我们支持AI监管(这与他们的议程相悖),我们真正守住了AI红线,而不是像他们一样制造‘安全剧场’来安抚员工。”
他所指的,是去年特朗普就职典礼时,奥特曼以个人名义捐款100万美元,而OpenAI总裁格雷格·布罗克曼(Greg Brockman)随后还向支持共和党的MAGA超级政治行动委员会捐款2500万美元。此外,奥特曼多次在公开采访中对特朗普总统大加赞赏,更曾跟随白宫代表团一同出访,与政府保持着密切的关系。相比之下,Anthropic始终与政府保持距离,不迎合、不妥协,这也成为阿莫迪指责OpenAI的底气所在。
四、漏洞百出:OpenAI的解释遭多方质疑
面对阿莫迪的公开指责,OpenAI自然不愿坐视不理。该公司在官网发布长文,声称其与战争部的合同包含三条“红线”:不得用于大规模国内监控、不得在需要人类控制的情况下指挥自主武器系统、不得用于需要人类审批的高风险自主决策。
奥特曼在本周也公开承认,OpenAI最初与战争部的合同确实存在缺陷,并宣布公司已与战争部重新谈判,达成了他所称的“更强安全保障”。他还专门强调,双方补充修订了合同语言,明确禁止将AI用于针对美国国内的监控。
然而,Anthropic很快便再次“打脸”奥特曼,直指其说法的根本漏洞:OpenAI的合同依然允许政府将AI用于“所有合法目的”,而判断什么是“合法”的权力,完全掌握在美国政府自身手中,所谓的“红线”实则形同虚设。
不仅是Anthropic,诸多行业分析人士也对OpenAI的解释持怀疑态度。很多人提出,如果美国战争部真的改变了态度,接受了OpenAI设置的三条红线,那么他们此前就不会因为Anthropic坚持同样的底线而与其闹翻,这背后的逻辑显然无法自洽。
OpenAI前安全部门负责人史蒂文·阿德勒(Steven Adler)在X平台上发文质疑,OpenAI“希望你相信国家情报局(NSA)被排除在他们的合同之外”,但却没有任何强有力的证据支撑这一说法,公众没有理由选择相信。
批评者进一步指出,美国情报机构在棱镜监控项目中,正是以“合法”为由,在《外国情报监视法》的模糊框架下,将数百万普通美国公民的通讯数据一网打尽。Anthropic并没有因为这些所谓的“合法”就放弃自己的标准,而OpenAI却刻意模糊了这一边界,为政府的不当使用留下了可操作空间。
更深层的问题在于,“人类监督”这一关键概念缺乏明确共识。OpenAI前地缘政治团队负责人萨拉·肖克(Sarah Shoker)在Substack上发文指出,国防工业界对于自主武器中“充分的人类监督”,至今没有明确的定义。
一个现实的疑问是:一名士兵对着AI推荐的目标点一下“确认”,算不算人类监督?还是必须有人逐一审阅每个打击决策?在当代战场的时间压力下,这个问题的答案可能直接决定数千人的生死。值得一提的是,在OpenAI宣布与战争部签约前,已有96名公司员工联署公开信,要求管理层“继续拒绝战争部当前关于允许使用我们的模型进行国内大规模监控和在没有人类监督的情况下自主杀人的要求”,可见公司内部也存在严重的分歧。
五、AI战争边界模糊:科技与权力的博弈困境
AI在现代战争中的主要应用路径已清晰可见:情报快速汇总(将海量侦查数据压缩为可操作情报)、目标生成(从传感器数据中自动识别和排列打击优先级)、战场态势感知(整合多源信息绘制实时战场图景)、后勤与指挥决策辅助。这些功能单看似乎只是“辅助工具”,但当它们被串联起来,构成一条从感知到杀伤的完整链条时,其性质已经发生了根本改变——而这正是Claude与Palantir组合的核心威力所在。
从传感器数据到AI解读,再到目标选择,最后到武器激活,这一完整链条存在一个关键风险:它可能在几乎没有人类控制或意识的情况下完成。这并非假设性场景,以色列在加沙冲突中广泛使用的Lavender系统,就被前情报官员描述为一台每天可以自动生成数百个打击目标的AI机器。在其操作流程中,人类审核每个目标的平均时间不足一分钟,有时甚至不到20秒,目标一旦生成,便立即进入打击流程。换言之,人类监督已经沦为“橡皮图章”,失去了实质的辨别意义。
除了AI用于作战自动化带来的风险,这场争议还留下了几个无法回避的根本性问题。
第一个问题:谁有权定义“合法”?如果AI使用的边界由政府自行解释,那么所谓的安全护栏就不再是护栏,而是沦为政府操控的政治工具。Anthropic的坚持,至少是在用合同条文来固化一条写在纸上的边界,即便这条边界并不完美;而OpenAI的合同处理方式,则刻意模糊了这一红线,将解释权完全交给了权力方。
第二个问题:科技公司是否有能力和勇气,对抗来自全球最强势政府的压力?事实上,科技公司始终在舆论压力、商业利益和政府压力之间艰难博弈,只不过,随着时间的推移,它们妥协的速度越来越快,抗拒的勇气越来越弱。
回望过往,2018年谷歌Maven项目曾引发4000名员工联名抗议,最终谷歌宣布不再续约,但微软与亚马逊随即接过了这个项目;2019年,微软员工抗议向美军提供HoloLens增强现实头盔用于战场,却未能阻止项目推进;2024年,谷歌员工再次抗议Project Nimbus以色列云计算合同,同样没有任何效果。
但这一次,OpenAI签下战争部合同的时间点,与美以联合空袭德黑兰的时间点几乎完全重叠,带来的震撼是前所未有的。Anthropic的这次抗拒,无论最终谈判结果如何,都展示了另一种可能:至少在某一时刻,有一家科技公司选择了不妥协,坚守了自己的底线。
只是,在商业利益与权力压力的双重诱惑下,他们不配合,总会有同行愿意取而代之——这或许就是AI时代,科技与权力博弈的无奈现实。
作者:杏耀注册登录测速平台
新闻资讯 News
- 明星公司之死:龙慧医疗倒在黎明...03-08
- 钟铮代表的两会建议:以顶层设计...03-08
- 中东战争下,美国这对AI宿敌彻底...03-08
- 前作卖出900万份,新作上线挤崩服...03-08

