【科技24时区】Anthropic与美国国防部的激烈争端正使其陷入前所未有的尴尬境地——其人工智能模型仍在美伊冲突中被用于关键作战决策,却同时被大量国防工业客户迅速弃用。这一矛盾局面源于美国政府内部指令的重叠与冲突。
Anthropic首席执行官达里奥·阿莫迪
美国总统特朗普此前已下令联邦民用机构停止使用Anthropic的产品,并给予该公司六个月过渡期以逐步终止与国防部的合作。然而,就在该行政指令发布次日,美国与以色列即对德黑兰发动突袭,迅速将局势升级为持续性军事冲突,导致特朗普的“脱钩”指令尚未来得及全面执行,Anthropic的技术便再度被投入战场。
据《华盛顿邮报》周三披露,Anthropic的Claude模型正通过与Palantir公司“Maven”系统的深度整合,在美军空袭伊朗行动中发挥核心作用。报道指出,在制定打击计划期间,该系统“提出了数百个潜在目标,提供精确地理坐标,并按战略重要性对目标进行优先级排序”,其功能被描述为“实时目标识别与优先级判定”。
尽管国防部长皮特·赫格塞斯(Pete Hegseth)已公开表示将把Anthropic列为“供应链风险”,但截至目前,官方尚未采取任何具有法律效力的正式措施。这意味着在现行法规下,军方继续使用其系统并无障碍。
与此同时,国防工业生态链已开始快速“去Anthropic化”。路透社报道称,洛克希德·马丁等主要防务承包商本周已启动替换程序,将Anthropic模型切换至竞争对手产品。众多二级供应商亦陷入两难。J2 Ventures的一位管理合伙人向CNBC透露,其投资组合中已有10家公司“暂停在国防场景中使用Claude,并正积极寻找替代方案”。
目前最大的不确定性在于,赫格塞斯是否会正式落实“供应链风险”认定。一旦实施,极可能引发一场激烈的法律对抗。但在政策落地前,这家曾被视为AI安全标杆的前沿实验室,正经历着被军事技术体系迅速边缘化的现实——即便其技术仍在真实战区中扮演关键角色。这一悖论不仅凸显了AI伦理与国家安全之间的深层张力,也预示着未来军用AI供应链或将面临更严格的政治审查与技术隔离。