【科技24时区】Anthropic本周表示,其最新大语言模型Mythos因在发现全球用户广泛依赖的软件安全漏洞方面能力过强,已决定暂不向公众开放。取而代之的是,这家前沿AI实验室将通过名为“玻璃墙计划”(Project Glasswing)的机制,仅向亚马逊云服务(AWS)、摩根大通等运营关键网络基础设施的大型企业及机构提供受限访问权限。

据报道,OpenAI也在考虑对其下一代网络安全工具采取类似策略。表面上看,此举旨在让这些大型组织率先掌握防御能力,以应对潜在攻击者利用先进大语言模型突破安全系统的行为。然而,“exploit”(可利用性)一词暗示,这一发布策略背后或许不仅关乎网络安全,也可能涉及对模型能力的营销包装乃至更深层的商业意图。
早在Mythos正式发布前的今年3月,AI网络安全公司Irregular首席执行官丹·拉哈夫(Dan Lahav)就曾向TechCrunch指出,尽管AI工具发现漏洞的能力值得关注,但某一漏洞对攻击者的实际价值,取决于其是否能与其他漏洞组合形成有效攻击链。“我始终关心的问题是,”拉哈夫说,“它们是否找到了真正具有高度可利用性的漏洞——无论是单独使用,还是作为攻击链的一部分?”
Anthropic声称,Mythos在漏洞利用方面远超其前代旗舰模型Opus。然而,这并不意味着Mythos就是网络安全领域的终极解决方案。AI网络安全初创公司Aisle表示,其团队已能利用参数规模更小、权重开源的模型,复现Anthropic所宣称的Mythos多数成果。Aisle认为,这表明网络安全任务并无“万能模型”,而是高度依赖具体应用场景。
值得注意的是,Opus此前已被视为网络安全领域的颠覆性工具。在此背景下,前沿实验室选择仅向大型企业开放新模型,可能另有商业动因:一方面可推动高价值企业合同的签订,另一方面则能有效遏制竞争对手通过“蒸馏”(distillation)技术低成本复制其模型。蒸馏是一种利用前沿模型输出数据来训练新模型的方法,近年来被广泛用于降低大模型研发门槛。
软件工程师、初创公司exe.dev创始人戴维·克劳肖(David Crawshaw)在社交媒体上评论称:“这本质上是以安全为名的营销话术,掩盖了顶级模型如今已被企业协议锁定、不再向小型实验室开放用于蒸馏的事实。”他进一步指出:“等到你我能够使用Mythos时,新一代仅限企业使用的顶级模型早已问世。这种‘跑步机’机制通过将蒸馏公司压制在第二梯队,确保了企业客户的资金持续流入——而企业客户恰恰贡献了绝大部分收入。”
这一分析与当前AI生态系统的格局高度吻合:一边是Anthropic、Google、OpenAI等前沿实验室竞相开发规模最大、能力最强的闭源模型;另一边则是Aisle等公司依托多模型协同策略,将中国等地开源的大语言模型(其中不少据称通过蒸馏技术开发)视为实现成本优势的路径。
今年以来,前沿实验室对蒸馏行为的态度明显趋严。据彭博社报道,Anthropic曾公开披露多家中国公司试图复制其模型,并与Google、OpenAI联手识别并封禁蒸馏行为。对这些实验室而言,蒸馏直接威胁其商业模式——因为它削弱了巨额资本投入所带来的技术壁垒。因此,阻止蒸馏已成为一项重要战略目标,而选择性发布模型不仅有助于实现这一目标,还能在企业级市场日益成为盈利核心的当下,强化其差异化服务优势。
至于Mythos或任何新型AI模型是否真正构成对互联网安全的系统性威胁,仍有待观察。谨慎推进技术落地无疑是负责任的做法。截至发稿,Anthropic未回应有关该决策是否也出于防范蒸馏考量的提问。但可以肯定的是,该公司或许已找到一种既能保护网络安全、又能稳固自身商业利益的巧妙平衡之道。